Sob a aba do indefectível chapéu de Santos Dumont, dois contêineres abrigam o supercomputador que leva o nome do pai da aviação; anexos ao espaço, três grandes geradores de energia garantem seu funcionamento ininterrupto


O Santos Dumont foi encomendado à fabricante francesa ATOS/BULL e opera aqui desde 2016






Os grandes compartimentos verticais protegidos por portas metálicas e acesso por um corredor central reúnem tecnologia sofisticada, em uma máquina com alto poder de desempenho: só de processadores há mais de 19 mil, dispostos sobre racks e conectados por um amontoado de fios coloridos, a memória RAM é de 53 terabytes (treze mil vezes maior que a de um computador comum)


Um sistema de refrigeração especial mantém a constante refrigeração do equipamento


A sede Petrópolis do LNCC foi inaugurada em junho de 1998
Foto: Paulo Faria


Um dos grupos temáticos do LNCC é o Laboratório ACiMA (Ambientes Colaborativos e Multimídia Aplicada), que objetiva explorar a utilização de ambientes virtuais colaborativos nas diversas áreas do conhecimento bem como a exploração de sistemas multimídia
Foto: Paulo Faria


No CPD, gabinete onde estão os equipamentos de comunicação com a RNP (Rede Nacional de Ensino e Pesquisa)


No segundo andar da sede, o CPD da instituição armazena todos os dados de pesquisas desenvolvidas ali


O Laboratório Nacional de Bioinformática (LABINFO), é responsável por projetos genômicos, como o que visa à construção do modelo da estrutura molecular do Zika Vírus


O LNCC coloca o Santos Dumont a serviço de diferentes áreas de conhecimento
Arquivo LNCC


Já o Laboratório de Modelagem em Hemodinâmica (HeMolab), dedica-se à Medicina Assistida por Computação Científica, com a construção de modelos do sistema cardiovascular que permitem entender os mecanismos de início e progresso de doenças pertinentes a este sistema do organismo humano
Arquivo LNCC

Além de fornecer tecnologia de ponta para a comunidade científica, a instituição mantém uma sortida biblioteca para pesquisas
Foto: Paulo Faria


O diretor do LNCC, Augusto Gadelha, costuma ministrar palestras de apresentação da instituição para pesquisadores e membros de entidades científicas
Foto: Matheus Mendonça

Gadelha faz questão de ressaltar o pioneirismo do LNCC, que, desde a fundação, na década de 1980, volta-se para a pesquisa da utilização de computadores para resolver problemas científicos e tecnológicos, além da grande influência na divulgação e consolidação de grupos de pesquisa nesta área em todo o país

Além de inspirar a construção de outros equipamentos, o ENIAC foi a primeira máquina a receber o nome computador, antes utilizado para designar os técnicos que a operavam
Foto: Militar norte-americano não identificado




Capa

LNCC Petrópolis
Instituição que abriga o mais potente computador da América Latina é o mais eficiente celeiro de pesquisas do Brasil


     Com quantos Petaflop/s se faz o desenvolvimento científico de um país? A pergunta não é de fácil resposta e talvez o leitor esteja, antes de tudo, se perguntando: “mas o que vem a ser isso?” Flop/s é a unidade de medida de operações matemáticas em ponto flutuante por segundo; o termo em questão, Petaflot/s, a capacidade do supercomputador Santos Dumont, instalado na sede Petrópolis do Laboratório Nacional de Computação Científica (LNCC), de realizar 1 quatrilhão de operações por segundo.
     Considerando-se apenas esta das muitas características surpreendentes da máquina, de fabricação francesa, encomendada à empresa ATOS/BULL, que opera aqui desde janeiro de 2016, já dá para perceber que o Santos Dumont, tido como o mais potente computador da America Latina, é, atualmente, a mais eficiente ferramenta para pesquisas e desenvolvimento de trabalhos científicos nas mais diversas áreas. No período compreendido entre agosto de 2016 e início de março deste ano, os jobs executados pela máquina chegaram a aproximadamente 200 mil.
     O Santos Dumont não lembra em nada um PC doméstico. A máquina, com grandes compartimentos verticais protegidos por portas metálicas e acesso por um corredor central, fica abrigada em dois containers em ambiente controlado, com temperatura estável – a variação é mínima, oscilando entre 22ºC e 24ºC – e a mesma que se considera ideal para o conforto do organismo hu­mano. Só de processadores há mais de 19 mil (um laptop caseiro costuma ter um ou dois), dispostos sobre racks e conectados por um amontoado de fios coloridos. A memória RAM é de 53 terabytes, treze mil vezes maior que a de um computador comum.
     Para manter o perfeito funcionamento do superequipamento – que exige três geradores, uma subestação de energia e uma sala de nobreak –, no entanto, a refrigeração é um elemento fundamental. O Santos Dumont tem sistema de refrigeração à água, que é reutilizada para o mesmo fim, e demanda um grande consumo de energia para sua manutenção. Este fator provocou o desligamento da máquina por um breve período em seu primeiro ano de utilização e chegou a acarretar problemas no andamento das pesquisas.
     Mas não só da superpotência do Santos Dumont – hoje utilizado por pesquisadores e instituições de 19 estados da Federação e com cerca de 100 projetos de pesquisa em desenvolvimento – vive o Laboratório Nacional de Computação Científica, órgão integrante do Ministério da Ciência, Tecnologia e Informação. A instituição foi fun­dada em 1980, com sede no Rio de Janeiro; sete anos depois, lançava o primeiro projeto de um Centro Nacional de Supercomputação, assim como de uma rede acadêmica, a RECITE (Rede de Ciência e Tecnologia). A intenção de investir em equipamentos de alto desempenho para o desenvolvimento científico nacional já existia nesta época e um fato, no mínimo curioso, marcou o início dessa nova era da computação no Brasil.
     “O primeiro supercomputador que pretendíamos comprar, ainda na década de 1980, era um modelo da americana Cray, um dos primeiros fabricantes desses equipamentos do mundo, e tinha uma velocidade de 800 Megaflop/s, o equivalente a 800 milhões de operações por segundo. Mas o Departamento de Estado norte-americano proibiu a venda de um equipamento com esta velocidade para o Brasil por crer que seria empregado em projetos de construção da bomba atômica e de submarinos nucleares”, conta Augusto Gadelha, diretor do LNCC.
     O lançamento da pedra fundamental da sede petropolitana, que hoje abriga o Santos Dumont, com capacidade muito superior a da máquina que gerou a inusitada polêmica – e que hoje pareceria uma carroça, mesmo em comparação a modelos simples de telefones celulares – aconteceu na década seguinte, em dezembro de 1994, com inauguração em junho de 1998. Os anos 2000 foram marcados pelo início do curso de Pós-Graduação em Computação Científica e pela criação do SINAPAD (Sistema Nacional de Processamento de Alto Desempenho), pela FINEP (Financiadora de Estudos e Projetos), em 2004, sob a coordenação do LNCC.
     “O LNCC sempre ofereceu suporte computacional para pesquisadores; desde sua fundação, a missão primordial era a de desenvolver estudos em computação científica, algo inovador na época, no sentido de voltar-se exclusivamente para a pesquisa de como utilizar os computadores para resolver problemas científicos e tecnológicos. O projeto de investimento em supercomputadores veio anos depois da criação do instituto, quando se percebeu a necessidade da utilização de máquinas de alto desempenho para o crescimento da computação científica. O laboratório introduziu e teve uma influência muito grande na divulgação e consolidação de grupos de pesquisa nesta área em todo o país; hoje, objetiva ainda a formação de recursos humanos através do ensino da disciplina e disponibiliza esta plataforma para toda a comunidade de ciência e tecnologia”, afirma Gadelha.
     O supercomputador atende a diversos tipos de projetos, por meio de diferentes programas de alocação de seus recursos. As propostas são submetidas por pesquisadores e avaliadas, com base em critérios como relevância e mérito científico, pelos Comitês Gestor e de Assessoramento Técnico-Científico do Santos Dumont  em resposta a chamadas abertas regularmente para cada um desses programas. As chamadas são divulgadas nas listas das principais sociedades científicas, assim como no site e nas mídias sociais do SINAPAD. “Temos diferentes níveis de programas na instituição. Para projetos maiores e estratégicos para o país, ligados, por exemplo, a questões de meteorologia e com grande demanda de recursos do Santos Dumont, é necessária a avaliação dos comitês. Um mais simples, que é para ensino e treinamento, que não depende de avaliação; e outro, cuja utilização demanda uma quantidade relativamente pequena de capacidade computacional. Para este último acabamos de instituir um fluxo contínuo, ou seja, os interessados se inscrevem independentemente das chamadas públicas”, enumera o diretor.
     Para um melhor entendimento da importância do trabalho desenvolvido pelo LNCC, faz-se necessária a compreensão do termo computação científica ou ciência computacional, como também é conhecida a disciplina. Trata-se do campo de estudo que visa à construção de modelos matemáticos e técnicas de soluções numéricas com a utilização de computadores para a análise e resolução de problemas. Na prática, nada mais é do que o emprego de simulações computacionais com vistas ao desenvolvimento de trabalhos nas mais diversas matérias científicas.
     A computação científica é atualmente considerada um terceiro elemento da ciência, em complemento à teoria e à experimentação. A estas fases é acrescentado o algoritmo computacional para a solução numérica e analítica que antecede as metodologias de simulação, visualização, experimentos, validação e interpretação de resultados.
     Funciona, mais ou menos, assim: depois da definição do problema a partir de um fenômeno (físico, climático, econômico ou de qualquer natureza), esta questão é transformada em um problema matemático e o método para sua solução é escolhido; um algoritmo (sequência finita de instruções bem definidas e não ambíguas) é elaborado e implementado na linguagem de programação escolhida; o programa é processado para que se retire os erros de sintaxe e as respostas sejam produzidas; e, finalmente, os resultados são analisados.
     As áreas de aplicação são inúmeras. O método pode ser utilizado, por exemplo, para estudos que envolvem clima, astrofísica, nuclear, aerodinâmica, dinâmica molecular, combustão, biodiversidade, energia, biotecnologia, genômica, segurança cibernética, medicina e saúde, entre muitas outras. Parece um tanto hermético para leigos, mas fica bem mais palatável com exemplos de estudos e modelos científicos desenvolvidos no LNCC.
     Um dos mais importantes, concernente às ciências biológicas, refere-se à estrutura de proteínas. Nos últimos doze anos, o Grupo de Modelagem Molecular de Sistemas Biológicos do LNCC tem desenvolvido o programa DockThor para predição de complexos moleculares receptor-ligante. Mais recentemente, em 2016, lançou o Portal web DockThor (www.dockthor.lncc.br), disponibilizando gratuitamente para a comunidade acadêmica o primeiro programa brasileiro – “possivelmente de todo o hemisfério sul”, como avalia Augusto Gadelha – de atracamento molecular receptor-ligante. Trocando em miúdos: a triagem virtual baseada em diferentes estruturas consiste em analisar computacionalmente uma grande quantidade de ligantes com o objetivo de selecionar, de acordo com os modos de ligação e as afinidades de ligação previstos, compostos provavelmente mais ativos farmacologicamente para determinada doença.
     Desde o seu lançamento, o portal DockThor foi acessado por mais de 3,5 mil visitantes e teve cerca de 3,5 mil trabalhos submetidos. Agora, um novo projeto relacionado ao portal, o DockThor – VS (Virtual Screening), tem como objetivo primordial a triagem virtual em larga escala. A versão atual do portal permite a realização de experimentos computacionais envolvendo apenas um ligante e um receptor por vez. No DockThor-VS, acoplado ao Santos Dumont, será possível investigar bibliotecas de ligantes contendo milhões de moléculas contra dezenas ou até mesmo centenas de alvos moleculares. O que significa que pesquisas aplicadas de desenho racional de novos fármacos para o tratamento de enfermidades negligenciadas, como o Alzheimer e doenças inflamatórias crônicas, serão desenvolvidas de forma muito mais rápida e eficiente.
     Além das pesquisas na área de Estrutura de Proteínas, pelo Portal Dockthor, outro importante projeto ligado às áreas de Medicina e Saúde está em curso no LNCC: a Medicina Assistida por Computação Científica. Trata-se da construção de modelos do sistema cardiovascular que permitem entender os mecanismos de início e progresso de doenças cardiovasculares, assim como também melhorar o planejamento cirúrgico e fomentar o desenvolvimento de novas estratégias de tratamento para estes males. Os modelos são feitos de forma personalizada, a partir das características específicas do organismo do paciente, o que garante maior precisão em diagnósticos e ainda dados mais completos para a tomada de decisão pelo médico do tipo de intervenção a que o paciente deve se submeter.
     “Ainda na área da medicina realizamos aqui um projeto, concernente à bioinformática, ligado à questão da identificação de estruturas de DNA. O programa oferece suporte a grupos de pesquisadores da área em todo o país; temos uma forte parceria com a Fiocruz para o desenvolvimento de modelos da estrutura molecular do Zika Vírus para que se encontre uma solução para o problema. Um dos membros do grupo do Laboratório de Bioinformática, inclusive, está passando uma temporada na França, a convite do Instituto Pasteur, para difundir por lá os fundamentos dos estudos realizados no LNCC com vistas ao combate ao vírus”, salienta Gadelha.
     Mais alguns exemplos de projetos da instituição são: Modelagem de Reservatórios de Óleo, Gás e Água, Modelagem de fluxo e transporte em reservatórios de gás de Xisto,? Modelagem de dutos para análise de estabilidade, integridade, capacidade residual etc., Ciência de Dados, Genômica Computacional, entre outros.
     Os pesquisadores e demais colaboradores da instituição dividem-se nos seguintes grupos temáticos: Laboratório Nacional de Bioinformática (LABINFO), responsável por projetos genômicos; Laboratório de Modelagem em Hemodinâmica (HeMolab), com sistemas fisiológicos aplicados ao sistema cardiovascular humano; Grupo de Modelagem Molecular de Sistemas Biológicos (GMMSB), voltado para a ferramenta de atracamento molecular DockThor; Extreme data Lab (DEXL LAB), para análise e gerenciamento de dados para aplicações em Astronomia, Bioquímica, Esporte, Bioinformática, Saúde e Ecologia; Computação Científica Distribuída (ComCiDis), ambiente de computação escalável, em nuvens, geograficamente distribuídos.; além de Ambientes Colaborativos de Multimídia Aplicada (Acima) e Laboratório de Processamento de Sinais (LPS).
     Na área de formação de recursos humanos, o LNCC conta com um programa de pós-gradua­ção stricto sensu em Modelagem Computacional, com mestrado e doutorado, e promove ainda reuniões e escolas científicas. O Laboratório também oferece apoio ao empreendedorismo ao acolher empresas que se interessam por transformar conhecimento em novos produtos, serviços e, especialmente, processos inovadores.
     O programa LNCC de Portas Abertas incentiva o conhecimento da ciência e tecnologia com visitas guiadas (e pré-agendadas) para estudantes e outros grupos ao Supercomputador e aos laboratórios e ainda por meio de bate-papo com pesquisadores. Para quem se interessa pelo fabuloso mundo da ciência computacional, não há melhor lugar para conhecer; é praticamente uma Disneylândia.

Laboratório Nacional de Computação Científica – LNCC:
Av. Getúlio Vargas, 333 Quitandinha
(24) 2233.0000
www.lncc.br
arcos@lncc.br


ENIAC, O PRECURSOR DAS SUPERMÁQUINAS

     O primeiro computador digital eletrônico de grande escala – o ENIAC (Electronic Numerical Integrator and Computer), em português: Computador e Integrador Numérico Eletrônico – começou a ser desenvolvido pela Universidade da Pensilvânia, em parceria com os cientistas norte-americanos John Eckert e John Mauchly, da Electronic Control Company, a partir de 1943, durante a II Guerra Mundial, para computar trajetórias táticas. A máquina foi importante ferramenta para o bloco de países aliados, uma vez que calculava em questão de minutos as tabelas de artilharia para uso no campo de batalha, que, quando elaboradas por humanos demoravam horas. Essas tabelas permitiam a realização de ataques mais precisos ao informar dados de alcances, altitudes, temperaturas e condições de vento, por exemplo. Com a chegada do computador, as tabelas eram produzidas rapidamente e entregues a tempo para os comandos das frentes de batalha.
     O ENIAC – que passou a funcionar a pleno vapor apenas depois do término da guerra – era tão grande que tinha de ser disposto em U com três painéis sobre rodas, para que os operadores pudessem se mover em torno dele. Sua capacidade de processamento era de 5 mil operações por segundo e possuía 17.468 válvulas termiônicas, de 160 kW de potência. O sistema operacional da máquina era através de cartões perfurados e o centro de processamento tinha uma estrutura muito similar à dos processadores mais básicos que atualmente utilizamos em nossas calculadoras de bolso. Tinha 20 registros de dez dígitos cada, em que se podiam efetuar somas, subtrações, multiplicações, divisões e raízes quadradas. A programação era realizada através de milhares de interruptores e envolvia uma grande quantidade de pessoas, que percorriam as longas filas de interruptores para fornecer ao ENIAC as instruções necessárias para calcular.
     Após 10 anos de operação, o ENIAC tornou-se obsoleto e economicamente inviável, o que determinou sua desmontagem. Hoje, as peças estão espalhadas por diversos museus ao redor do mundo, incluindo o Smithsonian, em Washington D.C., e ainda o local preciso onde foi construído: a Moore School for Electrical Engineering, da Universidade da Pensilvânia. O equipamento serviu de inspiração para muitos outros computadores que se seguiram, como o EDVAC (Electronic Discrete Variable Computer); o ORDVAC (Ordnance Variable Automatic Computer); o SEAC (Standards Automatic Computer) e o UNIVAC (Universal Automatic Computer), este último também construído por Eckert e Mauchly para o processamento dos dados dos censos da população americana. Mas seu legado se estendeu a outro campo; curiosamente, o termo “computador” antes associado às pessoas que operavam a máquina, passou nomear a máquina propriamente dita.


Voltar Próxima matéria


Estações de Itaipava © Todos os direitos reservados