Wednesday, December 23, 2015

O oceano superior

Um oceano nos ares
Radares e sobrevoos detalham os mecanismos de formação de chuva e o efeito da poluição urbana sobre o clima da Amazônia
CARLOS FIORAVANTI | ED. 217 | MARÇO 2014

Este belo estudo foi publicado em 2014. Repetimos neste inicio de verão para fixar que este é um planeta água. De longe, nossos irmãos universais devem achar assim, planeta água.

O mundo das águas: nuvens escuras cobrem o rio Negro e Manaus no dia 18 de fevereiro de 2014, antecipando mais uma chuva amazônica

De Manaus
Aqui em Manaus e por esta vasta região Norte chove muito o ano todo, mas as chuvas são diferentes. No início do ano – fevereiro e março – chove quase todo dia, com poucos relâmpagos, e o aguaceiro lava a floresta e as cidades durante horas seguidas. Já no final do ano – de setembro a novembro – as tempestades são mais intensas, com muitos relâmpagos, acordando medos atávicos, e as chuvas são localizadas e mais breves. Para confirmar e detalhar os mecanismos de formação da chuva – diferente em cada região do país e mesmo dentro de uma mesma região – e o efeito da poluição de Manaus sobre o clima da Amazônia, um grupo de 100 pesquisadores do Brasil, dos Estados Unidos e da Alemanha começou a escrutinar o céu da região de Manaus com radares e aviões, por meio do programa Green OceanAmazon (GOAmazon). Lançado oficialmente no dia 18 de fevereiro em Manaus, o GOAmazon conta com orçamento de R$ 24 milhões e apoio financeiro da FAPESP, Fundação de Amparo à Pesquisa do Estado do Amazonas (Fapeam) e Departamento de Energia e Fundação Nacional de Ciência (NSF) dos Estados Unidos.

A expressão green ocean nasceu em 1999, na primeira grande campanha do programa Experimento de Grande Escala da Biosfera-Atmosfera na Amazônia (LBA). Sobrevoando a floresta de Ji-Paraná, em Rondônia, os pesquisadores – muitos deles integrantes deste novo programa – notaram que as nuvens não se comportavam como o esperado. Nessa região da Amazônia já próxima à Bolívia, imaginava-se que as nuvens tivessem até 20 quilômetros (km) de altura e apresentassem alta concentração de material particulado e de gotas pequenas de chuva, características das chamadas nuvens continentais. Em vez disso, elas tinham características das nuvens oceânicas, com pouco material particulado, de formação mais rápida e topos relativamente baixos, como em áreas oceânicas – era um oceano, não azul, mas verde, por estar sobre a floresta. Antonio Manzi, pesquisador do Instituto Nacional de Pesquisas da Amazônia (Inpa), que participou daquela e de outras expedições do LBA e agora integra o GOAmazon, lembra-se de que foi também em 1999 que verificaram que as chamadas nuvens quentes, que não formam cristais de gelo, eram as predominantes na região – um fato inesperado em áreas continentais.


O volume de chuva que cai sobre a bacia amazônica equivale a um oceano. Segundo Manzi, são em média 27 trilhões de toneladas de água por ano. Em termos mais concretos, a chuva, se se acumulasse em vez de escoar no solo, formaria uma lâmina d’água com uma espessura de 2,3 metros ao longo dos 6,1 milhões de quilômetros quadrados da bacia amazônica, que se espalha pelo Brasil e por vários países vizinhos. Luiz Augusto Machado, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe), calculou o volume médio da água de chuva em todo o país: são 14 trilhões de toneladas por ano. Caso se acumulasse, essa água da chuva formaria uma camada de 1,7 metro de altura cobrindo todo o país. Machado é também o coordenador do Projeto Chuva, que integra o GOAmazon e fará agora em Manaus a última etapa de um levantamento sobre os tipos e distribuição de nuvens de chuva no Brasil.

Ainda não está claro como esse oceano aéreo se forma. “As nuvens podem ou não gerar chuva”, diz Gilberto Fisch, do Instituto de Aeronáutica e Espaço (IAE), de São José dos Campos, e pesquisador do Projeto Chuva. “Costuma-se dizer que, quando há vapor-d’água, a chuva se forma e cai, mas não é bem assim.” A maioria das gotículas que formam as nuvens, com dezenas de micrômetros de diâmetro, se dispersa na forma de vapor. Só uma minoria consegue ganhar volume e se transformar em gotas com diâmetro de 1 a 5 milímetros e cair, por ação da gravidade. Entender como as nuvens se formam e crescem e em quais a chuva efetivamente se forma é uma das metas da equipe do GOAmazon.

Em um dos locais de coleta de informações, no município de Manacapuru, 80 km a oeste de Manaus, 120 equipamentos estão funcionando dia e noite – alguns expostos, outros no interior de 15 contêineres – para levantar informações sobre o clima na região, com o reforço dos balões meteorológicos, soltados a cada seis horas. Sobre um dos contêineres está um radar com alcance de 100 km que examina o formato e a constituição de nuvens formadoras de chuva e, desde 2010, fez o mesmo serviço em outras cidades brasileiras. As informações apuradas sobre as nuvens serão confrontadas com as do satélite GPM, que deve ser lançado em 27 de fevereiro do Japão e permanecer em uma órbita de 400 km de altura, enviando informações sobre as nuvens de chuva em quase todo o planeta. “O GPM vai passar duas vezes por dia sobre Manaus, complementando nossas informações”, diz Machado.

Um avião de pesquisa vindo dos Estados Unidos chegou a Manaus no dia 16 de fevereiro com a previsão de começar a voar nos dias seguintes para examinar diretamente os tipos de cristais de gelo do interior das nuvens e os teores de gás carbônico (CO2) e material particulado. O avião norte-americano e outro da Alemanha devem sobrevoar a cidade e a floresta em setembro para medir as eventuais alterações do clima na estação seca.

Os experimentos, previstos para terminarem em dezembro de 2015, devem resultar em previsões meteorológicas de curto prazo (duas horas) e modelos computacionais de circulação atmosférica mais apurados. Em algumas regiões do país o monitoramento do volume de chuvas, dependente de satélites meteorológicos, ainda é muito impreciso, adiando as medidas de alerta que poderiam salvar vidas antes de as chuvas fortes chegarem.

Varrendo o céu: o radar de nuvem (esquerda) e o de chuva, instalados em Manacapuru, a 80 km de Manaus

Uma metrópole na floresta

Com forte base industrial,  uma frota de 700 mil veículos e quase 2 milhões de habitantes, Manaus, capital do estado do Amazonas, é a maior metrópole tropical do mundo cercada por centenas de quilômetros de floresta. Como a pluma de poluentes produzida por essa megacidade no centro da Amazônia altera o ciclo de vida dos aerossóis e das nuvens em áreas de mata preservada e como esses elementos interagem na atmosfera e provocam mais ou menos chuvas na região?

Essas são as questões centrais que o experimento internacional GOAmazon tentará responder nos próximos anos. Um conjunto detalhado de medidas sobre aerossóis, gases traço (gás carbônico, metano e outros) e nuvens será realizado em seis diferentes sítios. Três se encontram a leste, antes de o vento passar por Manaus, e, portanto, sua atmosfera ainda não foi contaminada pela pluma de poluição da capital. Um quarto posto de medição será na própria metrópole e os dois últimos se situam em Iranduba e Manacapuru, a oeste, onde a atmosfera já carrega a influência dos poluentes emitidos em Manaus.

“Não há outra cidade com uma situação similar à da capital do Amazonas”, afirma Paulo Artaxo, coordenador de projeto temático ligado ao GOAmazon. “Sabemos que a poluição altera a precipitação, mas em que tipo de nuvem e em que circunstância?” Os estudos de Scott Martin, pesquisador da Universidade Harvard e integrante do GOAmazon, indicaram que o efeito dos aerossóis sobre o clima da Amazônia varia de acordo com a época do ano. Já se viu também que as nuvens que passam sobre a cidade recebem poluição e apresentam uma refletividade maior que as sem poluição. As nuvens da floresta têm uma carga de material particulado equivalente à da era pré-industrial.

Maria Assunção da Silva Dias, pesquisadora do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP) que coordenou a campanha do LBA em 1999, vai modelar a influência da brisa fluvial originada pelos rios Negro, Solimões e Amazonas sobre o vento que carrega a pluma de poluentes da capital amazonense. A brisa sopra do rio para a terra durante o dia. À noite, ela inverte o sentido.  “Em rios com margens largas, como o Negro, a brisa pode ser um fator capaz de alterar a direção e a intensidade dos ventos, modificando o regime de chuvas em áreas próximas”, diz Maria Assunção, que em 2004 realizou um estudo semelhante sobre a brisa do rio Tapajós, em Santarém, no Pará.

Neve no nordeste

Dispostos a entender melhor a formação de chuva pelo país e a evitar tragédias climáticas, a equipe do Inpe coletou nos últimos quatro anos dados em cinco pontos de amostragem: Alcântara, no Maranhão; Fortaleza, no Ceará; Belém, no Pará; São José dos Campos, em São Paulo; e Santa Maria, no Rio Grande do Sul. Um radar e outros equipamentos agora instalados em Manaus medem o tamanho das gotas nas nuvens e os tipos de cristais que as formam. As formas das gotas, a propósito, são bem diferentes: podem ser horizontais, elípticas ou oblongas, mas todas longe do formato abaulado com que normalmente se representam as gotas de chuva.

Preparando lançamento de balão meteorológico

“Esse é o primeiro recenseamento da distribuição de gotas de chuvas e cristais de gelo no território nacional”, diz Machado. O que se notou, em linhas gerais, é que diferentes tipos de nuvens (mais altas ou mais baixas), com diferentes tipos de cristais de gelo (em forma de estrela, coluna ou cone), se formam e se desfazem continuamente em todas as regiões do país. Também se viu que há particularidades regionais, que indicam processos distintos de formação de chuvas e fenômenos surpreendentes. As formas e os humores da chuva pelo país ao longo do ano são diversificados a ponto de lembrarem o poema Caso pluvioso, no qual o poeta Carlos Drummond de Andrade descobre que Maria é que chovia (ele não conta quem era Maria) e a chama de chuvadeira, chuvadonha, chuvinhenta, chuvil e pluvimedonha. E em seguida: “Choveu tanto Maria em minha casa / que a correnteza forte criou asa / e um rio se formou, ou mar, não sei, / sei apenas que nele me afundei”.

A realidade também exibiu um pouco de poesia. “Detectamos neve nas nuvens mais altas sobre a cidade de Fortaleza”, diz Machado. Para decepção dos moradores locais, porém, a neve derrete e cai como chuva comum. No Nordeste predominam as nuvens quentes, assim chamadas porque o topo está abaixo do limite de temperatura de 0o Celsius (ºC) e, por essa razão, nelas não se formam cristais de gelo, como nas regiões mais altas dos outros tipos de nuvens. Por não abrigarem gelo, essas nuvens passam despercebidas pelos satélites meteorológicos e pelos equipamentos de micro-ondas usados para prever a formação de chuvas, resultando em medições imprecisas. As medições de nuvens quentes feitas por radar em Alcântara indicaram que os valores de volume de água, comparados com as medições feitas por satélite, estavam subestimados em mais de 50%, como descrito por Carlos Morales, pesquisador da USP que integra o Projeto Chuva.

O limite – ou isoterma – de 0ºC separa cristais de gelo (acima) e água líquida (abaixo): é uma espécie de porta invisível da chuva, onde o gelo derrete e forma água. Não é lá muito rigorosa, porque no Sudeste, por causa das fortes correntes ascendentes, a água permanece líquida a temperaturas de até 20 graus negativos, acima da camada de derretimento do gelo. “A combinação entre água e gelo em altitudes mais elevadas é a principal razão da maior incidência das descargas elétricas na região Sudeste”, diz Machado.

Manaus sob chuva

Por meio do radar, pode-se examinar a proporção de água e de gelo no interior das nuvens, desse modo obtendo informações que escapam dos satélites usados na previsão do tempo. “Os satélites não detectam as gotas grandes de água e de baixa concentração que vêm do Atlântico e formam as nuvens das regiões Nordeste e Sudeste”, Machado exemplifica. No Nordeste as nuvens, que se concentram na zona costeira, são alimentadas pelas massas de ar vindas de regiões próximas ao equador, que se movem do oceano para o continente. Já no Sul e no Sudeste as chuvas se devem principalmente às massas de ar frio (frentes frias) que vêm da Argentina. Os especialistas dizem que os satélites também não detectam fenômenos que não escapariam ao radar, como a transformação de um vento quente que veio do oceano, esfriou rapidamente ao encontrar as regiões mais frias do alto das serras no Sul do Brasil e desabou como uma chuva impiedosa sobre Blumenau e toda a região leste de Santa Catarina em 2008.

O radar de dupla polarização, em conjunto com outros instrumentos, envia ondas horizontais e verticais que, por reflexão, indicam o formato dos cristais de gelo e das gotas de chuva, desse modo elucidando a composição das nuvens e os mecanismos de formação e intensificação das descargas elétricas (raios) durante as tempestades. Os pesquisadores verificaram que as nuvens com muitos raios são mais altas e abrigam uma diversidade maior de cristais de gelo e mais granizo (pedras de gelo) do que aquelas que produzem menos raios. Além disso, de acordo com esse levantamento, as cargas elétricas negativas permanecem na mesma altura, logo acima do limite de 0oC, e as positivas podem ficar mais altas, acompanhando o topo das nuvens e o aumento da intensidade da descarga elétrica (ver detalhes no infográfico).

“Quem não quer saber onde vai chover antes de sair de casa?”, indaga Machado. Os especialistas acreditam que os dados coletados, combinados com a modelagem computacional já utilizada para a previsão do clima, podem criar uma base sólida de conhecimento teórico e aplicado sobre a chuva continental. Em uma das ramificações do Projeto Chuva – o SOS, Sistema de Observação de Tempo Severo –, o grupo do Inpe trabalhou com equipes da Defesa Civil e de universidades em cada uma das cidades em que se instalaram com os equipamentos para prever a chegada de chuvas com duas horas de antecedência e uma resolução espacial que define possíveis pontos de alagamentos nos bairros, complementando as previsões fornecidas por supercomputadores como o Tupã, instalado no Inpe. Com base nessas experiências, Machado acredita que o radar, acoplado a um sistema de informação geográfica (SIG) e às tecnologias já em uso de previsão de chuva em alta resolução, da ordem de centenas de metros, viabiliza a previsão imediata de tempestades e desastres climáticos, para que o morador de um bairro possa saber, antes de sair de casa, se está chovendo no bairro vizinho, para onde está indo. “Para isso”, ele diz, “precisamos conhecer o tamanho das gotas de chuva e dos fenômenos que se passam no interior das nuvens, como já estamos fazendo”. Eles continuam trabalhando, enquanto agora, como na canção de Tom Jobim, chegam as águas de março, fechando o verão.


Com colaboração de Marcos Pivetta
Projetos
1.
 Processos de nuvens associados aos principais sistemas precipitantes no Brasil: uma contribuição a modelagem da escala de nuvens e ao GPM (medida global de precipitação) (2009/15235-8); Modalidade Projeto Temático; Pesquisador responsável Luiz Augusto Toledo Machado – Inpe; Investimento R$ 2.188.914,06 (FAPESP). - 2. GoAmazon: interação da pluma urbana de Manaus com emissões biogênicas da floresta amazônica (2013/05014-0);Modalidade Projeto temático; Pesquisador responsável Paulo Eduardo Artaxo Netto – IF-USP; Investimento R$ 3.236.501,79 (FAPESP).


Friday, December 04, 2015

Nosso sol maluco

Na origem das explosões solares
RICARDO ZORZETTO | ED. 237 | NOVEMBRO 2015





  Explosão registrada pelo satélite Solar Dynamics Observatory, da Nasa: janela para investigar a geração de energia no plasma confinado em regiões próximas às manchas solares



O físico brasileiro Pierre Kaufmann anda apreensivo com um experimento que deve começar nas próximas semanas. A agência espacial norte-americana (Nasa) planeja lançar em 1º de dezembro, a partir da base dos Estados Unidos na Antártida, um balão que subirá a 40 quilômetros acima do nível do mar transportando dois equipamentos para estudar o Sol. Um desses aparelhos é o Solar-T, um telescópio fotométrico duplo projetado e construído pela equipe de Kaufmann para analisar uma faixa especial da radiação solar (ver Pesquisa FAPESP nº 219). Se tudo correr como o planejado, o Solar-T, que integrará um experimento da Universidade da Califórnia em Berkeley, deve passar de duas a quatro semanas coletando ininterruptamente a luz emitida pelo Sol, que nessa época do ano nunca se põe no polo Sul.

O motivo da inquietação do físico é que a Nasa pretende lançar o Solar-T desligado e só ativá-lo quando o balão atingir a altitude máxima. “Essa estratégia aumenta o risco de falha, que é inerente a qualquer missão em balão estratosférico”, diz Kaufmann, que acompanhou os testes do telescópio nos Estados Unidos em condições semelhantes às que enfrentará nos céus da Antártida. “Em todas as ocasiões, o equipamento se saiu muito bem, mas as avaliações foram feitas com ele ligado”, conta o físico, coordenador do Centro de Astronomia e Astrofísica (Craam) da Universidade Presbiteriana Mackenzie. “O problema de lançá-lo inativo”, explica, “é que, se algo não funcionar após a subida, não é possível consertar”.

Enquanto sobrevoar o continente gelado, o Solar-T deverá captar a energia que emana das explosões solares em duas frequências específicas: 3 e 7 terahertz (THz), que correspondem a uma fração da radiação infravermelha distante. Situada no espectro eletromagnético entre a luz visível e as ondas de rádio, essa faixa de radiação permite observar mais facilmente a ocorrência de explosões associadas aos campos magnéticos das regiões ativas do Sol, que muitas vezes lançam em direção à Terra jatos de partículas de carga negativa (elétrons) aceleradas a grandes velocidades. Nas proximidades do planeta, essas partículas atrapalham o funcionamento de satélites de telecomunicações e de GPS, produzem as auroras austrais e boreais.

A radiação nessa faixa do infravermelho também torna possível investigar fenômenos que transferem energia da superfície do Sol, a fotosfera, onde a temperatura não passa dos 5.700 graus, para as camadas superiores e mais quentes: a cromosfera, onde as temperaturas alcançam 20 mil graus, e a coroa, que está a mais de 1 milhão de graus.
Apesar de abrir essas janelas para observar o Sol, a radiação em terahertz, que já foi chamada de raios T, sempre foi pouco utilizada. O motivo era que havia – e ainda há – alguns desafios para detectá-la. O primeiro é que a atmosfera terrestre impede que a maior parte dessa radiação chegue aos telescópios no solo. Além disso, não é qualquer telescópio que enxerga a radiação em terahertz. “Para detectar ou produzir uma imagem do Sol nessas frequências é preciso usar um telescópio feito apenas de espelhos, porque as lentes de vidro ou de materiais ópticos comuns absorvem essa frequência de radiação”, explica Matthew Penn, astrônomo associado do Observatório Solar Nacional (NSO) e do McMath-Pierce Solar Facility, ambos no Arizona, Estados Unidos.

Outro complicador é que os detectores não podem ser feitos de silício, transparente a essas frequências de energia, e têm de estar refrigerados a temperaturas muito baixas. “Antes de Pierre Kauf-mann começar a trabalhar nessa área, havia pouca observação do Sol nessas frequências porque era difícil explorar a tecnologia”, conta o astrônomo Stephen White, do Laboratório de Pesquisa da Força Aérea, no Novo México, também nos Estados Unidos.

Kaufmann espera que os dados do Solar-T contribuam para alimentar um gráfico que vem ajudando a construir há cerca de 30 anos. Essa curva representa o perfil da energia emitida na origem das explosões do Sol, em geral observadas na região das manchas que de tempos em tempos tingem a superfície da estrela. É uma espécie de assinatura energética dessas explosões, que, na opinião de físicos, astrônomos e astrofísicos, pode ajudar a desvendar os fenômenos que as originam.

Rumo à estratosfera: o telescópio Solar-T, que será lançado em breve na Antártida, a bordo de um balão, para observar as explosões solares nas faixas de 3 e 7 THz
O gráfico da quantidade de radiação lançada ao espaço em cada frequência começou a ser delineado nos anos 1960, a partir de observações das explosões solares. Por muito tempo, ele registrava apenas a radiação emitida na faixa das ondas de rádio – com frequência entre 30 megahertz (MHz) e 30 gigahertz (GHz) –, as menos energéticas do espectro eletromagnético na faixa de rádio. Em 1972, John Castelli e Jules Aarons, do Laboratório de Pesquisa Cambridge da Força Aérea (AFCRL) dos Estados Unidos, produziram um perfil energético das explosões solares reunindo dados de 80 eventos. O gráfico tinha a forma aproximada da letra U e indicava que a maior parte da energia liberada nessas explosões estava em duas faixas das ondas de rádio de energia e frequência baixas: um bom tanto tinha frequência inferior a 1 GHz, enquanto o outro tanto ficava na faixa entre 3 GHz e 30 GHz.

Um pouco antes, em 1968, os pesquisadores C. D. Clark e W. M. Park haviam obtido indícios de que uma radiação de frequência maior e mais energética pudesse ser produzida nas erupções solares. Usando o telescópio do Queen Mary College, da Universidade de Londres, eles detectaram pulsos de energia a 250 GHz, frequência cerca de 30 vezes maior que as correspondentes a micro-ondas e inesperadamente muito intensas. Talvez porque fossem esparsos, esses e outros dados na região das micro-ondas não ganharam muita atenção. “Apesar de várias sugestões, por muito tempo os pesquisadores dessa área ignoraram esses indicativos”, conta Kaufmann.

A suspeita de que as explosões solares pudessem liberar muito mais energia só ressurgiram duas décadas mais tarde, em parte consequência do trabalho de Kaufmann. Com o radiotelescópio de Itapetinga, instalado em Atibaia, interior de São Paulo, ele observou uma explosão solar ocorrida em 21 de maio de 1984. Os registros indicaram que a maior parte da energia era emitida em ondas milimétricas, na frequência de 90 GHz, na forma de pulsos de centésimos de segundo de duração. Era um novo sinal de que havia mais a ser descoberto sobre as explosões. “Na época, percebemos que existia um componente das explosões que alcança frequências mais altas”, conta o físico.

Em parceria com pesquisadores da Universidade Estadual de Campinas (Unicamp), ele desenvolveu equipamentos que foram instalados em diferentes observatórios para registrar a energia em frequências mais elevadas. No início da década passada, Kaufmann e sua equipe monitoraram explosões solares com o Telescópio Solar de Ondas Submilimétricas (SST), instalado no Complexo Astronômico El Leoncido, nos Andes argentinos, e registraram um fluxo de radiação que voltava a crescer em 0,2 e em 0,4 THz. Esses resultados levaram Kaufmann e o pesquisador Rogério Marcon, do Instituto de Física da Unicamp, a desenvolver equipamentos capazes de detectar frequências ainda mais altas, na região dos 30 THz.

Com um telescópio de 30 THz instalado em El Leoncito e outro na cobertura de um dos prédios do Mackenzie, no centro de São Paulo, o grupo do físico brasileiro, que envolve pesquisadores da Argentina e dos Estados Unidos, já registrou três explosões solares – uma em 13 de março de 2012, outra em 1o de agosto de 2014 e uma terceira em 27 de outubro de 2014 – que liberaram grande quantidade de energia nessa faixa do espectro eletromagnético. Uma análise englobando diferentes regiões do espectro revelou que, na realidade, esses eventos produzem de 10 a 100 vezes mais energia no infravermelho distante (terahertz) do que nas micro-ondas (gigahertz), segundo artigo publicado em junho deste ano no Journal of Geophysical Research – Space Physics.

Brilho fugaz: frequentes nas proximidades das manchas solares (regiões ativas do Sol), as explosões liberam energia em diferentes faixas do espectro eletromagnético

Além das observações do grupo de Kaufmann, Matthew Penn e sua equipe registraram emissões em 30 e 60 THz. Ao completar o perfil energético das explosões com os novos dados, o gráfico assume a forma da letra W – e não mais de U, como haviam indicado Castelli e Aarons nos anos 1970. Essa assinatura sugere que as explosões coincidem com fluxos energéticos intensos em duas faixas de radiação: uma nas ondas de rádio, menos energética, e outra no submilimétrico e no infravermelho, mais energética e com limite ainda desconhecido.

Uma possível fonte dessa energia seriam elétrons acelerados a velocidades próximas à da luz em regiões densas da superfície solar que, ao serem freados por campos magnéticos intensos, emitiriam radiação na faixa do infravermelho. Outra é que essas partículas aceleradas aqueceriam mais o plasma da cromosfera, que, em consequência, responderia liberando radiação. “Por enquanto, ninguém consegue explicar esse espectro duplo”, diz Kaufmann, que, além de financiamento da FAPESP, também recebe apoio do Ministério da Ciência e Tecnologia, do Fundo Mackenzie de Pesquisa e do Escritório de Ciência da Força Aérea norte-americana.

“Ainda não temos exemplos suficientes dos eventos observados em terahertz para explicar como pode haver uma emissão em uma gama tão ampla”, diz Stephen White, do Laboratório de Pesquisa da Força Aérea norte-americana e colaborador de Kaufmann. “Imaginamos que isso possa revelar como o Sol acelera partículas a altas energias.”
Enquanto não se encontram as respostas, Kaufmann tenta completar a curva com mais informações em mais frequências, na esperança de que os dados ajudem a esclarecer os fenômenos geradores das explosões. Recentemente ele e Marcon concluíram um novo telescópio, o Hats (High Altitude Terahertz Solar Telescope), que vai operar nas faixas de 0,85 e 1,4 THz em um observatório a mais de 5 mil metros de altitude em Famatina, nos Andes argentinos. Também já está pronta a versão mais moderna dos detectores que devem aprimorar a capacidade de observação dos telescópios em El Leoncito. Antes disso, Kaufmann aguarda ansioso pela subida do Solar-T. “Estamos por conta da Nasa”, diz. “Mas o Sol também tem de colaborar e produzir explosões nesse período.”
Projeto
Diagnóstico de explosões solares em inédito intervalo espectral, de micro-ondas até frequências THz: desafios para interpretação (FLAT) (nº 2013/24155-3); Modalidade Projeto Temático; Pesquisador responsável Pierre Kauf­mann (UPM);Investimento R$ 1.836.374,29. - Artigo científico - KAUFMANN, P. et al. Bright 30 THz impulsive solar bursts
Journal of Geophysical Research – Space Physics. 30 jun. 2015.

Sunday, November 15, 2015

Buscamos tempo e espaço.

Rota alternativa
Descoberta de sistema com duas estrelas de alta massa em processo de fusão indica um caminho evolutivo diferente para esses astros
SALVADOR NOGUEIRA | ED. 236 | OUTUBRO 2015











A descoberta de um objeto astrofísico dos mais raros e incomuns no Cosmos, feita por um grupo internacional de pesquisadores com participação de brasileiros, pode levar a um entendimento mais refinado de como evoluem as estrelas de alta massa, muito maiores e mais luminosas que o Sol. O objeto é conhecido pela sigla VFTS 352 e se localiza na nebulosa de Tarântula, também conhecida como 30 Doradus, que faz parte da Grande Nuvem de Magalhães, uma das galáxias-satélite da Via Láctea, a cerca de 160 mil anos-luz de distância da Terra. Ele é composto por duas estrelas azuis do tipo O, com uma massa combinada 58 vezes maior que a do Sol, que estão numa fase chamada de “overcontato”. A expressão significa que uma estrela está basicamente colada na outra, compartilhando seu envelope, sua região mais externa. Segundo os astrofísicos, essa situação indica que as estrelas devem estar se fundindo.

“Conhecemos apenas outros três sistemas com essa configuração”, explica Leonardo Almeida, que faz estágio de pós-doutorado no Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP) e é o primeiro autor do artigo que reporta a descoberta, a ser publicado neste mês no periódico Astrophysical Journal. “O VFTS 352 é o mais interessante e importante, pois é o de maior massa e mais quente.” As estrelas do sistema binário já estão compartilhando cerca de 30% do seu envelope. Com o passar do tempo, provavelmente se tornarão uma estrela só. Mas isso não vai acontecer tão cedo. “Embora o sistema deva evoluir muito rápido para o tempo das estrelas, não veremos nada radical nos próximos séculos”, afirma o astrofísico Augusto Damineli, também da USP e coautor do trabalho.

O sistema atrai interesse por permitir um estudo prático de um caminho evolutivo diferente para estrelas de alta massa. Até recentemente se imaginava que elas se formassem isoladamente, e não também em duplas como parece ser o caso do sistema VFTS 352. “A teoria de evolução estelar foi feita em cima de estrelas menos massivas e isoladas”, diz Cássio Leandro Barbosa, astrônomo especialista em estrelas de alta massa que não participou do estudo. “Nesse caso, temos uma violação dupla dessas condições, de modo que elas devem ser diferentes do que prevê a teoria.” As primeiras medições indicam que as estrelas do sistema são mais quentes do que advoga o modelo tradicional. Sua temperatura ultrapassa os previstos 40 mil Kelvin (K). “Descobertas recentes como essa mostram que pelo menos 70% das estrelas do tipo O interagem em sistemas duplos”, diz Damineli. Um aspecto importante é que estrelas desse tipo são as principais fontes de oxigênio existentes no Universo.

As estrelas são classificadas de acordo com a temperatura. Esta, por sua vez, pode ser associada à massa, ao menos quando as estrelas estão na chamada sequência principal e usam hidrogênio para alimentar as reações nucleares que as fazem brilhar. As do tipo O são as maiores de todas, seguidas pelas dos tipos B, A, F, G, K e M. O Sol, de porte modesto, é do tipo G.

A descoberta do sistema binário foi feita por dois projetos paralelos, o VLT-Flames Tarantula Survey e o The Tarantula Massive Binary Monitoring. Ambos usaram o Very Large Telescope, do Observatório Europeu do Sul (ESO), em suas observações. O achado foi considerado tão importante que motivou até observações feitas com o disputado Telescópio Espacial Hubble.

Fábrica de elementos

O Big Bang, evento que marca o início do Universo, produziu em quantidades significativas apenas dois elementos: hidrogênio e hélio. Teria sido desses átomos primordiais que surgiram as primeiras estrelas, agregadas a partir de nuvens gasosas pela força gravitacional. Conforme a massa começa a se contrair pela gravidade no centro da estrela, a pressão e a temperatura internas se tornam tão grandes que os núcleos de hidrogênio começam a se fundir, formando hélio. É essa a reação que produz a energia do astro. Contudo, quando o hidrogênio no centro da estrela se esgota, o processo recomeça com elementos cada vez mais pesados. Primeiro hélio, depois oxigênio e então ladeira acima na tabela periódica, até chegar ao ferro.

Quanto mais massa tem uma estrela, maiores a pressão e a temperatura internas, e maior a capacidade de produzir elementos pesados. Ao fim de sua vida, quando a fusão nuclear já não é mais possível, as estrelas de tipo O desaparecem em violentas explosões conhecidas como supernovas. São esses eventos que produzem todos os elementos acima do ferro. Graças a esse ciclo promovido pelas estrelas há mais de 13 bilhões de anos, surgiram os átomos que compõem a Terra e seus habitantes.

Os detalhes das proporções de produção desses elementos, no entanto, ainda estão longe de serem resolvidos. “Os astrônomos costumam fazer a contabilidade da produção dos elementos químicos admitindo que as estrelas são isoladas”, afirma Damineli. “Descobertas como a VFTS 352 exigem que se refaçam as contas, levando em consideração a elevada duplicidade das estrelas de alta massa.”

Em seu estágio final, o sistema VFTS 352 pode produzir o que os astrônomos conhecem como uma explosão de raios gama de longa duração. “Esses objetos, quando explodem a 12 bilhões de anos-luz de nós, chegam a interromper as telecomunicações, se seu eixo de rotação está na nossa direção”, diz Damineli. “Se morrer dessa forma, por estar a menos de 200 mil anos-luz de nós, mais que um espetáculo, esse sistema será um potencial problema para possíveis planetas habitados que ficarem na direção do feixe de raios gama.”

Apontados para a Terra, os raios gama não chegariam a atravessar a atmosfera, mas poderiam detonar a camada de ozônio e, assim, expor a vida aos nocivos raios ultravioleta solares. Isso mostra como certos eventos astrofísicos podem ser hostis à vida, mesmo a distâncias gigantescas. Contudo, Leonardo Almeida lembra que esse evento só acontecerá daqui a milhões de anos: “E a probabilidade de o feixe de raios gama estar na nossa direção é muito, muito pequena”.

Projeto
Distâncias precisas de aglomerados jovens através de binárias eclipsantes massivas (nº 2012/09716-6); Modalidade Bolsa de Pós-doutorado; Pesquisador responsávelAugusto Damineli (IAG-USP); Beneficiário Leonardo Almeida; Investimento R$ 239.299,28 e US$ 44.400,05. Artigo científico ALMEIDA, L. A. et alDiscovery of the massive overcontact binary VFTS 352: Evidence for enhanced internal mixing
Astrophysical Journal. v. 812, n. 2. 20 out 2015.


Thursday, October 01, 2015

Matrix ou padrão quantico\cósmico?



A estrutura matemática do DNA












Pesquisadores brasileiros mostram por meio de equações que o código genético é similar ao funcionamento do sistema digital
MARCOS DE OLIVEIRA | ED. 235 | SETEMBRO 2015






Um grupo de pesquisadores brasileiros das universidades Estadual de Campinas (Unicamp) e de São Paulo (USP) está mostrando em artigos científicos que sequências genéticas podem ter uma estrutura matemática semelhante aos Códigos Corretores de Erros (ECC, sigla de error-correcting codes) utilizados tanto no sistema de transmissão como de gravação digital. Os ECCs são um conjunto de comandos embutidos em softwares instalados nos chips de computadores, em equipamentos de telecomunicações, televisores e smartphones para corrigir informações digitais com defeitos ao longo de uma conversa telefônica ou, por exemplo, no armazenamento de dados no disco rígido de um computador.

A mesma lógica matemática, de acordo com os pesquisadores, está presente na formação do DNA – o ácido desoxirribonucleico que carrega nas células os genes e todas as instruções para a formação e a manutenção de um ser vivo. No estudo, eles comparam as equações algébricas de um código corretor de erros com certas sequências do DNA, atribuindo uma lógica aos nucleotídeos que formam o genoma – timina (T), guanina (G), citosina (C) e adenina (A) – e descobriram que há padrões ligando o nucleotídeo a um número. Assim, dependendo do tipo de sequência, o A é representado pelo 0, o C é 2, o G, 1 e o T, 3, por exemplo. Na linguagem digital, formada de bits, as informações são traduzidas em 0 ou 1. “Mostramos que o DNA tem sequências que seguem estruturas matemáticas e as mesmas regras da comunicação digital”, conta Márcio de Castro Silva Filho, do Departamento de Genética da Escola Superior de Agricultura Luiz de Queiroz (Esalq), da USP. “A sequência de DNA não é aleatória, segue um padrão”, diz Márcio.

O mais recente estudo do grupo foi publicado em julho na revista Scientific Reports, da mesma editora da Nature. Na introdução, eles escreveram que os sistemas de comunicação biológica e digital têm semelhanças em relação aos procedimentos correspondentes utilizados para transmitir a informação de um ponto para outro. De acordo com os pesquisadores, a informação contida no DNA é copiada (transcrita) na forma de RNA que irá orientar a ordenação dos aminoácidos nas proteínas necessárias ao funcionamento da célula com uma lógica matemática. No estudo, eles apresentam uma ferramenta computacional para compreender a via evolutiva do código genético ao analisar, por exemplo, a Arabidopsis thaliana, planta-padrão de estudos genéticos, e a formação dos nucleotídeos em agrupamentos de três letras chamados de códons. Em casos raros, esse agrupamento biológico – TGA, por exemplo – apresentou diferenças que não se encaixavam nos resultados apresentados pelo ECC.
As letras e números em vermelho indicam mutação na sequência genética
Ao apresentar o problema no Congresso Brasileiro de Genética em 2011, Márcio ouviu uma pergunta do biólogo Everaldo Barros, da Universidade Católica de Brasília, que o ajudou a encontrar um caminho. Barros queria saber se aquela alteração em um códon no DNA da batata-doce (Ipomoea batatas) não se referia a um código ancestral. Márcio e o engenheiro eletrônico Reginaldo Palazzo Júnior, da Faculdade de Engenharia Elétrica e de Computação (FEEC) da Unicamp, outro coordenador do grupo, empenharam-se em achar a resposta. Junto com as doutorandas Luzinete Cristina Bonani Faria e Andréa Santos Leite da Rocha, eles mostraram que a diferença detectada entre a sequência derivada do código de erros para a biológica é uma mutação que não bate com as equações matemáticas do genoma primordial da batata-doce, encontrado em sequências de organismos mais antigos como as algas prymnesophytes ou variantes mitocondriais ancestrais do código genético. A mitocôndria é uma organela da célula que guarda resquícios de material genético mais remoto. Assim, apenas o DNA mais antigo se encaixa na equação.

“A sequência do gene que codifica a subunidade delta da proteína F1-ATPase da batata-doce apresenta o códon TGG que codifica o aminoácido triptofano. Entretanto, a sequência gerada pelo código matemático para o códon triptofano era TGA, o que introduziria um stop na síntese da proteína, inviabilizando a sua função. A princípio, essa alteração gerada pelo código matemático estaria errada”, diz Márcio. Quando verificamos o aminoácido triptofano que está ali ancestralmente, codificado pelo códon TGA, a conta fechou, então compreendemos que ali aconteceu uma mutação”, diz Reginaldo. Esse tipo de mutação já era conhecido por meio do processo bioquímico, mas nunca havia sido identificado por processo matemático.

Os pesquisadores fazem agora um estudo filogenético para saber mais sobre a evolução das espécies do ponto de vista matemático e biológico. Eles analisam sequências genéticas para verificar se as mutações encontradas apresentam nos indivíduos características relevantes para a funcionalidade da espécie. Os estudos atuais estão sendo feitos em genomas de plantas e animais para confirmar se de fato o modelo matemático tem uma relação estrita com o que ocorre na biologia.

A descoberta levou o grupo a depositar uma patente internacional do modelo de uso do sistema desenvolvido por eles, que já foi concedida nos Estados Unidos. “Essa estrutura matemática poderá ser importante na área de engenharia de proteínas para a elaboração de organismos geneticamente modificados, novos medicamentos, vacinas e alterar a sequência de DNA em futuros sistemas de terapia gênica, ou, ainda, produzir e descobrir novas proteínas a partir do código matemático”, explica Márcio, um engenheiro agrônomo com mestrado e doutorado em genética e biologia molecular e especialista em transporte de proteínas.

Seria possível também, no futuro, em um tratamento contra o diabetes, por exemplo, estudar os genes ligados à doença por meio de uma estrutura matemática e corrigi-los para que o problema desapareça. Márcio prevê que a indústria farmacêutica terá grande benefício com essa nova forma de ver o DNA porque tanto o entendimento das doenças como a formulação de medicamentos com alvo mais específico de ser atingido estarão facilitados com o uso do código matemático.

Alterações sequenciais
Entre matemáticos e cientistas da computação, o código utilizado pelos pesquisadores brasileiros é conhecido pelas letras BCH, iniciais do francês Alexis Hocquenghem e dos indianos Raj Chandra Bose e Dwijendra Kumar Ray-Chaudhuri, que o descobriram entre 1959 e 1960. O BCH é apenas um dos códigos corretores de erros existentes. Utilizando esse código, biólogos, bioquímicos e farmacêuticos, possivelmente com a colaboração de matemáticos, poderão fazer análises preliminares com as sequências no computador para testar a alteração de aminoácidos, proteínas e mutações e só então ir para o laboratório verificar se o resultado está correto. “A existência de uma estrutura matemática em sequências de DNA implica uma complexidade computacional enorme, porém factível para a realização de análises e previsões de mutações”, diz Reginaldo, que é engenheiro eletrônico e atua nas áreas das teorias da informação e codificação. Atualmente, esse processo de alteração para produção de um organismo geneticamente modificado ou de um medicamento é realizado por meio de extensivos testes laboratoriais. A função do código matemático nos processos biotecnológicos será de minimizar a ocorrência de erros no núcleo da célula, depois da transcrição gênica do DNA para o RNA, o ácido ribonucleico que dirige a síntese da proteína nos ribossomos.

A possibilidade da associação de códigos de correção de erros com sequências de DNA não é nova. Um dos principais estudiosos do assunto é o professor Hubert Yockey, que atua na área desde a década de 1980 na Universidade da Califórnia em Berkeley, nos Estados Unidos. Outro pesquisador da área é Gérard Battail, professor aposentado da Escola Nacional Superior de Telecomunicações, na França, que publicou vários artigos propondo a relação entre código de correção de erros e genoma. Eles têm demonstrado o processo e levantado hipóteses, mas não apresentaram as efetivas relações matemáticas com o DNA. Os brasileiros conseguiram estabelecer essa relação nas sequências genéticas produtoras de proteínas. “Ao conhecermos a estrutura matemática do gene que codifica a proteína, é possível alterar a ordem das bases e também corrigir as mutações ou erros que possam acontecer para ela voltar à condição original de uma proteína”, diz Márcio.

O estudo inicial surgiu com Reginaldo, que indicou às duas doutorandas, em 2008, o desafio de modelar a transmissão da informação, no caso as proteínas, entre o núcleo celular e a mitocôndria. Para isso, Luzinete e Andréa procuraram então Márcio de Castro, na Esalq. O diálogo foi estabelecido e as duas passaram a testar alguns modelos matemáticos de sistemas de comunicação com o objetivo de encontrar um que se adequasse ao modelo biológico. Depois de alguns meses, elas mostraram o resultado para Márcio, que, no início, pensou haver apenas uma coincidência entre as sequências geradas pelo ECC e a biológica em relação aos aminoácidos. Com o avanço dos estudos, foram realizados levantamentos de sequências de DNA de diferentes seres vivos e o resultado se manteve independentemente da espécie. A descoberta teve também a participação do então doutorando João Henrique Kleinschmidt, engenheiro da computação que hoje é professor na Universidade Federal do ABC (UFABC), e mais recentemente da bióloga Larissa Spoladore, doutoranda da Esalq, e do biólogo Marcelo Brandão, professor da Unicamp.

Em 2009, Márcio, Reginaldo, Luzinete e Andréa submeteram um artigo à revista Eletronic Letters, que foi publicado na edição de fevereiro de 2010 (ver Pesquisa FAPESP nº 178). “Agora com a publicação na Scientific Reports, acreditamos que a comunidade mundial da área das ciências biológicas poderá se interessar mais”, diz Márcio. “Não existe outro grupo fazendo pesquisa nesse sentido segundo a literatura aberta, até onde sabemos, porque pode ter alguém da indústria farmacêutica, de forma fechada, desenvolvendo algo nesse sentido.”

“Como várias outras descobertas científicas, essa deverá ter um caminho longo para ser aceita e utilizada. Eles deram um salto que, sem nenhuma dúvida, é uma quebra de paradigma”, diz o biólogo Rogério Margis, professor do Centro de Biotecnologia da Universidade Federal do Rio Grande do Sul (UFRGS). “Imagino que existirão novos desafios com a descoberta desse padrão que transcende a sequência linear das bases e adiciona mais uma camada de complexidade e de padrões de código na molécula de DNA. Para expandir esse tipo de análise será necessário ter uma grande infraestrutura computacional”, comenta Rogério. “Até agora os estudos deles não tiveram o impacto e a repercussão esperada na comunidade científica. Um problema é que o estudo, embora único, engloba áreas distintas como biologia e matemática, que pouco conversam”, diz.

“Já apresentei os estudos em eventos no exterior, mas acho que há uma certa desconfiança por várias razões. O assunto é extremamente complexo, poucas pessoas conseguem transitar nas duas áreas, da genética e dos códigos corretores de erros, o grupo é de brasileiros e o trabalho de 2010 foi divulgado em uma revista da área de engenharia elétrica”, explica Márcio. O interesse maior pelos estudos, segundo ele, deve partir do pessoal da biologia molecular e da biotecnologia. Do lado da matemática, seriam os grupos de teoria da informação e comunicação. Mas isso só vai acontecer se houver uma integração multidisciplinar, como aconteceu no caso da descoberta.





Projetos
1. Código matemático de geração e decodificação de sequência de DNA e proteínas: utilização na identificação de ligantes e receptores (n° 2008/04992-0); Modalidade Programa de Apoio à Propriedade Intelectual (Papi); Pesquisador responsável Márcio de Castro Silva Filho (USP); Investimento R$ 13.200,00 e US$ 20.000,00.
2. Herbivory and intracellular transport of proteins (nº 2008/52067-3); Modalidade Projeto Temático; Pesquisador responsável Márcio de Castro Silva Filho (USP); Investimento R$ 1.392.217,77 e US$ 169.187,06.
3. Biologia de sistemas aplicada à agricultura: análise de transcriptomas e interactomas (nº 2011/00417-3); Modalidade Programa Jovens Pesquisadores em Centros Emergentes; Pesquisador responsável Marcelo Mendes Brandão (Unicamp); Investimento R$ 199.169,39 e US$ 3.846,15.
Artigos científicos
Brandão, M. M., et al. Ancient DNA sequence revealed by error-correcting codes
. Scientific Reports. v. 5, n. 12051. jul. 2015.
Faria, L. C. B., et. al.
Transmission of intra-cellular genetic information: A system proposal. Journal of Theoretical Biology. v. 358, p. 208-31. out 2014.
Faria L. C. B., et al. Is a
Genome a Codeword of an Error-Correcting Code? PLoS ONE. v. 7, n. 5, e 36644. mai. 2012.
Faria, L. C. B. et. al. DNA sequences generated by BCH codes over GF(4)
. Electronics Letters. v. 46, n°. 3, p. 202-3. fev 2010.