27 de ago de 2010

Relatório sugere desacelerar busca de exoplanetas

Scientific American Brasil - 26/08/2010

A influente “pesquisa da década” defende ênfase no estudo da matéria escura

por John Matson

O estudo de planetas fora do Sistema Solar foi um dos assuntos mais quentes do mundo científico nos anos 2000, década que viu a conta de exoplanetas aumentar por um fator de mais de 10. No fim de 2009, mais de 400 mundos haviam sido descobertos nesse jovem campo de estudo e os cientistas trabalhando na missão de caça-planetas Kepler, da Nasa, estavam se preparando para anunciar as primeiras descobertas de seu veículo espacial recém-lançado.

Em 13 de agosto, tornou-se um pouco mais claro como será a próxima década para os cientistas de exoplanetas graças à publicação de um relatório desenvolvido para guiar os campos da astronomia e da astrofísica durante a década a partir de 2010. A chamada “pesquisa da década”, produzida a cada 10 anos por um comitê de especialistas reunido pelo Conselho Nacional de Pesquisa, elege as prioridades orçamentárias que a Nasa, a Fundação Nacional de Ciência e o Departamento de Energia devem seguir.

A Missão de Interferometria Espacial (SIM), observatório espacial
que poderia ter sido lançado antes do fim da década,
não obteve apoio de relatório [NASA]
O relatório “Novos Mundos: Novos Horizontes em Astronomia e Astrofísica” sinalizou a descoberta de exoplanetas próximos e potencialmente habitáveis como um dos três objetivos primários da ciência para a próxima década. Porém, em vez de dar apoio a uma missão imediatamente seguinte à Kepler, que agora parece estar no caminho certo para descobrir centenas de novos exoplanetas nos próximos anos, o comitê recomendou substituir a campanha exoplanetária nos próximos anos por uma missão destinada a estudar a energia escura.

Além disso, recomendou postergar uma busca dedicada a exoplanetas até a próxima “pesquisa da década”. Esse atraso significa que um dos principais objetivos da ciência dos exoplanetas – encontrar um mundo potencialmente habitável e procurar nele sinais de vida – parece continuar além do horizonte.

Outro golpe específico desferido contra os caçadores de exoplanetas pela nova pesquisa foi uma recomendação contra a Missão de Interferometria Espacial (SIM, na sigla em inglês), um observatório espacial que poderia ter sido lançado antes do fim da última década. A tarefa do SIM era fazer medições precisas de posições estelares, tarefa conhecida como astrometria, e usar os movimentos dessas estrelas sob a influência gravitacional dos planetas para procurar Terras próximas. A missão, então conhecida como Missão de Interferometria Astrométrica, foi recomendada como “pesquisa da década” de 1990 e reforçada em 2000, mas o novo relatório a considerou muito custosa e unidimensional para ser competitiva.

“Pessoalmente, falando como astrometrista, acho que o veredicto [sobre o SIM] foi previsível e irritante”, observa Fritz Benedict, astrônomo da University of Texas, em Austin. “Por que previsível? A astrometria é difícil de vender. Não tiramos fotos bonitinhas. Por que irritante? Provavelmente teríamos encontrado planetas com a massa da Terra, em órbitas como a da Terra, ao redor de estrelas próximas, parecidas com o Sol”.

O Kepler deve ser sensível o suficiente para detectar mundos parecidos com a Terra, mas o dispositivo está mais interessado em observar um grande número de estrelas distantes do que um pequeno número de estrelas locais, cuja proximidade permitiria um estudo mais detalhado de quaisquer companheiros planetários.

Uma vez que esses mundos parecidos com a Terra sejam encontrados, uma missão proposta, como o Localizador de Planetas Terrestres (TPF, na sigla em inglês) poderia escanear esses planetas procurando assinaturas químicas, como as de oxigênio e metano, que podem indicar a presença de vida. Essa foi a sequência recomendada por uma força-tarefa de exoplanetas do Comitê de Aconselhamento para Astronomia e Astrofísica, que assessora a Nasa e outras agências governamentais.

O relatório de 2008 da força-tarefa recomendou uma missão de astrometria espacial como sendo o primeiro passo mais viável para detectar possíveis planetas com vida. Porém, a nova pesquisa da década concluiu que os planetas alvo para uma missão do tipo TPF poderiam ser identificados a partir de observatórios terrestres, eliminando a necessidade pelo SIM, mesmo que a sensibilidade desses telescópios atualmente esteja longe de ser suficiente para levar a cabo uma pesquisa assim.

A TPF mal é mencionada por seu nome no novo relatório, mas seus objetivos aparecem em grande escala nas recomendações do comitê. “A prioridade máxima de uma missão classe-média é o desenvolvimento tecnológico para uma missão de imageamento exoplanetário, que é a TPF”, afirma James Kasting da Pennsylvania State University, que trabalhou em um dos projetos propostos para a TPF. “A missão pode não ser mencionada explicitamente, mas seu conceito é.”

O comitê decidiu que a TPF, da maneira que foi proposta, foi prematura e demasiado ambiciosa, descreve o astrofísico Roger Blandford da Stanford University, que presidiu o grupo da pesquisa da década. Mas ele adiciona que “a idéia principal da TPF – encontrar planetas habitáveis, parecidos com a Terra – é um dos principais objetivos do nosso relatório”. Com mais estudos, uma missão consolidada do tipo TPF poderia ser delineada por volta de 2015. “A expectativa é que uma missão pioneira seja proposta como próxima pesquisa da década”, afirma Blandford.

Porém, o relatório recomenda que a Nasa gaste apenas US$ 4 milhões por ano no início para definir os requisitos da missão e limites tecnológicos, com talvez mais US$ 100 milhões para serem gastos mais tarde durante a década após escolher uma tecnologia viável para a tarefa. “Seria ótimo se em 2020 o Localizador de Planetas Terrestres fosse a recomendação número 1, mas eles não investiram dinheiro suficiente para realmente desenvolvê-lo antes da próxima pesquisa”, calcula Sara Seager, astrofísica do Massachussetts Institute of Technology. “Sem os grandes projetos, como o SIM ou o Localizador de Planetas Terrestres, não se pode encontrar planetas como a Terra ao redor de estrelas próximas.”

Apesar do fato de a pesquisa da década ter descartado o SIM e essencialmente mandado o TPF de volta para a prancheta, a ciência dos exoplanetas marcou um ponto surpreendente com o comitê, que apoiou fortemente um observatório chamado de Wide Field Infrared Survey Telescope (WFIRST, em inglês, ou Telescópio Infravermelho de Pesquisa em Campo Vasto). Esse observatório usaria a Joint Dark Energy Mission (Missão Conjunta de Energia Escura) proposta pela Nasa e pelo Departamento de Energia e criaria um censo de exoplanetas no aglomerado central da Via Láctea. O WFIRST detectaria os planetas usando microlentes, fenômeno no qual os campos gravitacionais de mundos distantes curvam a luz das estrelas do fundo.

Assim como o Kepler, o WFIRST teria um grande alcance, mais determinando informações demográficas de sistemas planetários distantes do que detalhes precisos de planetas próximos. Mas a inclusão de uma missão de microlente em uma missão principal significa boas notícias para os propositores da técnica. Scott Gaudi da Ohio State University, que trabalha na Microlensing Follow-up Network (MicroFUN), afirma que o WFIRST, combinado com o Kepler e outras pesquisas, ajudará a criar um censo de planetas de todos os tipos espalhados pela galáxia.

“Que isso pode ser feito com essencialmente os mesmos instrumentos necessários para explorar a energia escura é uma coincidência fantástica e uma oportunidade única. É ótimo que o conselho tenha reconhecido isso”, comemora Gaudi.

Como o relatório vai moldar a década ainda é algo a se descobrir. Segundo Seager, há muito para manter os pesquisadores de exoplanetas ocupados, mesmo na ausência de uma missão pioneira principal. E uma descoberta mais importante nos próximos anos poderia afetar drasticamente o campo e superar as recomendações para a pesquisa da década.

Uma coisa que não é provável que mude drasticamente na próxima década é o financiamento. A Nasa e suas agências associadas em astronomia e astrofísica têm orçamentos limitados para trabalhar e alguns projetos defendidos na nova pesquisa têm tendência a serem deixados de lado, assim como recomendações passadas – como é o caso do SIM – agora também têm. Apesar da dispensa do SIM, Benedict observa que ele apóia completamente o processo de revisão da década. “É uma resposta verdadeiramente racional para uma realidade difícil”, afirma ele. “Não temos capital infinito para podermos pôr em prática os excitantes e úteis projetos futuros que eu e meus colegas imaginamos”.


Descoberto planeta pulverizado ao redor de estrelas binárias

Redação do Site Inovação Tecnológica - 24/08/2010


"Isto é ficção científica na vida real. É teoricamente possível que possa existir planetas habitáveis em torno desses tipos de estrelas duplas, assim, se realmente havia vida ali, ela foi varrida."
[Imagem: NASA/JPL-Caltech]

Pó de planetas

O Telescópio Espacial Spitzer, da NASA, descobriu uma quantidade surpreendentemente grande de poeira em torno de três pares de estrelas maduras, que giram umas em torno das outras em grande proximidade.

A pergunta imediata que se coloca é: "De onde vem tanta poeira?".

Os astrônomos acreditam que a melhor hipótese é que a poeira sejam os destroços deixados por enormes colisões planetárias.

"Isto é ficção científica na vida real", entusiasma-se Jeremy Drake, do Centro Harvard-Smithsonian para Astrofísica. "Nossos dados nos dizem que os planetas nesses sistemas podem não ter tido tanta sorte - as colisões entre eles seriam comuns."

Drake é um dos autores do artigo que descreve a descoberta, que tem o sugestivo título de "destruidoras de mundos", referindo-se às estrelas binárias. "É teoricamente possível que possa existir planetas habitáveis em torno desses tipos de estrelas duplas, assim, se realmente havia vida ali, ela foi varrida," diz ele.

Tempestades magnéticas

O binário observado é o RS Canum Venaticorums. As duas estrelas estão separadas uma da outra por apenas 3,2 milhões de quilômetros, ou 2% da distância entre a Terra e o Sol. Os pares estelares orbitam uma em torno da outra em poucos dias, com uma face de cada estrela perpetuamente voltada para a outra.


Os astrônomos acreditam que a melhor hipótese é que a poeira sejam os destroços deixados por enormes colisões planetárias.
[Imagem: NASA/JPL-Caltech/Harvard-Smithsonian CfA]

Mas essas estrelas giram muito rapidamente, o que lhes dá poderosos campos magnéticos e ocasiona gigantescas tempestades estelares. A atividade magnética gera ventos estelares extremamente fortes, verdadeiros tufões em comparação com o vento estelar do Sol. Isso diminui a velocidade das estrelas, puxando-as uma para mais perto da outra.

É aí, acreditam os astrônomos, que começa a destruição dos planetas, que, juntamente com cometas, asteroides e qualquer outro corpo celeste que orbita as gêmeas começam a se chocar uns contra os outros. Ao longo das eras, só restam os discos de poeira agora visualizados pelo Spitzer.


Bibliografia:

Close binaries with infrared excess: destroyers of worlds?
M. Matranga, J. J. Drake, V. L. Kashyap, M. Marengo, M. J. Kuchner
Astrophysical Journal Letters
2010 Agosto 19
Vol.: 720, Number 2
DOI: 10.1088/2041-8205/720/2/L164

Descoberto sistema planetário semelhante ao Sistema Solar

Redação do Site Inovação Tecnológica - 24/08/2010


Impressão artística do novo sistema exoplanetário HD 10180, com sete planetas, incluindo um "planeta de lava", com o tamanho mais próximo ao da Terra já encontrado até hoje.
 [Imagem: ESO/L. Calçada]

Sistema exoplanetário

Astrônomos do ESO (Observatório Europeu do Sul) descobriram um sistema planetário com, pelo menos, cinco planetas em órbita de uma estrela do tipo solar, HD 10180.

Os pesquisadores têm também fortes indícios da existência de mais dois planetas, sendo que um deles deverá ser o exoplaneta de menor massa encontrado até agora.

Isto torna este sistema planetário muito semelhante ao nosso próprio Sistema Solar em termos do número de planetas (sete planetas contra os nossos oito). Além disso, a equipe encontrou evidências de que as distâncias dos planetas até sua estrela seguem um padrão regular, como acontece no Sistema Solar.

"Esta descoberta extraordinária também enfatiza o fato de estarmos agora entrando em uma nova era da investigação de exoplanetas: o estudo de sistemas planetários complexos e não apenas de planetas individuais. Estudos dos movimentos planetários no novo sistema revelam interações gravitacionais complexas entre os planetas e nos dão informações sobre a evolução do sistema a longo prazo," diz Christophe Lovis, principal autor do artigo científico que apresenta os resultados.

Sistema planetário HD 10180

A equipe de astrônomos utilizou o espectrógrafo HARPS, montado no telescópio de 3,6 metros do ESO, em La Silla, no Chile, durante um período de seis anos, para estudar a estrela do tipo solar HD 10180.

A HD 10180 está situada a 127 anos-luz de distância da Terra, na constelação austral da Hidra. HARPS é um instrumento com grande precisão e de extrema estabilidade nas medições, sendo o descobridor de exoplanetas mais bem-sucedido do mundo, juntamente como satélite Corot.

Graças a 190 medições individuais obtidas pelo HARPS, os astrônomos detectaram os minúsculos movimentos da estrela, para a frente e para trás, causados pelas atrações gravitacionais complexas de cinco ou mais planetas.

Os cinco sinais mais fortes correspondem a planetas com massas do tipo de Netuno - entre 13 e 25 massas terrestres - que orbitam a estrela com períodos que vão dos 6 aos 600 dias. Estes planetas estão situados a uma distância da sua estrela central que corresponde a cerca de 0,06 a 1,4 vezes a distância Terra-Sol.

Menor exoplaneta rochoso

"Temos também boas razões para acreditar que mais dois planetas estejam presentes," diz Lovis. "Um será do tipo de Saturno (com uma massa mínima de 65 massas terrestres) com um período de 2.200 dias. O outro será o exoplaneta de menor massa descoberto até agora, com uma massa de cerca de 1,4 vezes a massa da Terra. Ele está muito próximo da estrela hospedeira, a apenas 2% da distância Terra-Sol. Um "ano" neste planeta durará somente 1,18 dias terrestres.

Utilizando o método das velocidades radiais, os astrônomos podem apenas estimar a massa mínima de um planeta, uma vez que esta massa depende igualmente da inclinação do plano orbital relativamente à linha de visão, que é desconhecida. De um ponto de vista estatístico, esta massa mínima é, no entanto, geralmente próxima da massa real do planeta.

"Este objeto gera uma oscilação na estrela de apenas 3 quilômetros por hora - mais lento do que uma pessoa andando a pé - e este movimento é bastante difícil de medir," diz o membro da equipe Damien Ségransan. Se confirmado, este objeto poderá ser outro exemplo de um planeta quente rochoso, semelhante a Corot-7b - veja Menor exoplaneta já descoberto é coberto por lava.



A estrela HD 10180 está situada a 127 anos-luz de distância da Terra, na constelação austral da Hidra.
[Imagem: ESO]
Diferenças do Sistema Solar

O sistema de planetas recém-descoberto em torno da estrela HD 10180 é único em diversos aspectos.

Primeiro que, com pelo menos cinco planetas do tipo de Netuno localizados numa distância equivalente à órbita de Marte, este sistema é mais povoado na sua região interior do que o nosso Sistema Solar, com mais planetas de grande massa nessa região.

Além disso, o sistema provavelmente não possui gigantes gasosos do tipo de Júpiter. Em média, os planetas na região interior do sistema de HD 10180 têm vinte vezes a massa da Terra, enquanto os planetas interiores do nosso Sistema Solar (Mercúrio, Vênus, Terra e Marte) têm uma massa média de meia massa terrestre.

Finalmente, todos os planetas parecem ter órbitas praticamente circulares.

Até agora, os astrônomos conhecem quinze sistemas com pelo menos três planetas. O último detentor do recorde foi 55 Câncer, que contém cinco planetas, dois dos quais gigantes. "Sistemas com planetas de pequena massa como os que se encontram em torno de HD 10180, parecem ser muito comuns, mas a sua história de formação permanece um mistério," diz Lovis.

Lei das órbitas

Utilizando a nova descoberta, juntamente com dados de outros sistemas exoplanetários, os astrônomos encontraram um equivalente da lei de Titius-Bode existente no nosso Sistema Solar: as distâncias dos planetas às suas estrelas parecem seguir um padrão regular. "O que pode ser uma assinatura do processo de formação destes sistemas planetários," diz o membro da equipe Michel Mayor.

A lei de Titius-Bode estabelece que a distância dos planetas até o Sol segue uma fórmula simples. Com relação aos planetas exteriores, prevê-se que cada planeta esteja aproximadamente duas vezes mais afastado do Sol do que o planeta imediatamente anterior. Esta lei empírica previu corretamente as órbitas de Ceres e Urano, mas falhou na previsão da órbita de Netuno.

Composição química das estrelas

Outro resultado importante obtido é a descoberta da existência de uma relação entre a massa de um sistema planetário e a massa e a composição química da estrela hospedeira.

Todos os sistemas planetários de grande massa são encontrados em torno de estrelas de grande massa e ricas em metais, enquanto os quatro sistemas de menor massa conhecidos foram encontrados em torno de estrelas de baixa massa e pobres em metais. Essas propriedades confirmam os modelos teóricos atuais.

De acordo com a definição utilizada em astronomia, "metais" são todos os elementos exceto o hidrogênio e o hélio. Tais metais, com exceção de alguns poucos elementos químicos leves menores, são criados pelas várias gerações de estrelas. Os planetas rochosos também são compostos de "metais".

Brilho de nanoestrelas abre um céu de possibilidades tecnológicas


Redação do Site Inovação Tecnológica - 24/08/2010

Em cima, os pontos quânticos coloidais semicondutores sobre uma superfície. Embaixo, a intensidade de fluorescência medida por um microscópio de molécula única mostrando os picos nos locais onde estão os pontos quânticos.
[Imagem: Boldizsár Jankó]


O físico Boldizsár Jankó e seus colegas da Universidade de Notre Dame, nos Estados Unidos, bem poderiam ser chamados de astrônomos da nanotecnologia.

Eles finalmente descobriram a fonte de um dos grandes mistérios da físico-química: moléculas que piscam, como se fossem "estrelas" de um universo às avessas, onde o muito pequeno tomar o lugar do muito grande.

Saltos quânticos

Há mais de um século, o físico Neils Bohr, um dos pais da mecânica quântica, previu os chamados saltos quânticos.

Ele teorizou que os elétrons não se moviam suavemente para cima e para baixo em relação ao núcleo do átomo. Em vez disso, eles ocupariam órbitas bem determinadas, e só se movimentariam entre elas dando saltos quânticos - eventualmente emitindo luz quando o salto quântico os levasse para órbitas de menor energia.

Apesar dessa ideia ter sido altamente controversa nos tempo de Bohr, ela passou a ser aceita pelos físicos e foi finalmente observada experimentalmente em 1980. Mais recentemente, com o desenvolvimento de técnicas de imageamento capazes de filmar moléculas, foi possível observar saltos semelhantes em moléculas individuais.

Estrelas moleculares

Durante os experimentos, estes saltos quânticos puderam ser vistos como interrupções discretas na emissão de luz contínua de algumas moléculas, revelando um fenômeno que passou a ser conhecido como intermitência da fluorescência - piscadas moleculares, por assim dizer.

No entanto, embora alguns casos dos pisca-piscas moleculares possam ser diretamente atribuídos aos saltos quânticos originais de Bohr, há um número muito maior de casos onde a intermitência da fluorescência não segue as previsões da teoria.

E são casos de grande importância não apenas para a ciência, mas também para a tecnologia: proteínas fluorescentes, largamente utilizadas em biomedicina, moléculas captadoras de luz, importantes tanto para a fotossíntese quanto para as células solares, e, mais recentemente, estruturas inorgânicas criadas pela nanotecnologia, são alguns exemplos.

Desvendar seu funcionamento poderá ter impacto decisivo sobre o entendimento e a utilização prática, dentre outros, dos pontos quânticos, utilizados em células solares e nas pesquisas dos computadores quânticos, e para os matar células de câncer, e dos nanofios, usados para gerar energia a partir do movimento.

Ou seja, as moléculas piscantes são estrelas da nanociência em mais do que um sentido.

Moléculas piscantes




Nanofios semicondutores, formando um Y. Abaixo, a intensidade da fluorescência. [Imagem: Boldizsár Jankó]

Como o fenômeno das moléculas piscantes não se enquadrava na teoria da mecânica quântica, os físicos consideraram por muito tempo que o fato de as moléculas "ligarem" e "desligarem" sua fluorescência eram fenômenos isolados, não relacionados um com o outro.

Até que, em 2007, o físico argentino Fernando Stefani, da Universidade de Buenos Aires, publicou um trabalho no qual ele demonstrava indícios de uma estreita correlação entre o ligar e o desligar dessas estrelas moleculares. Mas os pesquisadores continuaram sem um modelo teórico capaz de explicar essas correlações.

Agora, Jankó e seu grupo finalmente desenvolveram um modelo que explica os fenômenos de intermitência da fluorescência e que confirma o que Stefani observou experimentalmente. Ou seja, o acender e o apagar das moléculas fluorescentes são mesmo oriundos de um mesmo fenômeno.

Ao entender o fenômeno, os físicos se capacitam para tentar controlá-lo, já que agora sabem onde podem atuar com esse objetivo.

E, se o processo de intermitência das moléculas puder ser controlado, então a emissão de luz dos pontos quânticos também poderá.

Olhar para as estrelas

Com isto, os devaneios de olhar para um céu às avessas passam a ser considerações pautadas em fundamentos científicos.

Fundamentos esses que poderão ser a base para a geração de imagens precisas de células cancerosas individuais e de imagens em tempo real de uma infecção viral, como o HIV, dentro de uma célula; e também de uma nova geração de "telas quânticas" superbrilhantes para computadores, TVs, telefones celulares e outros aparelhos eletrônicos; e mesmo de novas técnicas de iluminação ambiente para residências e escritórios.

Ainda que apenas uma dessas possibilidades se realize, o feito parece ser uma demonstração científica definitiva de que olhar para as estrelas de fato vale a pena.

Bibliografia:

Correlations between Subsequent Blinking Events in Single Quantum Dots
Sándor Volkná-Kacsó, Pavel A. Frantsuzov, Boldizsár Jankó
Nano Letters
Vol.: 2010, 10 (8), pp 2761-2765
DOI: 10.1021/nl100253r

Super laser poderá criar matéria do nada

Moisés de Freitas - 20/08/2010

Cientistas acreditam que o projeto ELI será suficiente para gerar 1026 Watts por centímetro quadrado, o suficiente para tornais reais as partículas virtuais.
[Imagem: ELI]

Vácuo quântico

Você decididamente não encontrará um cientista querendo falar sobre "energia extraída do nada".

Mas alguns já estão dispostos a falar sobre extrair matéria do nada. Ou, pelo menos, do espaço "aparentemente" vazio.

Se o feito pode se assemelhar a alguma espécie de "criação" é coisa que ficará para os filósofos discutirem.

De qualquer forma, como parece ser bem adequado ao tema, é necessário começar do começo.

O princípio de incerteza de Heisenberg, um dos pilares da mecânica quântica, implica que nenhum espaço pode estar verdadeira e inteiramente vazio. De fato, e para desespero final dos materialistas, a ciência já demonstrou que a matéria é resultado das flutuações do vácuo quântico.

Em termos absolutamente singelos, vácuo quântico é o "nada" visto por um físico. "Visto" pode parecer força de expressão, mas não é: na verdade, os físicos já conseguiram capturar e armazenar o seu "nada".

É desse vazio que nunca é vazio que emerge a matéria. Flutuações aleatórias do vácuo quântico geram constantemente uma multiplicidade de partículas, as chamadas partículas virtuais, entre elas elétrons e pósitrons.

Assim, caso ainda não estivesse a par, saiba que a física quântica, a meros cento e poucos anos, decretou que o nada é uma impossibilidade. "Não há nada" passou a ser uma proposição intransitiva, que não exige complemento.


Flutuações aleatórias do vácuo quântico geram constantemente uma multiplicidade de partículas, as chamadas partículas virtuais.
[Imagem: ELI]
Antimatéria

Elétrons são bem conhecidos, deram nome à eletrônica. Os pósitrons também já estão sendo úteis na maioria dos laboratórios clínicos e hospitais, nos famosos exames de tomografia por emissão de pósitrons,PET-Scan para os "sigla-maníacos".

Menos sabido é que os pósitrons são partículas de antimatéria - mais especificamente, são antielétrons. Como elétrons e pósitrons surgem aleatoriamente do vácuo quântico, eles se encontram e se aniquilam quase com a mesma rapidez com que surgem. E esse equilíbrio de matéria e antimatéria garante que não fique jorrando matéria do nada o tempo todo.

O que os físicos querem fazer agora é tornar reais essas partículas virtuais, fazê-las romper o limiar de sua vida efêmera e trazê-las à existência real.

A possibilidade de que isso aconteça foi prevista por Fritz Sauter, em 1931. Segundo ele, um campo elétrico forte o suficiente pode transformar as partículas virtuais em partículas reais de tal forma que possam ser detectadas.

A dificuldade sempre esteve justamente nesse "campo elétrico forte o suficiente".

Super laser

Alexander Fedotov e seus colegas da Rússia, França e Alemanha, acreditam que o experimento, finalmente, começará ser viabilizado por volta de 2015, quando será inaugurada a primeira etapa do Extreme Light Infrastructure (ELI).


  Esquema da produção de pares de elétrons-pósitrons. [Imagem: ELI]

O ELI, um projeto conjunto de 13 países europeus, será o laser de maior potência já construído, cerca de seis vezes mais forte do que os mais fortes atualmente. Ele deverá gerar pulsos ultra curtos de radiação de alta energia - cerca de 100 GeV - suficientes para fazer com que partículas acelerem até próximo da velocidade da luz.

Fedotov e seus colegas acreditam que o ELI será suficiente para gerar 1026 Watts por centímetro quadrado. Segundo seus cálculos, isso será o bastante para dar vida às partículas virtuais.

Em 1997, uma equipe do acelerador SLAC, da Universidade de Stanford, nos Estados Unidos, conseguiu criar pares de elétrons-pósitrons. Mas a potência do ELI poderá permitir uma reação em cadeia, criando os pares aos milhões.

Segundo Fedotov e seus colegas, o primeiro par de elétron-pósitron criado será acelerado pelo laser, gerando luz. Estes fótons, juntamente com os demais fótons do laser, vão criar mais pares, que gerarão mais fótons para se juntar ao laser, e assim por diante, fazendo finalmente a matéria jorrar do nada. Ou melhor, jorrar do vácuo quântico.

Impensável

Enquanto esperam até que os engenheiros façam o seu trabalho, o físicos continuarão procurando pela quarta propriedade do elétron, que também poderá lançar alguns fótons sobre o paradeiro de toda a antimatéria que teria sido criada no Big Bang.

Ou sonhando com o super colisor de partículas linear, que deverá ser o sucessor do LHC, e que promete não apenas responder a algumas dessas questões eterealmente imateriais, como lançar outras exponencialmente mais impensáveis.

Bibliografia:
Limitations on the attainable intensity of high power lasers
A.M. Fedotov, N.B. Narozhny, G. Mourou, G. Korn
Physical Review Letters
August 18, 2010
Vol.: 105, 080402 (2010)
DOI: 10.1103/PhysRevLett.105.080402
http://arxiv.org/PS_cache/arxiv/pdf/1004/1004.5398v1.pdf

MIT questiona modelos climáticos do IPCC

Morgan Bettex - MIT - 20/08/2010

Os modelos do IPCC calculam que a Terra deveria estar mais quente do que está na realidade e atribui a diferença aos aerossóis, que resfriariam o planeta. Pesquisadores do MIT invertem o argumento e afirmam que eles aquecem.
[Imagem: NASA]

Papel dos aerossóis

Novas pesquisas mostram que os aerossóis não apenas esfriam, mas também aquecem o planeta - uma descoberta que pode ofuscar a validade dos modelos de mudança climática.

Exatamente o quanto a Terra se tornará mais quente como resultado das emissões de gases de efeito de estufa - e o quanto ela se aqueceu desde os tempos pré-industriais - são alvos de debates intensos.

Em seu relatório de 2007, o IPCC (Painel Intergovernamental sobre Mudança Climática) órgão formado pela ONU (Organização das Nações Unidas) para avaliar as mudanças climáticas, afirma que a temperatura da superfície do planeta subirá entre 1,8 e 4,0 graus Celsius até 2100, com uma melhor estimativa situando-se entre 1,1 e 6,4 graus, compreendendo os dois cenários avaliados.

Tendência para o aquecimento

No entanto, os modelos computadorizados do IPCC têm uma tendência de superestimar o aquecimento: se os modelos do IPCC estivessem corretos, hoje o planeta deveria ser mais quente do que é de fato.

O IPCC atribui a discrepância aos aerossóis - partículas microscópicas na atmosfera que são criadas tanto naturalmente (poeira soprada pelos ventos do deserto) como pela atividade humana (gotículas de líquido produzidos pela queima de combustíveis).

Como os aerossóis ajudam as gotículas das nuvens a se transformar em partículas de gelo, que refletem a luz solar de volta para o espaço, eles ajudam a esfriar a Terra e, possivelmente, reduzir o aquecimento causado pelas emissões.

Mas Richard Lindzen, professor de meteorologia do MIT (Massachusetts Institute of Technology), nos Estados Unidos, está entre aqueles que questionam a precisão dos modelos do IPCC, criticando sobretudo o argumento dos aerossóis.

Em um artigo publicado na revista Proceedings of National Academy of Sciences, Lindzen e seu colega Choi Yong-Sang sugerem que os aerossóis não apenas refrigeram o sistema Terra-atmosfera - o sistema pelo qual a atmosfera e os oceanos interagem e afetam o clima global -, mas também aquecem esse sistema.

Problema dos aerossóis

Ao descrever os potenciais efeitos antagônicos dos aerossóis a pesquisa questiona os modelos do IPCC porque, se os aerossóis de fato aquecem o planeta, eles não podem ser usados como explicação para um pretenso resfriamento real em relação ao aquecimento que os modelos estipulam. Os modelos do IPCC dizem que a Terra deveria ser mais quente do que é na realidade hoje - a explicação, diz o IPCC, deve-se aos aerossóis, que esfriam o planeta. A pesquisa do MIT afirma que os aerossóis na verdade aquecem o planeta, o que deixa os modelos do IPCC com problemas em má situação.

"Os modelos climáticos atuais geralmente superestimam o aquecimento atual e assumem que o aquecimento excessivo é cancelado pelos aerossóis", dizem os pesquisadores em seu artigo. "[Nossa pesquisa] oferece um exemplo potencialmente importante de que o efeito secundário é de aquecimento, reduzindo assim a capacidade dos aerossóis para compensar o aquecimento excessivo nos modelos atuais." Ou seja, o grau em que os aerossóis podem compensar as superestimativas dos modelos de aquecimento permanece em aberto, sugere a pesquisa.

Thomas Stocker, copresidente do Grupo de Trabalho I do IPCC, que está examinando os aspectos científicos físicos do sistema climático e das alterações climáticas, não quis comentar o estudo, mas disse que a pesquisa de Lindzen e Choi é parte relevante do trabalho revisado pelos pares que o grupo irá avaliar no seu Quinto Relatório de Avaliação das mudanças climáticas, a ser publicado em 2013.

Aerossóis e a formação das nuvens

Em sua pesquisa, Lindzen e Choi analisaram dados sobre a formação das nuvens e aerossóis de poeira - pequenas partículas de areia e silicato na atmosfera - que foram coletados pelo satélite climático CALIPSO, de junho de 2006 a maio de 2007.

As análises revelaram que havia cerca de 20 por cento menos partículas de nuvem "super-resfriadas" - gotículas que são uma mistura de água e gelo, mas refletem mais luz solar do que o gelo - em regiões onde os aerossóis de poeira estavam presentes. Essa diferença, sugerem Lindzen e Choi, poderia aquecer a atmosfera nessas regiões.

Segundo os pesquisadores, a redução nas partículas super-resfriadas ocorre quando os aerossóis viajam para uma camada da atmosfera onde a temperatura é de cerca de menos 20 graus Celsius, e "efetivamente matam" as gotículas super-resfriadas das nuvens, fazendo-as formar gelo. Poucas gotículas de nuvem super-resfriadas significa que as nuvens refletem menos luz solar, o que pode ter um efeito de aquecimento no clima.

Este efeito, acreditam os pesquisadores, deve ser incorporado nos modelos de mudança climática. "O IPCC assume que todos os efeitos secundários dos aerossóis sejam no aumento da reflexividade, o que tem deixado de fora um fator muito importante que pode levar ao efeito oposto", diz Lindzen.

Incertezas da sensibilidade climática

O trabalho é importante para o debate sobre o aquecimento global porque lança luz sobre as incertezas da sensibilidade climática, que é o termo que o IPCC usa para descrever as mudanças que uma duplicação do dióxido de carbono teria sobre as temperaturas médias globais (o relatório do IPCC de 2007 prevê que a mudança deve ser entre 2 e 4,5 graus Celsius até o final do século, com uma melhor estimativa de cerca de 3 graus Celsius).

De acordo com o climatologista Trude Storelvmo, da Universidade de Yale, "o efeito dos aerossóis sobre o clima, em especial através da sua influência sobre as nuvens, representa atualmente a força mais incerta da mudança climática".

Embora os modelos do IPCC assumam que os aerossóis resfriam o sistema Terra-atmosfera, a cientista de Yale adverte que "a menos que possamos quantificar este suposto resfriamento dos aerossóis, contrariando o aquecimento devido ao aumento dos gases estufa, não podemos dizer qual é a sensibilidade climática do sistema Terra-atmosfera."

Como os dados dos satélites podem ser limitados, ela sugere que pesquisas futuras devem incluir medições dos aerossóis e propriedades das nuvens coletadas por instrumentos a bordo de aviões voando na atmosfera superior. Ela acha que esta combinação poderia ajudar a resolver uma questão que permanece sem resposta no artigo: por que poucas nuvens super-resfriadas foram detectadas sobre a América do Sul, ainda que o satélite não tenha detectado poeira ou aerossóis de carbono sobre aquela região.

Lindzen concorda que os cientistas do clima não podem se basear exclusivamente nas técnicas de sensoriamento remoto para obter "dados sólidos e irrefutáveis" sobre os aerossóis e as nuvens. Mesmo assim, ele está ansioso pelo lançamento de satélites e instrumentos melhores, para que ele e seus colegas possam reunir o máximo de dados possível sobre como as nuvens evoluem "de forma que possamos apontar melhor o que os aerossóis fazem."

Até que os cientistas descubram a peça que falta no quebra-cabeças da mudança climática, será difícil prever os efeitos do aquecimento no futuro.

Bibliografia:

Space observations of cold-cloud phase change
Yong-Sang Choi, Richard S. Lindzen, Chang-Hoi Ho, Jinwon Kim
Proceedings of the National Academy of Sciences
June 22, 2010
Vol.: 2010 107 (25) 11211-11216
DOI: 10.1073/pnas.1006241107

Outra conversa sobre o tempo

FOLHA DE SÃO PAULO - Domingo, 22/08/2010


Extrapolando a expansão do Universo
até seu início, existe um ponto em que
não há como definir o tempo


AGORA QUE o livro do Zuenir Ventura e do Luís Fernando Veríssimo, "Conversa sobre o tempo", está nas livrarias, não consegui resistir. Peguei emprestado o título para termos aqui um outro tipo de conversa sobre o mesmo tópico.

O tempo significa muitas coisas diferentes. E, por falar nisso, adianto que o próximo livro da série "Conversa sobre..." será uma conversa minha com o precioso Frei Betto, mediada por Waldemar Falcão. O tema será "Conversa sobre a fé". Mas isso é coisa para o final do ano.

Enquanto esse livro não chega, gostaria hoje de retomar um tema científico, sobre a origem do tempo.

Uma das consequências mais diretas do Big Bang é que o Universo teve origem em um instante específico do passado. Isso se deu há cerca de 13,7 bilhões de anos.

Uma das indicações mais óbvias disso é a expansão do Universo: o fato de as galáxias estarem se afastando umas das outras.

Portanto, passando o filme ao contrário, chegamos em um instante em que todas elas estão comprimidas em um único ponto. Esse é o momento da criação. E, portanto, o momento em que surge o tempo.

O problema é que essa descrição não funciona. Infelizmente, ao nos aproximarmos desse momento crítico, a teoria que usamos para descrever a expansão do espaço (a teoria da relatividade geral de Einstein) deixa de fazer sentido.

Chegamos à "singularidade", onde toda a matéria estaria comprimida em uma região de proporções não tão diferentes de um átomo.

Com isso, a teoria de Einstein, que trata do espaço e do tempo como entidades contínuas e bem comportadas, precisa ser suplantada por conceitos da física quântica, que trata dos átomos e das partículas elementares da matéria. Aí a coisa fica feia.

Na teoria de Einstein, a gravidade é descrita como consequência da curvatura do espaço. A presença de uma massa, seja ela o Sol, você ou uma bola de tênis, deforma o espaço ao redor e afeta a passagem do tempo. Quanto mais matéria, maior a curvatura do espaço e mais lenta a passagem do tempo. Um relógio no Sol bate mais devagar do que na Terra. Os efeitos são bem pequenos.

Quanto tentamos "quantizar" a gravidade, temos de supor que, tal como no caso dos átomos, as mesmas estranhas regras se aplicam: no mundo do muito pequeno, tudo flutua, nada fica parado.

Se você imaginar o espaço como uma membrana, feito o topo de um tambor, isso significa que ele vibrará de várias formas e o que ocorre aqui não é o que ocorre ali.

O mesmo com o tempo. Ele não flui mais continuamente. Como a era quântica do Universo veio antes da era clássica (explicada pela teoria de Einstein), temos de supor que, nessa situação inicial onde tudo flutuava, o tempo usual não existia.

Se extrapolarmos a expansão do Universo até o seu início, chegamos a um ponto em que não podemos definir o tempo de modo familiar.

Aliás, como disse já Santo Agostinho, o tempo e o espaço surgem com a criação. Na física, o tempo e o espaço einstenianos, contínuos e bem comportados, surgem na transição da era quântica à era clássica. E como o Big Bang é precisamente o evento que marca a passagem do universo da era quântica para a era clássica, é ele também que marca o nascimento do tempo.

MARCELO GLEISER é professor de física teórica no Dartmouth College, em Hanover (EUA), e autor do livro "Criação Imperfeita"

Blog Mulher das Estrelas

Próxima década - Parte II - 23/08/2010



Continuando o post sobre os projetos que foram considerados como prioritários para a próxima década, aqui vão os projetos de grande porte que a comissão americana escolheu para astronomia feita em observatórios no solo terrestre.

A prioridade número 1 deve ser dada para o LSST (Large Synoptic Survey Telescope) que terá 8,4m de diâmetro, cobrirá uma grande área do céu de uma só vez, e será instalado no Chile. O LSST custará 465 milhões de dólares e deverá começar o mais rápido possível.

O segundo projeto selecionado é na verdade uma coleção de 7 projetos de médio porte e que custarão 40 milhões de dólares por ano durante dez anos.

O terceiro projeto escolhido foi o GSMT (Giant Segmented Mirror Telescope) e vai deixar alguns membros da comunidade bem decepcionados, pois a comissão recomendou que a agências de fomento federal, NSF, escolha entre um dos dois projetos de grande porte que já estão em fase de estudos e execução, o GMT (Giant Magellan Telescope) e o TMT (Thirty Meter Telescope). O NSF deverá arcar com apenas um quarto dos 1.1-1.4 bilhões de dólares, o resto deve vir de outras fontes de fomento.

O quarto projeto escolhido foi o ACTA (Atmospheric Cerenkov Telescope Array) e os EUA deverão arcar com apenas um quarto dos custos, o que dá cerca de 100 milhões de dólares, o restante deve vir da colaboração com a Europa.

Além dos quatro projetos, a comissão sugeriu também que se invista em um projeto de médio porte, o CCAT (Cerro Chajnantor Atacama Telescope), que é uma antena de 25 m de diâmetro que funcionará em conjunto com o ALMA que está em construção no Chile. O NSF pagará um terço dos 140 milhões de dólares e o projeto deverá começar imediatamente.

No próximo post vou dar a minha opinião e quais foram as surpresas do relatório.

A imagem acima é uma proposta de design do prédio do LSST no Chile. Lindo, não?

25 de ago de 2010

Sergio Rezende incentiva desenvolvimento de empresas que investem em inovação

Ministério da Ciência e Tecnologia - 19/08/2010




O Ministro da Ciência e Tecnologia destacou as iniciativas públicas e privadas para sensibilizar as empresas nacionais a investirem em inovação tecnológica. Sergio Rezende foi o entrevistado do programa Bom dia, Ministro, nesta quinta-feira(19). Para âncoras de emissoras de rádio de todo o País, apontou ainda os principais resultados do Plano de Ação de Ciência, Tecnologia e Inovação para o Desenvolvimento Nacional.

Ouça aqui a entrevista

Entrevista - parte 1

Entrevista na íntegra para o Programa Bom Dia, Ministro, produzido pela Secretaria de Comunicação Social da Presidência da República, em parceria com a EBC Serviços.

Entrevista na íntegra para o Programa Bom Dia, Ministro, produzido pela Secretaria de Comunicação Social da Presidência da República, em parceria com a EBC Serviços.

Estrela magnética desafia teoria dos buracos negros

Redação do Site Inovação Tecnológica - 18/08/2010


O magnetar desafia as atuais teorias da evolução estelar, uma vez que, segundo estas teorias, uma estrela com massa dessa magnitude deveria transformar-se em um buraco negro, e não em uma estrela magnética. [Imagem: ESO/L. Calçada]


Magnetar

Astrônomos demonstraram pela primeira vez que uma estrela magnética - um tipo incomum de estrela de nêutrons, também conhecida como magnetar - se formou a partir de uma estrela com pelo menos 40 vezes a massa do Sol.

O resultado desafia as atuais teorias da evolução estelar, uma vez que, segundo estas teorias, uma estrela com massa dessa magnitude deveria transformar-se em um buraco negro, e não em uma estrela magnética.

Isto deixa novamente em aberto uma questão fundamental: que quantidade de massa deve possuir uma estrela para dar origem a um buraco negro?

Zoológico estelar

Os astrônomos usaram o Very Large Telescope, do ESO (Observatório Europeu do Sul), para observar em grande detalhe o enxame estelar Westerlund 1, situado a 16.000 anos-luz de distância da Terra, na constelação austral do Altar.

A partir de estudos anteriores, os astrônomos sabiam já que Westerlund 1 é o super enxame estelar mais próximo conhecido, contendo centenas de estrelas de grande massa, algumas que brilham com a luminosidade de quase um milhão de sóis e outras com duas mil vezes o diâmetro do Sol (tão grandes como a órbita de Saturno).

"Se o Sol estivesse situado no centro deste enxame, o nosso céu noturno estaria repleto de centenas de estrelas tão brilhantes como a Lua Cheia," diz Ben Richie, autor principal do artigo científico que apresenta estes resultados.

Westerlund 1 é um fantástico zoológico estelar, contendo estrelas diversas e exóticas. Mas as estrelas no enxame partilham uma coisa em comum: todas têm a mesma idade, estimada entre 3,5 e 5 milhões de anos, já que o enxame se formou a partir de um único evento cósmico.

Estrela magnética

Uma estrela magnética, ou magnetar, é um tipo de estrela de nêutrons que possui um campo magnético extremamente forte - um trilhão de vezes mais forte que o da Terra - que se forma quando certos tipos de estrelas sofrem explosões conhecidas como supernova.

O enxame Westerlund 1 abriga uma das poucas estrelas magnéticas conhecidas na Via Láctea. Como ela pertence a este enxame, os astrônomos puderam deduzir que esta estrela magnética deve ter-se formado a partir de uma estrela com pelo menos 40 vezes a massa do Sol.

Uma vez que todas as estrelas no Westerlund 1 têm a mesma idade, a estrela que explodiu e deixou como resto uma estrela magnética deve ter tido uma vida mais curta do que as demais estrelas do enxame.

"Como o tempo de vida de uma estrela está diretamente relacionado com a sua massa - quanto mais massa tem uma estrela, mais curta é a sua vida - se medirmos a massa de qualquer das estrelas sobreviventes, saberemos com certeza que a estrela de vida mais curta que deu origem à estrela magnética deve ter tido ainda mais massa do que a massa medida," diz o coautor e líder da equipe Simon Clark. "Isto é extremamente importante, já que não existe nenhuma teoria aceita hoje sobre como se formam estes objetos extremamente magnéticos."

Teoria dos buracos negros

Por isso, os astrônomos estudaram as estrelas que pertencem ao sistema duplo W13, no Westerlund 1, pelo fato de que, num sistema em eclipse, as massas podem ser determinadas diretamente a partir do movimento das estrelas.

Comparando estas estrelas, eles descobriram que a estrela que deu origem à estrela magnética deve ter tido pelo menos 40 vezes a massa do Sol.

O que comprova, pela primeira vez, que as estrelas magnéticas podem formar-se a partir de estrelas de tão grande massa, estrelas essas que as teorias atuais afirmam que formariam buracos negros.

Até agora, era aceito pelos cientistas que estrelas com massas iniciais entre 10 e 25 massas solares formariam estrelas de nêutrons e aquelas com massas iniciais superiores a 25 massas solares dariam origem a buracos negros.

"Estas estrelas têm que se ver livres de mais de nove décimos das suas massas antes de explodirem como supernovas, porque senão darão antes origem a um buraco negro," diz o coautor Ignacio Negueruela. "Perdas de massa tão elevadas antes da explosão apresentam um grande desafio às atuais teorias da evolução estelar."

"O que levanta a questão de saber quanta massa deve ter uma estrela para que, ao colapsar, ela forme um buraco negro, uma vez que estrelas com mais de 40 massas solares não o conseguem," conclui o coautor Norbert Langer.

Evolução estelar

O mecanismo de formação estelar preferido dos astrônomos postula que a estrela que se transforma em estrela magnética - a progenitora - tenha nascido com uma companheira estelar.

À medida que as duas estrelas evoluem, elas começam a interagir, gastando a energia derivada dos seus movimentos orbitais para ejetar gigantescas quantidades de massa da estrela progenitora.

Embora não se observe atualmente nenhuma estrela companheira no sistema, isto pode dever-se ao fato da supernova que formou a estrela magnética ter desfeito o binário, ejetando as duas estrelas do enxame.

"Se este for o caso, então os sistemas binários poderão ter um papel importante na evolução estelar ao originar perda de massa - um 'programa de dieta cósmico definitivo' para estrelas de grande massa, que as faz perderem mais de 95% da sua massa inicial," conclui Clark.

Laboratório de física estelar

O enxame aberto Westerlund 1 foi descoberto na Austrália em 1961, pelo astrônomo sueco Bengt Westerlund. Este enxame encontra-se por trás de uma enorme nuvem interestelar de gás e poeira, que bloqueia a maior parte da radiação visível.

O fator de obscurecimento é de mais de 100.000, e é por isto que se demorou tanto tempo para que fosse descoberta a verdadeira natureza deste enxame tão especial.

O Westerlund 1 é um laboratório natural único no estudo da física estelar extrema, ajudando os astrônomos a descobrir como vivem e como morrem as estrelas de maior massa da nossa Via Láctea.

A partir de diversas observações, os astrônomos concluíram que este enxame extremo deve conter nada menos do que 100.000 vezes a massa do Sol, e todas as suas estrelas se situam numa região com menos de 6 anos-luz de diâmetro. A região parece ser assim o enxame estelar de maior massa e mais compacto já identificado na galáxia da Via Láctea.

Todas as estrelas do Westerlund 1 analisadas até agora têm massas da ordem de 30-40 vezes a massa solar. Uma vez que estas estrelas têm uma vida bastante curta - em termos astronômicos - Westerlund 1 tem que ser bastante jovem. Os astrônomos determinaram que a sua idade se situa entre os 3,5 e os 5 milhões de anos. Assim, Westerlund 1 é claramente um enxame "recém-nascido" na nossa galáxia.

Bibliografia:

A VLT/FLAMES survey for massive binaries in Westerlund 1
B. W. Ritchie, J.S. Clark, I. Negueruela, N. Langer
Astronomy & Astrophysics
August 11, 2010
Vol.: To be published
http://www.eso.org/public/archives/releases/sciencepapers/eso1034/eso1034.pdf


Algas podem substituir metade do petróleo e inaugurar química verde

Com informações da Agência Fapesp - 16/08/2010

Química verde

O etanol é um substituto eficiente do petróleo tanto em termos ecológicos quanto energéticos.

Mas isto não significa que ele possa substituir todo o petróleo usado no mundo.

O setor de transportes consome cerca de metade da produção da indústria petrolífera - a outra metade abastece a indústria química, que produz todo tipo de material sintético, dos plásticos e solventes até os gases industriais, como o hidrogênio.

Mas pode haver saídas também para a criação de uma química verde: as microalgas e as pequenas plantas aquáticas da família das Lemnaceaes podem ser usadas para a obtenção de combustível em forma de óleo.

Esta proposta foi defendida pelo norte-americano Richard Sayre, durante o 2º Congresso Pan-Americano sobre Plantas e Bioenergia, que terminou ontem em São Pedro (SP).

Para Sayre, as algas são uma opção sustentável, têm estruturas mais simples e se reproduzem em velocidades muito maiores do que as dos outros vegetais e têm grande capacidade de absorver dióxido de carbono (CO2).

"A gasolina pode ser substituída por etanol, porém outros combustíveis e produtos derivados de petróleo dependem de matérias-primas baseadas em óleo", afirmou ele, ressaltando que o óleo tem o dobro da densidade energética do etanol.

Biodiesel de algas

Na comparação entre as fontes de biodiesel, as algas também apresentam uma produtividade 10 vezes superior à das demais matérias-primas - são 58.700 litros de óleo por hectare cultivado, contra 5.950 litros de óleo de palma, a segunda colocada.

"Essa é uma estimativa modesta, que considera a extração de 30% de óleo da biomassa, mas podemos extrair até 70% elevando a produtividade para 136.900 litros de óleo por hectare", afirmou.

Além disso, as algas não possuem tecidos heterogêneos, como folhas, galhos e raízes, o que elimina um dos maiores obstáculos para a obtenção dos biocombustíveis de plantas: a quebra da parede celular.

Outra vantagem apontada pelo pesquisador é o alto teor de óleo das células das algas, que podem apresentar até 50% de lipídios não polares, mais fáceis de serem quebrados, e possuem de 10% a 45% mais energia do que as matérias-primas obtidas de carboidratos.

O desafio da equipe de Sayre está em desenvolver melhorias genéticas a fim de aprimorar a conversão de energia solar no interior das células. Essa conversão depende do tamanho de estruturas chamadas de complexo LHCII. Por serem muito grandes, essas estruturas recebem mais energia do que conseguem processar e o excedente (cerca de 60%) acaba sendo desperdiçado.

A viabilidade econômica da produção de biodiesel de algas foi conquistada ao longo dos anos graças aos avanços obtidos em pesquisa. "Hoje, conseguimos produzir biodiesel de algas ao custo de US$ 2 por galão, sem subsídio algum do governo. Há três anos, esse mesmo galão custava US$ 100", comparou.

O especialista norte-americano propõe também que as algas sejam aplicadas na solução de outro problema das grandes cidades: o tratamento de esgoto. Algas capazes de decompor matéria orgânica poderiam ser cultivadas em estações de tratamento. Além da limpeza da água, o cultivo produziria biodiesel e absorveria uma boa parte do CO2 da atmosfera.

No exemplo de Sayre, o tratamento de esgoto de uma cidade como Nova Iorque produziria 10 milhões de litros de biodiesel de algas por ano e absorveria 40% do CO2 emitido por uma termelétrica de 200 MWh movida a carvão. "Também haveria ganhos adicionais com a produção de metano e de produtos para ração animal", completou.

Clones genéticos

A menor planta do mundo capaz de produzir flores é outra fonte promissora de biocombustível, de acordo com o professor Eric Lam, do Departamento de Biologia e Patologia Vegetal da Universidade do Estado de Nova Jersey - Rutgers, nos Estados Unidos.

Conhecidas no Brasil como lentilhas d'água, as plantas da família Lemnaceae são capazes de se reproduzir sobre água doce ou salobra. São cinco gêneros e 40 espécies conhecidas que se espalham em regime perene por praticamente todo o planeta, com exceção das regiões desérticas e polares.

Nos Estados Unidos, elas são chamadas de duckweeds ("erva de pato"), por servirem de alimento às aves aquáticas, que aproveitam as estruturas ricas em gordura, proteínas e amido da planta.

Assim como as algas, as lentilhas d'água se reproduzem com velocidade muito maior do que a dos demais vegetais. "Os exemplares da espécie Wolffia microscopicadobram de quantidade a cada 30 horas", disse Lam.

Essa proliferação se deve ao fato de as Lemnaceaes se propagarem principalmente de maneira assexuada, produzindo clones genéticos. Outra diferença é que essas plantas aquáticas são extremamente pobres em lignina, macromolécula responsável pela defesa imunológica, pelo transporte de água e nutrientes e, especialmente, pela estrutura física da planta, conferindo-lhe suporte mecânico.

Lam especula que a pouca concentração de lignina nas lentilhas d'água seria um fruto da adaptação desses vegetais ao habitat aquático, no qual não seria necessária igual rigidez.

A baixa presença de lignina é uma vantagem importante na fabricação de biocombustível porque quebrar essa molécula tem sido um dos maiores desafios da pesquisa em combustíveis de origem vegetal.

Recuperação de águas contaminadas

De maneira similar às algas, as Lemnaceaes têm a capacidade de recuperar águas contaminadas, uma vez que reduzem coliformes, absorvem metais pesados e consomem parcelas consideráveis de nitrogênio e fósforo. Elas também têm um papel importante no ecossistema ao estimular a presença de anfíbios e de outros animais aquáticos.

Em uma experiência realizada em uma fazenda de porcos nos Estados Unidos, o professor Jay Cheng, da Universidade do Estado da Carolina do Norte, conseguiu em 12 dias eliminar completamente altas concentrações de nitrogênio e potássio que a criação emitia no lago da fazenda apenas com aplicação de lentilhas d'água.

O mesmo experimento utilizou as plantas na produção de combustível e obteve uma produtividade cinco vezes maior por unidade de área cultivada em comparação com o etanol obtido do milho.

A planta ainda pode ser obtida em regiões em que ela se prolifera como invasora. Lam apresentou dois exemplos, um no lago Maracaibo, na Venezuela, e outro em Nova Jersey, nos Estados Unidos. Em ambos, as Lemnaceaes ocuparam quase toda a superfície dos lagos, prejudicando o ecossistema.

"As autoridades locais vão adorar se você se dispuser a retirar essas plantas dos lagos. É uma fonte abundante e gratuita para o produtor de biocombustível", disse Lam.

Segundo ele, algas e Lemnaceaes são fontes por excelência de biocombustível, pois, além de recuperar águas contaminadas e absorver CO2, elas não competem por terras agriculturáveis nem com a produção de alimentos como milho e soja.

Má conduta científica dispara nos EUA

FOLHA DE SÃO PAULO - Quarta-feira, 18/08/2010


Em 16 anos, denúncias de fraude aumentaram 161%; país gastou US$ 110 mi para investigar 217 casos em 2009

De cada três acusados, um é punido; pressão por produção e briga por cargos e dinheiro induz desvios, diz cientista

 
RICARDO MIOTO
DE SÃO PAULO

Há cada vez mais sujeira por baixo dos jalecos brancos: nunca antes os Estados Unidos, grande potência científica mundial e pioneiro na tentativa de coibir fraudes nos laboratórios, teve tantos problemas com desvios de conduta de pesquisadores.

Casos como o de Marc Hauser, biólogo afastado de Harvard há uma semana acusado de distorcer dados em uma pesquisa sobre aprendizado em pequenos macacos, quase triplicaram nos últimos 16 anos.

Em 1993, quando o governo federal dos EUA criou uma agência para o assunto, a ORI (Agência para a Integridade em Pesquisa, na sigla em inglês), foram relatadas 86 denúncias de desvios.

Em 2009, foram 217, número recorde. O país gastou cerca de US$ 110 milhões investigando esses casos. Historicamente, um terço das investigações resulta em punição -em geral, afastamento de cargos e verbas públicas.

O número foi apresentado pela equipe de Arthur Michalek, biólogo do Instituto Roswell Park (de Nova York), na edição de ontem da revista científica "PLoS Medicine".

"Humanos são humanos, alguns vão se deixar seduzir e usar certos atalhos em busca do sucesso, por mais antiéticos que eles sejam", disse à Folha. "A esmagadora maioria dos cientistas são éticos. Infelizmente, trapaças de poucos mancham o trabalho duro do resto de nós".

Humanos sempre foram humanos, claro, e fraudes existem desde sempre.

O homem de Piltdown é citado com frequência como a maior mentira da história da ciência, e o caso é de 1908.

Na época, foram apresentados fósseis de um suposto elo perdido entre humanos e primatas. Só em 1953 a fraude foi comprovada: tratava-se, na verdade, de uma mistura deliberada de ossos humanos e de orangotango.

Os números americanos, porém, mostram a má conduta ganhando espaço.

Para Sílvio Salinas, 67, físico da USP, a tentação é maior entre as gerações mais novas. "Hoje em dia, há uma enorme pressão, uma grande disputa por posições", diz. "Mas os bárbaros não tomaram conta da ciência ainda."

SAIBA MAIS

Casos no Brasil envolveram alto escalão da USP

DE SÃO PAULO

O Brasil foi eficiente criando comitês de ética (há 592 ligados à Comissão Nacional de Ética em Pesquisa, a Conep), mas eles atuam principalmente aprovando estudos com voluntários e cobaias.

No que se refere às fraudes, a situação é diferente. Dois casos impunes de plágio se destacaram nos últimos anos, ambos envolvendo o alto escalão da USP.

Em 2009, a reitora Suely Vilela foi denunciada por ser coautora de um trabalho que utilizava figuras de um estudo de 2003 da UFRJ. Não houve punição.

O outro caso, de 2007, envolveu o diretor do Instituto de Física, Alejandro Szanto de Toledo, e Nelson Carlin Filho, vice-diretor da Fuvest. Eles publicaram um artigo que tinha parágrafos inteiros copiados de trabalho anterior de um colega.

Em 2008, a reitoria, sob a própria Vilela, fez uma "moção de censura" a ambos. "No começo, até achei que haveria punição concreta", diz Sílvio Salinas, da USP. Para ele, há muita diferença entre Brasil e EUA.

"Lá, mesmo as revisões feitas nos estudos antes da publicação são mais sérias. Aqui parece que o pessoal quer se livrar logo." Não há grandes trabalhos sobre a dimensão das fraudes científicas no país, nem sobre seu custo. (RM)


Cresce a fraude em ciência - e no Brasil?

Por Marcelo Leite

Preste atenção neste assunto: fraudes em pesquisas científicas. Elas estão aumentando e vão continuar assim, dada a competição feroz por reputação e verbas nesse campo da criatividade humana.

Nada menos que 72% dos pesquisadores incluídos numa revisão ampla de 2009 afirmam já ter presenciado algum tipo de má conduta. As falcatruas vão de pecados veniais, como a inclusão honorária de autores que não participaram de um estudo, a pecados capitais, como falsificar ou fabricar dados.

Nas faculdades de medicina brasileiras, por exemplo, é prática comum pôr o nome do chefe da cadeira entre as assinaturas de um artigo científico, mesmo que ele não tenha noção do que vai escrito ali. Há quem defenda a aberração, argumentando que o fulano criou as condições para que a pesquisa fosse realizada.

Sendo assim, por que não incluir também o nome do reitor em todos os estudos realizados numa universidade? Antes que algum reitor ou bajulador afoito se encante com a ideia, aviso que se trata de um argumento por absurdo.

Reconhecimento honesto da autoria de trabalhos originais é um dos pilares da ciência. Fidelidade na descrição dos métodos e dados é outro, pois é crucial poder reproduzir observações e experimentos. Por toda parte há quem se disponha, no entanto, a marretar os pilares do edifício.

Não deve ser por acaso que se realizou em Cingapura, de 21 a 24 de julho, a Segunda Conferência Mundial sobre Integridade em Pesquisa. O evento lançou para discussão aberta na internet o documento "Singapore Statement" (Manifesto de Cingapura), que lista 13 princípios e dá a seguinte definição de integridade científica:

"Integridade em pesquisa é definida como a confiabilidade da investigação por força da solidez de seus métodos e da honestidade e precisão na sua apresentação. Falta integridade à pesquisa quando seus métodos ou apresentação distorcem ou deturpam a verdade".

O caso mais rumoroso em andamento é o de Marc Hauser, célebre pesquisador da Universidade Harvard no campo da psicologia evolucionista (novo nome da polêmica área da sociobiologia, surgida nos anos 1970). Hauser é o autor de influentes trabalhos - inclusive experimentos com macacos - sobre a origem de comportamentos morais na evolução darwiniana por seleção natural.

O raciocínio básico da psicologia evolucionista afirma que, se algo existe hoje, é porque foi selecionado no passado por conferir vantagem adaptativa. Coisas como senso de justiça e altruísmo teriam sido úteis para a sobrevivência de indivíduos ou espécies primatas, em priscas eras, e por isso teriam sobrevivido (possivelmente "codificadas" no DNA da espécie). Há quem conclua daí que as pessoas são boas ou más por causa de seus genes, o que ajuda a entender a popularidade desses estudos.

Hauser é um pouco mais sofisticado. Seu livro "Moral Minds", de 2006, teve boa repercussão. A qualidade de alguns de seus trabalhos científicos, porém, começou a ser investigada há pelo menos um ano por Harvard, noticiaram os jornais "Boston Globe" e"The New York Times".

A imprensa brasileira aparentemente ignorou a péssima notícia. Se quiser ler algo em português, dirija-se ao diário luso "Expresso".

Tratei do assunto em comentário no blog Ciência em Dia, quarta-feira passada, no qual concluí, talvez indevidamente, que Harvard o havia afastado. Não está claro ainda, mas parece que Hauser se afastou voluntariamente, a julgar pela resposta automática para mensagens de e-mail em que afirma estar em licença e trabalhando furiosamente na conclusão de um livro, "Evilicious: Why We Evolved a Taste for Being Bad" (Por que Evoluímos para o Gosto de Sermos Maus), segundo se pode ler em reportagem do jornal"Harvard Crimson", que voltou a tratar do assunto aqui.

Alguns trabalhos do grupo de Hauser em periódicos já estão sendo retirados (cancelados), por desacordo entre dados e conclusões, mas não se conhecem detalhes. Nem Hauser, nem seus alunos, nem a universidade estão dando entrevistas sobre a investigação.

Pode ser uma maneira de preservar a reputação pessoal de Hauser, claro. Se for isso, mesmo, reforçaria a hipótese de que os erros (ou fraudes) sejam menores, ou cometidos sem seu conhecimento por um integrante júnior da equipe.

O galho é que, sem esses esclarecimentos, toda a obra de Hauser e de seus colaboradores fica sob suspeita. Não dá para saber se houve uma falha localizada de supervisão, ou uma prática corrente em seu laboratório. O silêncio de Harvard só contribui para turvar ainda mais as águas.

A Escola Médica de Harvard pelo menos criou um Escritório de Integridade Científica. Agora tente encontrar na página da Faculdade de Medicina da USP, a mais prestigiada do país, algo similar a isso --se existe, não se encontra com muita facilidade.

Alguém duvidaria, em sã consciência, que fraudes científicas vão de vento em popa também no Brasil?










MARCELO LEITE é repórter especial da Folha, autor dos livros "Folha Explica Darwin" (Publifolha) e "Ciência - Use com Cuidado" (Unicamp) e responsável pelo blog Ciência em Dia (Ciência em dia). Escreve às quartas-feiras neste espaço.