Ciência & cultura, ciência & arte, ciência & política, ciência & sociedade, ciência & não-ciência... enfim: ciência & crítica

sexta-feira, 22 de abril de 2011

O poder do zero: experimentos que não encontram nada podem nos ensinar muito

Quando físicos encontram algo diferente em seus experimentos, pode dar notícia de jornal. Quando não encontram nada, bem... Também pode! Esta postagem do Igor Zolnerkevic no seu blog Universo Físico dá três exemplos recentes, um dos quais mereceu até menção no New York Times.

Resultados nulos podem causar revoluções - O caso mais famoso de resultado nulo para um experimento talvez seja o da experiência de Michelson-Morley, na década de 1880, que produziu nada menos que uma das principais bases empíricas da teoria da relatividade. Acreditava-se então que a luz era uma onda que se propagava em um meio material a que chamavam éter e que permearia todo o espaço em todos os seus interstícios. O experimento procurou detectar qual a velocidade da Terra em relação ao éter. O pano de fundo era uma incompatibilidade aparentemente insolúvel entre a mecânica e o eletromagnetismo. Um dos dois tinha que estar errado.

Para medir a velocidade da Terra em relação ao éter, observaram diferenças na velocidade da luz vindas de diferentes direções. Se a velocidade fosse maior numa direção, é que a Terra estaria se deslocando para lá - assim como a velocidade de um carro na estrada é maior em relação aos automóveis que vêm em sentido contrário. Mas... não encontraram diferença alguma para qualquer direção! Como poderia ser isso? Após excluírem algumas possibilidades, o resultado sustentou o "vencedor" para a queda-de-braço entre mecânica e eletromagnetismo: este último estava certo e a velha mecânica newtoniana teve que ser alterada, sendo substituída pela relatividade quando velocidades são muito grandes, próximas à da luz.

Claro que resultados nulos que desafiem teorias vigenetes podem ser apenas uma ilusão, um erro de experimento, uma coincidência. O terceiro exemplo do texto do Universo Físico trata disso, na área da astrofísica. O contrário também pode ser verdadeiro: achados extraordinários podem revelar-se, após uma análise mais cuidadosa, serem apenas variações estatísticas normais sem maiores significados. Disso trata o primeiro exemplo, sobre aparentes indícios de uma força física desconhecida. Ambas precisam de mais investigações para se tornarem conclusivas.

Para evitar essas armadilhas, foram desenvolvidas técnicas estatísticas sofisticadas de análise dos dados e também a necessidade de posturas muito cuidadosas. Não poucos cientistas que se entusiasmaram demais antes do tempo tiveram que aceitar calados um desmonte fulminante de suas esperanças. Isso pode ter acontecido recentemente na área da cosmologia com um dos maiores físicos da atualidade, Roger Penrose (vide os dois últimos parágrafos deste post). Outra controvérsia do tipo, sobre o efeito do acesso livre a artigos científicos sobre o número de citações dos mesmos, é comentada nos dois últimos parágrafos da primeira seção desta outra postagem. Mesmo nesses casos, os resultados aparentemente nulos nos ensinam sobre como aperfeiçoar os métodos científicos.

Resultados nulos podem aumentar o conhecimento - Resultados nulos podem também, paradoxalmente, nos fornecer informações a mais. Desse tipo é o segundo exemplo comentado no texto do Universo Físico, sobre a matéria escura. Já em outra postagem no Ciências e Adjacências, no final do texto, falo sobre um experimento para detectar os bósons de Higgs, partículas previstas pelo modelo teórico atual mas ainda nunca observadas. A teoria não diz qual deva ser sua massa, só sabemos que é grande demais para serem produzidos pelos aparelhos atuais. Pois eis que o dito experimento detectou... nada.

Não significa, porém, que o Higgs não exista. Ao invés, com esse experimento pôde-se prever sua massa de forma mais precisa. Como não se sabe sua massa, são feitos vários experimentos, supondo diferentes valores para ela. Cada vez que o bóson não é encontrado, aprendemos que, se existirem, eles não terão aquela massa procurada. Por exemplo, antes achava-se que a sua massa deveria estar entre 123 e 198 vezes a massa de um próton. O novo experimento conseguiu excluir a faixa entre 160 e 170 "prótons". E assim os resultados nulos vão aumentando nosso conhecimento que a teoria não é capaz de fornecer - pelo menos, o "conhecimento hipotético". Vai-se "fechando o cerco" ao bóson de Higgs.

P.S. - Os resultados nulos ou "negativos" de experimentos são tão importantes que o Roberto Takata me enviou os links de três periódicos científicos inteiramente dedicados a resultados negativos em Biologia e Ciências da Saúde:

quinta-feira, 21 de abril de 2011

Fique por dentro da física moderna

Várias pessoas curiosas a respeito da mecânica quântica já me pediram sugestões de livros acessíveis a leigos. Para quem vê o assunto pela primeira vez, costumo indicar o de John Gribbin, "Fique por dentro da física moderna", editora Cosac & Naify (2001).

Não foi fácil escolher. Em geral as obras de divulgação sobre quântica e relatividade ou são demasiadamente complexas - por mais que seus autores não achem - ou são simples mas contém imprecisões demais - em geral, na forma de metáforas mal formuladas. De fato, a simplificação tende a prejudicar a precisão, e o excesso de precisão pode impedir a inteligibilidade.

No início, eu simplesmente não tinha opções que me pareciam satisfatórias para sugerir. Até descobrir esse livrinho. Creio que o astrofísico e divulgador científico britânico John Gribbin achou, em suas obras, um jeito de explicar a física de forma extremamente acessível e ao mesmo tempo suficientemente precisa, que atingiu seu ápice neste volume.

Esse livro não e só sobre mecânica quântica: cobre também as teorias da relatividade, a cosmologia e a física das partículas e tem uma introdução sobre a física clássica (pré-relatividade e pré-quântica), necessária para se compreender o que veio a seguir. A preocupação é em explicar os conceitos. Um ponto fraco está justamente em falar muito pouco sobre as bases experimentais das teorias.

A acessibilidade não vem só do estilo do texto, mas também do formato. Cada par de páginas é quase autocontido, com um conjunto de pequenos textos e boxes com explicações adicionais, palavras-chave ou pequenas biografias dos cientistas envolvidos. O leitor pode seguir o livro da primeira à última ou deliciar-se folheando-o e se detendo no que lhe der mais prazer. Eu sugiro ambas simultaneamente: uma leitura sequencial ao mesmo tempo em que o leitor explora as páginas do resto do livro, totalmente à mercê de sua própria curiosidade.

quarta-feira, 20 de abril de 2011

Xylella após o sequenciamento: as pesquisas continuam

No ano 2000, o sequenciamento do genoma da Xylella fastidiosa, a bactéria que causa a praga do amarelhinho em 34% dos pomares de laranjas paulistas (dados de 2000), retumbou na imprensa do país. Foi o primeiro fitopatógeno sequenciado no mundo. De lá para cá, vários cientistas tentam desdobrar esse conhecimento em capacidade de combater a praga.

Percebi quanto ainda há nesse caminho quando li um artigo de Luis Eduardo Soares Netto, biólogo da USP. Para explicar minha impressão, devo antes falar algo sobre como acontece a luta da Xylella contra a laranjeira. Quando a Xylella ataca uma planta, esta reage produzindo substâncias capazes de destruir a bactéria. A Xylella, porém, contra-ataca produzindo certas enzimas que neutralizam o ataque da planta. São vários tipos de enzimas - acontece uma verdadeira guerra química nas células da laranjeira.

Naturalmente, saber todo o possível sobre essas enzimas bacterianas é um passo fundamental no aperfeiçoamento de técnicas para combater o amarelinho. Acontece que ainda há grandes lacunas nessa área, apesar do conhecimento sobre o genoma.

Tome-se, por exemplo, um dos principais tipos de enzima da Xylella, as perorredoxinas de classe 1 (há quatro classes de perorredoxinas). Como elas não aparecem em nenhum mamífero, têm potencial para a fabricação de drogas contra o amarelinho que não causem efeito em nós, humanos. Apesar disso, sabe-se muito pouco sobre sua estrutura molecular. No Protein Data Bank, um portal de informações sobre biologia molecular vastamente usado por cientistas, havia pouquíssimos dados sobre a classe 1 até a publicação do artigo de Soares Netto - e, mesmo assim, só foram depositados na época em que sua pesquisa estava sendo feita. Sou físico, não biólogo. Foi quando vi isso que caiu-me a ficha de como é longo o caminho para transformar conhecimento genômico em tecnologia.


Uma pequena grande contribução

O caminho ficou um tanto menor com a pesquisa de Soares Netto. Vou falar um pouco sobre ela. Ela desvendou toda a estrutura molecular de uma das perorredoxinas de classe 1 (na verdade, de uma versão levemente alterada da original produzida pela Xylella, por motivos técnicos). O nome dessa perorredoxinas não é muito bonito: XfPrxQ-C47S. O "Xf" é de Xylella fastidiosa, o "Prx" é de peroredoxina e o "Q" é para distinguir entre as diferentes peroredoxinas; o C47S é para indicar a alteração na versão original. Isto significa que agora se sabe a posição de cada átomo de sua molécula! Uma contribuição bastante substancial para o banco de dados...

A imagem abaixo é um esquema dessa estrutura. É constituída de uma cadeia linear de 159 aminoácidos (as unidades constitutivas de proteínas e enzimas) e 172 moléculas de água. O desenho não distingue cada átomo, mas representa a sequência de aminoácidos por linhas, espirais (indicadas por "α") e fitas ("β", quando eles se emaranham de modo a formar uma fita).

É difícil seguir a série a olho, está tudo muito embolado, mas ela começa na extremidade indicada por "N" e termina na "C"; e há uma interrupção no alto porque dois aminoácidos não puderam ter suas posições determinadas com exatidão (assunto para pesquisas futuras!). Se quiser seguir o "novelo", a sequência é esta: α1-β1-β2-α2-β3-α3-β4-α4-β5-α5-β6-β7-β8-β9-α6. Isto foi feito por meio de cristalografia de raios-X no Laboratório Nacional de Luz Síncrotron, em Campinas (os raios-X servem para muito mais coisas que tirar chapas radiográficas do corpo humano!).
Os cientistas puderam também montar um modelo provável de como a estrutura molecular da enzima se altera durante a reação química que neutraliza as defesas da laranjeira. O artigo foi publicado em março do ano passado (e contém mais novidades do que comentei aqui). Não pude verificar se houve avanços de lá para cá, mas certamente muita coisa se desdobrará dessa contribuição.

terça-feira, 19 de abril de 2011

Como saber o que houve antes do Big-Bang?

Escrevi para a última edição da revista Pré-Univesp um artigo sobre como os cientistas concluíram que houve um Big-Bang (quais as principais evidências) e como investigam o que pode ter havido antes (sim, há muitos cientistas pesquisando um hipotético "antes do Big-Bang"). Aqui vou complementá-lo falando sobre alguns métodos para se testar teorias alternativas ao modelo atual do Big-Bang, nas antes desse grade evento cósmico houve uma era infinita - o Universo não teria tido um começo.

Desde o fim dos anos 1990, estão surgindo várias teorias alternativas. Não que o Big-Bang possa nunca ter existido, pois as evidências são muito contundentes (ainda que existam uns poucos modelos científicos que tentam compatibilizar as evidêncais com a hipótese de que não tenha acontecido o Big-Bang). Essas teorias são espécies de refinamentos da teoria atual - prevêem um (ou mais) Big-Bang, mas os detalhes são bem diferentes.

Como testá-las para saber qual se adequa mais à realidade física observada? O principal tira-teima é a radiação cósmica de fundo. Ela chega à Terra vinda de todas as direções quase homogeneamente. A teoria diz que apareceu cerca de 380 mil anos após o Big-Bang, quando os átomos se formaram. Antes, a matéria era composta de partículas carregadas eletricamente, formando um conjunto opaco à luz; quando essas partículas se combinaram para formar átomos eletricamente neutros, a luz foi subitamente liberada. Como isso aconteceu em todos os pontos do espaço, ela vem de todas as direções (veja mais sobre ela neste artigo de Victória Flório na mesma edição da revista Pré-Univesp).

A radiação cósmica de fundo é também uma das principais evidências do próprio modelo do Big-Bang em si, pois cálculos detalhados previram a sua existência. Além disso, cálculos posteriores a partir de 1981 previram a distribuição estatística de pequeninas variações na sua frequência, o que foi também confirmado a partir de 1992.

E são essas variações, ou flutuações, que os cosmólogos escrutinam para ver se há indícios de que o modelo atual do Big-Bang (chamado tecnicamente Lambda-CDM) precisa ser revisto. Abaixo, um "mapa-múndi" do céu mostrando a distribuição da variação das frequências da radiação de fundo. Quanto mais vermelho, maior a frequência; quando mais azul, menor. O mapa é fruto de sete anos de observações feitas pela Sonda Wilkinson de Anisotropias de Microondas (WMAP), que se encontra em órbita do Sol, a 1,5 milhão de quilômetros da Terra.


Como saber o que aconteceu antes do Big-Bang

Boa parte das pesquisas em modelos alternativos dedica-se a encontrar padrões regulares nessas manchinhas. Em geral, conjuntos de círculos. Isso é uma atividade capciosa, pois todos sabem que, se olharmos muito para um monte de manchas, podemos ver qualquer coisa ali (aliás, você consegue enxergar alguma coisa especial nesse mapa acima?). Além disso, os padrões podem existir mesmo, mas podem ser ocorrências estatísticas normais (coincidências previsíveis). Aquele acúmulo de vermelhos à direita, por exemplo, significaria algo? Ou é só uma coincidência?

Por isso, são necessárias técnicas estatísticas sofisticadas para decidir se os padrões vistos são reais ou são apenas artefatos da mente humana, ou ainda se são ocorrências reais, mas sem significado estatístico.

Cada modelo prevê diversas estruturas nessas manchas que o modelo atual não prevê - e, por isso, os padrões podem ser usados para distinguir entre os modelos. Uma coisa interessante acontece nos modelos que dizem que Big-Bang não foi o começo de tudo, mas um grande evento cósmico no meio da história do Universo. Teria havido um antes e um depois, ambos infinitos no tempo. O cosmo teria, no passado remoto, se contraído, aí sofrido uma súbita inversão nesse movimento - um "ricochete" - e então passado a se expandir, estágio em que estamos atualmente (observa-se que os grupos de galáxias estão sistematicamente se afastando uns dos outros).

Alguns desses modelos prevêem que imensos eventos cataclísmicos na fase pré-Big-Bang, como colisões de buracos negros supermassivos, podem ter produzido ondas gravitacionais que sobreviveram ao Big-Bang e teriam gerado sutis ondas de choque circulares no Universo atual. Essas ondas teriam deixado marcas na radiação de fundo, na forma de conjuntos de círculos. No ano passado, um dos físicos mais famosos da atualidade, Roger Penrose, causou agitação no meio científico quando afirmou ter visto sinais de uma versão sua dessa teoria. No entanto, a interpretação de seus cálculos estatísticos foi contestada por outros pesquisadores e a situação continua controversa.

Na verdade, muitos círculos e outras figuras já foram vistos nesse mapa. No entanto, quase todos mostraram-se ou ilusões ou estatisticamente previsíveis. Há uns poucos inconclusivos. O problema é que aparentemente a precisão da tecnologia atual não é suficiente para enxergar detalhes além dos que o modelo atual já prevê. Mas é possível que num futuro próximo algo interessante emerja dessas manchinhas.
Veja também, neste blog: O que havia antes do Big-Bang? Um buraco negro? - sobre um dos modelos alternativos.

segunda-feira, 18 de abril de 2011

Acesso livre a artigos científicos: as barreiras

O acesso livre está se espalhando pelos periódicos científicos. No Brasil e vários países da América Latina, temos o portal Scielo, que cobre todas as áreas. Até a Physical Review Letters, o principal periódico de física do mundo, começou a colocar alguns de seus artigos com acesso livre desde fevereiro deste ano (veja o editorial deles sobre isso, em PDF).

No entanto, as editorias científicas ainda resistem a aderir à nova estratégia. Há inclusive alguns refluxos (como o susto de janeiro, quando vários periódicos de medicina retiraram-se do programa Himrari - Health InterNetwork Access to Research Initiative -, da ONU que garantia acesso livre em países em vias de desenvolvimento). Um estudioso do assunto, Stevan Harnad, avalia que em 2020 apenas um quarto dos periódicos científicos terão acesso livre.

Um editorial do Scidev de 15 de abril abordou o assunto. Segundo uma pesquisa de uma comissão da União Europeia comentada no texto, o principal desestímulo para os cientistas aceitarem submeter seus trabalhos ao acesso livre é o dinheiro - muitos periódicos cobram dos autores pelo acesso livre a seus trabalhos. É o caso da Physical Review Letters citado acima. Outro motivo é que os cientistas preferem publicar nos periódicos de grande circulação, e a maior parte desses são de acesso restrito.

Cientistas ficam de olho também no número de citações de seus trabalhos, pois este é um dos parâmetros mais importantes dos sistemas de avaliação de desempenhos de pesquisadores. Foram uma ducha fria, então, os comentários que circularam na Internet sobre um trabalho de Phillip Davis (da Universidade de Cornell, nos EUA), publicado no periódico FASEB, que concluiu que artigos com acesso livre não são mais citados que os outros, apesar de obviamente serem mais lidos.

Porém, outro pesquisador, Stevan Harnad, da Universidade de Montréal, no Canadá, contestou a medotologia estatística usada por Davis em um dos comentários sob o editorial do Scidev. Em outro trabalho, publicado no ano passado, ele detectou um aumento significativo nas citações de artigos submetidos ao acesso livre.


Mas o que tem a ver acesso livre com número de citações!?

Há que se notar também que o número de citações não é nem de longe a principal vantagem do acesso livre. E nem poderia ser, se o objetivo primordial é garantir acesso a quem não pode pagar. Essas pessoas, em princípio, vivem em países com pouca tradição científica e publicam muito menos trabalhos que os do Primeiro Mundo. Veja-se, por exemplo, os mapas sobre a distribuição geográfica das citações científicas que comentei em outra postagem. É surpreendente que mesmo assim Harnad tenha detectado um aumento no número de citações, ou mesmo que Davis não tenha detectado uma diminuição.

A importância do acesso livre fica patente se lembrarmos que os problemas típicos dos países mais pobres muitas vezes não são os países mais ricos, possuindo especificidades próprias - e, portanto, necessitam de pesquisas feitas dentro desses países. Mas essas pesquisas são baseadas, como sempre, em pesquisas anteriores, a maior parte feita no Hemisfério Norte. Sem acesso a elas, em instituições que não podem pagar a assinatura, as pesquisas ficam extremamente difíceis. Enquanto isso, em outros lugares ela é feita na velocidade da Internet...

Além disso, não são apenas cientistas que usufruem dos artigos. Estudantes, engenheiros, gente que trabalha com saúde, jornalistas, divulgadores científicos, gente curiosa - muitas outras pessoas podem usufruir dele.

Desta forma, é preciso aperfeiçoar as estratégias de difusão do acesso livre nos periódicos científicos e também rever os métodos de avaliação de desempenho de pesquisadores - a se julgar pelos resultados da pesquisa de Davies, eles são um entrave para a adesão de cientistas ao acesso livre.
Imagem: Flickr de Gideon Burton