Arquivo mensal: março 2015

O significado oculto e os “limites de velocidade” encontrados no código genético

Sumário:
A velocidade é importante quando se trata de como o RNA mensageiro decifra informações críticas dentro do código genético – a cadeia complexa de instruções essenciais para a manutenção da vida. As descobertas dos investigadores dão aos cientistas novas informações críticas para determinar a melhor forma de envolver as células para tratarem doenças – e enfim, evitando que elas surjam desde o começo.


Cientistas do Case Western Reserve descobriram que a velocidade é importante quando se trata de como o RNA mensageiro (mRNA) decifra informações críticas dentro do código genético – a complexa cadeia de instruções essenciais para a manutenção da vida. As descobertas dos investigadores, que aparecem na revista Cell em 12 de março, dão aos cientistas novas informações críticas para determinar a melhor forma de envolver as células para tratarem doenças – e enfim, evitando que elas surjam desde o começo.

“Nossa descoberta é que o código genético é mais complexo do que sabíamos”, disse o pesquisador sênior Jeff Coller, PhD, professor associado da Divisão de Ciências Médicas Gerais, e diretor associado do Centro de Biologia Molecular do RNA, na escola de medicina da universidade Case Western Reserve. “Com essas informações, os pesquisadores podem manipular o código genético para obter resultados mais previsíveis de uma forma delicada.”

O código genético é um sistema de instruções incorporado dentro do DNA. O código indica a uma célula como produzir proteínas que controlam as funções celulares. O mRNA transmite as instruções do DNA para os ribossomos. Os ribossomos traduzem a informação contida dentro do mRNA e a produção da proteína instruída. O código genético compreende 61 palavras, chamadas de “códons”, e um único códon, que é uma seqüência de três nucleotídeos, instrui ao ribossomo como construir proteínas.

O código não só dita quais aminoácidos são incorporados às proteínas, mas também diz à célula o quão rápido eles devem ser incorporados. Com essas informações, os pesquisadores podem manipular o código genético para obter níveis previsíveis de proteína de forma delicada.”

O avanço mais significativo no trabalho do Case Western Reserve é que todas as palavras ou códons, no código genético são decifrados a taxas diferentes; alguns são decifrados rapidamente, enquanto outros são decifrados lentamente. A velocidade de como o mRNA descodifica a sua informação é a soma de todos os códons que ele contém. Este limite de velocidade imposto então acaba afetando a quantidade de proteínas produzidas. Às vezes, ir mais rápido é melhor para expressar um alto nível de proteína. Às vezes, ir mais devagar é melhor para limitar a quantidade de proteína. Algo importante: os códons são redundantes – muitas dessas palavras significam a mesma coisa.

Coller e seus colegas descobriram que cada um dos códons é reconhecido de forma diferente pelo ribossomo. Alguns códons são reconhecidos mais rápido do que outros, mas essas diferenças de velocidade são pequenas. Durante todo o percurso do mRNA, no entanto, cada pequena diferença de velocidade é poderosamente aditiva.

“Muitos códons significam a mesma coisa, mas eles influenciam a taxa de decodificação de forma diferente. Devido a isso, nós podemos mudar um mRNA sem alterar a sua sequência de proteína e fazer com que ele seja bem ou mal expresso e em qualquer lugar”, disse ele. “Podemos ajustar literalmente para cima ou para baixo os níveis de proteína de qualquer maneira que queremos, já que agora sabemos dessa informação.”

Durante a pesquisa, os investigadores mediram a velocidade de decaimento do mRNA para cada transcrição na célula. Eles estavam em busca de respostas para o porquê de diferentes RNAs terem estabilidades diferentes. Com análises estatísticas, os investigadores compararam as meias-vidas dos mRNAs para os códons utilizados dentro destas mensagens. Uma correlação forte apareceu entre a identidade do códon e a estabilidade da mensagem do mRNA. Eles então associaram essas observações ao processo de tradução do mRNA.

“Tradução e decaimento de mRNA estão intimamente ligados. Isso pode ser muito benéfico para os cientistas. Se você desejar quer um gene seja muito bem expresso, você simplesmente altera a sequência de proteína a ser obtida por todos os códons ótimos. Isso vai estabilizar o mRNA e fazer com que ele seja traduzido de forma mais eficiente”, disse Coller. “Se você precisa de um mRNA para expressar em um nível mais baixo, você o preenche com códons não ótimos. O mRNA será mal traduzido e, portanto, instável. A evolução usou a otimização dos códons para moldar a expressão do proteoma. Genes de função semelhante usam códons semelhantes; portanto, eles são expressos em níveis semelhantes”.

A descoberta de Coller tem uma variedade de implicações práticas para a medicina. Partindo de uma perspectiva de bioengenharia, técnicas de biologia molecular podem ser aplicadas para manipular o gene para conter códons ótimos e obter um padrão de expressão do gene que é mais vantajoso para a aplicação. De um ponto de vista da fisiologia humana, é possível aprender sobre o limite de velocidade para cada mRNA e, em seguida, determinar se isso pode mudar em patologias específicas, como o câncer. Atualmente, não se sabe se os códons trabalham com diferentes velocidades em doenças. Um direcionamento futuro de pesquisa será associar as velocidades dos códons para doenças específicas. Também existe potencial para desenvolver drogas que possam manipular a expressão gênica para um nível mais elevado ou mais baixo, alterando a taxa de descodificação.

A atividade dos códons também podem fornecer pistas importantes sobre a origem de muitas doenças que não têm sido associadas a mutações genéticas específicas. A alteração das taxas de decodificação, que são dependentes de códons, é capaz de alterar profundamente a função da proteína, e nenhuma mutação primária seria detectada. Assim, o problema não seria o próprio gene, mas os fatores que influenciam as taxas de decodificação. Esses limites de velocidade, que são dependentes dos códons, podem ser a causa que estaria por trás de categorias inteiras de doenças. Por exemplo, um estudo recente sugere que, em mais de 450 amostras diferentes de câncer, fatores que influenciam os limites de velocidade dependentes do códon poderiam estar mudando.

“O céu é o limite”, disse Coller. “Como essa descoberta é muito nova, não temos idéia de qual seria o potencial. O próximo passo é determinar se as mudanças na velocidade de decodificação podem ser um mecanismo subjacente que altera a expressão gênica em doenças humanas.”

Fonte:
O texto acima é baseado em conteúdo fornecido pela universidade Case Western Reserve.


Texto traduzido e adaptado de Science Daily.

Olhando para a natureza com os olhos de um engenheiro

Imagem: Patella vulgata (no link do texto original)

Aqui vão dois exemplos de pesquisadores que procuram por “princípios de design” em organismos vivos, mostrando que a visão de engenharia leva ao progresso científico.

Replicação celular como Engenharia de Sistemas

O trabalho de um especialista em eficiência é encontrar melhores formas de fazer mais coisas em menos tempo com menos custos. Do “Taylorismo” no início do século 20, até a “Pesquisa Operacional” nos dias da 2ª Guerra Mundial, à “Engenharia de Sistemas” hoje, a especialização em eficiência tem se tornado uma disciplina essencial para a produção e para o cronograma de projeto. Recentemente, Rami Pugatch, um biólogo de sistemas no Instituto de Estudos Avançados de Princeton, olhou para a humilde bactéria de laboratório E. coli com os olhos de um especialista em eficiência. O site PhysOrg explica como ele abordou a “replicação celular como um problema de engenharia de sistemas”:

O artigo descreve o problema do agendamento de tarefas em processos de replicação celular e, finalmente, mostra uma distribuição matemática que caracteriza uma estratégia ótima de replicação para células de E. coli. O escopo do trabalho de Pugatch engloba processos celulares individuais, descrições algorítmicas de replicação otimizada, conceitos de engenharia de sistemas, e até mesmo a história do conceito de máquina auto-replicante. [grifos nossos]

A história se refere ao trabalho teórico de John von Neumann em 1948 sobre como construir uma máquina auto-replicante. Pugatch descobre que uma bactéria replicante atende a alguns requisitos: ela mantém todos os ingredientes em reservatórios bem abastecidos para cada tarefa, ela escalona as tarefas da melhor maneira, e duplica as instruções, como parte do trabalho. A bactéria consegue bem suceder mesmo quando os recursos são escassos, um “problema de escalonamento difícil de resolver” de acordo com o artigo publicado no PNAS.

Auto-replicação bacteriana é um processo complexo composto de diversas etapas de síntese, catalisadas por uma miríade de unidades moleculares de processamento, por exemplo, as máquinas de transcrição e tradução, enzimas metabólicas e o replissoma. A conclusão bem sucedida de todas as tarefas de produção requer um escalonamento – uma atribuição temporal, de cada uma das tarefas produtivas para as suas respectivas unidades de processamento, que respeita a ordenação e a limitação de recursos. A maioria dos processos de crescimento intracelular estão bem caracterizados. Contudo, a maneira pela qual elas são coordenadas sob o controle de uma política de escalonamento não é bem compreendida. Quando a replicação rápida é priorizada, um escalonamento que minimizasse o tempo de conclusão é desejável. No entanto, se os recursos são escassos, normalmente é difícil encontrar computacionalmente um escalonamento tal, no pior dos casos. Aqui, nós mostramos que o escalonamento ideal emerge naturalmente na auto-replicação celular. Um tempo de duplicação ótimo é obtido através da manutenção de um inventário suficientemente grande de metabólitos intermediários e de unidades de processamento necessárias para a auto-replicação e, adicionalmente, da exigência de que essas unidades de processamento sejam “gananciosas”, ou seja, não fiquem ociosas se elas puderem executar uma tarefa produtiva. Calculamos a distribuição dos tempos de duplicação dessas máquinas auto-replicantes de escalonamento ótimo, e descobrimos que existe uma forma universal – log-Frechet, que não é sensível a muitos detalhes microscópicos. Analisando dois conjuntos de dados recentes de Escherichia coli que cresciam em um ambiente estacionário, encontramos uma excelente concordância entre a distribuição do tempo de duplicação observado e a distribuição universal prevista, sugerindo que a E. coli está escalonando a sua replicação de maneira ótima.

O artigo não faz nenhuma menção a evolução ou a seleção natural, nem mesmo o sumário do PhysOrg. Em vez disso, encontra-se a linguagem da PERT (Program Evaluation and Review Technique), “caminho crítico” e outros termos familiares para engenheiros de sistemas.

Quando von Neumann propôs a máquina auto-replicante, era uma ideia futurista a que escritores de ficção científica se prenderam, prevendo robôs que viajavam pelo espaço que poderiam se replicar com recursos encontrados nos planetas que pousaram, enquanto eles se espalhavam por toda a galáxia. Mas aqui mesmo na Terra, temos um exemplo perfeito em um dos menores e “mais simples” organismos vivos.

Surpreendentemente, a nossa análise dos conjuntos de dados medidos recentemente da E. coli em crescimento exponencial num ambiente estacionário revela que a distribuição medida dos tempos de duplicação se encaixa bem com a distribuição prevista dos tempos de duplicação de uma máquina auto-replicante de escalonamento ótimo. [PNAS]

Tal máquina [de von Neumann] é chamada de “não-trivial” se ela inclui um construtor universal como um componente. O processo de duplicação não é considerado completo até que uma cópia das instruções seja fornecida. Em vez de controlar sua própria replicação, as instruções são duplicadas a partir de um modelo por uma máquina dedicada separada, que não é acionada até a conclusão da fase de replicação da máquina. Isso é muito análogo a processos celulares reais. [PhysOrg]

Foram necessários olhos de engenheiro para enxergar esta conexão. Agora, a nossa compreensão da replicação bacteriana foi consequentemente enriquecida, sem qualquer menção a seleção natural. Na verdade, o desenrolar do processo cria novos problemas para o neodarwinismo: como uma máquina de von Neumann auto-replicante conseguiria aparecer pouco a pouco, sem que todas as peças, instruções e o “construtor universal” já estivessem presentes?

Ciência dos materiais

Enquanto isso, a substância biológica mais forte conhecida veio à tona. Esse material pode suportar 5 gigapascals de tensão, o que equivale a uma corda da largura de um espaguete suportando 3.000 sacos de meio-quilo de açúcar, de acordo com a BBC News. Que material é esse? É a rádula, ou dente, da lapa, um animal aquático parecido com um caracol com uma concha em espiral. E quem o encontrou? Um engenheiro. A Universidade de Portsmouth explica:

O professor Asa Barber da escola de engenharia da universidade liderou o estudo. Ele disse: “A natureza é uma fonte de inspiração maravilhosa para estruturas que têm propriedades mecânicas excelentes. Todas as coisas que observamos ao nosso redor, como as árvores, as conchas de criaturas do mar e os dentes de lapa estudados neste trabalho, têm evoluído para serem eficazes no que fazem.

“Até então nós pensávamos que a seda de aranha era o material biológico mais forte por causa da sua superforça e das suas potenciais aplicações em tudo, de coletes à prova de bala até à eletrônica computacional, mas agora nós descobrimos que os dentes de lapa apresentam uma força que é potencialmente maior”.

Ahá! O darwinista diria. Está vendo? Barber disse que eles “evoluíram para serem eficazes no que fazem”. Ao ler a matéria, porém, percebe-se que a teoria da evolução não tem nada a ver com a descoberta. Era nada mais do que uma historinha que o professor contou provavelmente por força do hábito. Ele é um engenheiro, afinal de contas, que reconhece um bom design quando ele vê:

“Essa descoberta significa que as estruturas fibrosas encontradas nos dentes da lapa poderiam ser imitadas e usadas em aplicações de engenharia de alto desempenho, tais como em carros de Formula 1, em cascos de embarcações e estruturas de aeronaves”.

Os engenheiros estão sempre interessados em tornar essas estruturas mais fortes para melhorarem o seu desempenho ou mais leves para que elas usem menos material”.

O trabalho de Barber envolveu testes de resistência à tração dos dentes de lapa com instrumentos especialmente concebidos. Foi um trabalho difícil. Os dentes tem apenas um milímetro de comprimento, e são muito finos. A lapa usa sua rádula para raspar as algas das rochas de que se alimenta. A equipe de Barber descobriu que, por causa do modo que os dentes são construídos com um mineral chamado goetita, suas propriedades se escalariam, ou seja, os mesmos princípios seriam aplicáveis com tamanhos maiores, uma vez que a resistência do material não depende do tamanho.

A descoberta de projetos eficazes na natureza e, em seguida, construir estruturas com base nesses projetos, é chamada de ‘bioinspiração’.

O professor Barber disse: “A biologia é uma grande fonte de inspiração para a concepção de novas estruturas, mas com tantas estruturas biológicas para considerar, pode-se levar tempo para descobrir o que pode ser útil”.

Bioinspiração – um neologismo que há de se manter. Pense nas perspectivas de encontrar mais designs por aí! Como o artigo da BBC News disse: “Nós deveríamos estar pensando em construir nossas próprias estruturas seguindo os mesmos princípios de design“. Boa idéia! O design é uma inspiração para explorar, descobrir, compreender, e então imitar.

Texto traduzido e adaptado de ENV.

Problema 4: a seleção natural se esforça muito para firmar características vantajosas nas populações

Imagem: Jason Samfield/Flickr

Nota do tradutor: esta é a parte 4 da série de 10 artigos sobre os problemas científicos da evolução biológica e química. A série é baseada no capítulo “The Top Ten Scientific Problems with Biological and Chemical Evolution” de autoria de Casey Luskin no livro More than Myth, editado por Paul Brown e Robert Stackpole (Chartwell Press, 2014). Ao fim dos 10 artigos, toda a série será publicada em um único texto. Eis a lista dos artigos anteriores: Artigo introdutório, Problema 1, Problema 2, Problema 3.


Em 2008, 16 biólogos de todo o mundo reuniram-se em Altenberg, Áustria, para discutir problemas com o modelo neodarwinista moderno da evolução. A revista Nature cobriu essa conferência “Altenberg 16”, citando os principais cientistas dizendo coisas como:

  • “A origem das asas e a invasão da terra… São coisas sobre as quais a teoria da evolução nos diz pouco” [49].
  • “Você não pode negar a força da seleção na evolução genética… Mas, na minha opinião, essas formas bem ajustadas e estáveis que se originaram foram devido a outros processos”.
  • “A síntese moderna é extraordinariamente boa para modelar a sobrevivência do mais apto, mas não é boa para modelar o aparecimento do mais apto”.

No Problema 3, vimos que as mutações não conseguem gerar muitas características complexas nos organismos vivos em escalas de tempo evolutivas razoáveis. Mas as mutações são apenas uma parte do mecanismo evolutivo padrão – há também a seleção natural. E a evolução darwiniana não só comumente falha em explicar o “aparecimento do mais apto” através das mutações, mas também frequentemente se esforça muito para explicar a “sobrevivência do mais apto” através da seleção natural.

Os biólogos evolucionistas muitas vezes assumem que, uma vez que as mutações produzam uma característica funcionalmente vantajosa, ela vai se espalhar facilmente (tornar-se “fixa”) em toda a população através da seleção natural. Por exemplo, imagine uma população de raposas de pêlo castanho que vive em uma região de neve. Uma raposa nasce com uma mutação que transforma seu pêlo em branco, ao invés de marrom. Esta raposa agora tem uma vantagem na caça de presas e na fuga de predadores, porque o seu pêlo branco a permite se camuflar no ambiente cheio de neve. A raposa branca sobrevive, passando seus genes para seus descendentes, que também estão aptos a sobreviver e se reproduzir. Com o tempo, a característica de pêlos brancos se espalha por toda a população.

É assim que deveria funcionar – na teoria. No mundo real, no entanto, a mera geração de uma característica funcionalmente vantajosa não garante que ela persistirá, ou que ela se tornará fixa. Por exemplo, e se por acaso a raposa branca tropeçasse, quebrasse uma perna e fosse devorada por um predador, nunca passando os seus genes? Forças ou eventos aleatórios pode impedir que uma característica se espalhe pela população, mesmo que ela proporcionasse uma vantagem. Estas forças aleatórias estão agrupadas sob o nome de “deriva genética”. Quando os biólogos fazem a matemática da seleção natural, eles descobrem que, a menos que uma característica desse uma vantagem seletiva extremamente forte, a deriva genética tende a prevalecer sobre a força da seleção e a impedir que as adaptações ganhem lugar numa população.

Este problema subestimado tem sido reconhecido por alguns cientistas evolucionistas que são céticos quanto à capacidade da seleção natural de conduzir o processo evolutivo. Um desses cientistas é Michael Lynch, biólogo evolucionista da Universidade de Indiana (Indiana University), que escreve que “a deriva genética aleatória pode impor uma forte barreira para o avanço dos refinamentos moleculares através dos processos adaptativos” [50]. Ele observa que o efeito da deriva é “estimular a fixação de mutações deletérias fracas e desestimular a promoção de mutações benéficas” [51]. Da mesma forma, Eugene Koonin, um importante cientista do National Institutes of Health, explica que a deriva genética leva a “fixação aleatória de mudanças neutras ou até mesmo prejudiciais” [52].

Redundância complexa

Na visão de Lynch, existem muitos sistemas celulares que ajudam na sobrevivência, mas que são redundantes. Como resultado, eles servem como mecanismos de backup que só são usados quando um sistema primário altamente eficaz falhar. Em razão de eles só serem raramente utilizados, estes sistemas só são ocasionalmente expostos ao crivo da seleção. No entanto, estes sistemas podem ser extremamente complexos e eficientes. Como um sistema que é raramente utilizado, ou só é necessário as vezes, poderia evoluir para um nível tão elevado de complexidade e eficiência? Depois de observar as muitas “camadas” de mecanismos celulares complexos que estão envolvidos em processos como o da replicação de DNA, Lynch coloca uma questão crucial:

Embora estas linhas de defesa em camadas sejam claramente vantajosas e em muitos casos essenciais para a saúde das células, em razão de o aparecimento simultâneo de todos os componentes de um sistema ser implausível, várias questões surgem imediatamente. Como a seleção pode estimular a criação de camadas adicionais de mecanismos de reforço e de aptidão se as linhas primárias de defesa estabelecidas já estão altamente refinadas? [53]

Lynch não acredita que seleção natural esteja à altura da tarefa. Num artigo de 2007 do Proceedings of the U.S. National Academy of Sciences intitulado “The frailty of adaptive hypotheses for the origins of organismal complexity”, ele explica que entre biólogos evolucionistas, “o que está em questão é se a seleção natural é uma força necessária ou suficiente para explicar o surgimento das características celulares e genômicas centrais para a construção de organismos complexos” [54]. Usando uma linguagem similar, um artigo na revista Theoretical Biology and Medical Modelling conclui que “é importante que os biólogos estimassem de forma realista o que a seleção pode e não pode fazer em várias circunstâncias. A seleção poderia nem ser necessária nem suficiente para explicar inúmeros recursos celulares ou genômicos de organismos complexos” [55]. Lynch é claro em seus pontos de vista: “não há nenhuma evidência empírica ou teórica convincente de que a complexidade, a modularidade, a redundância ou outras características de vias genéticas sejam promovidas pela seleção natural” [56].

Condenado se você recorrer à seleção, condenado se você não recorrer

No lugar da seleção natural, no entanto, biólogos evolucionistas como Lynch propõem deriva genética aleatória para explicar a origem da características biológicas complexas. De acordo com Lynch, “muitos aspectos da complexidade em nível genômico, celular e molecular nas espécies multicelulares parecem dever suas origens a essas forças não adaptativas, representando pouco mais do que resultados passivos” [57]. Mas ele reconhece que esses “forças não adaptativas da evolução são de natureza estocástica” [58].

Estocástico, é claro, significa aleatório. Uma força estritamente aleatória – que não tem motivos para preservar características que poderiam fornecer alguma vantagem – conseguiria explicar as características biológicas de alta complexidade – como a replicação de DNA ou bioluminescência – que parecem bem ajustadas para realizar funções biológicas úteis? A bióloga Ann Gauger está cética em relação a explicação de Lynch, observando que ele “não oferece nenhuma explicação de como as forças não adaptativas poderiam produzir a complexidade genômica e funcional do organismos que observamos nas espécies modernas” [59]. Jerry Coyne aponta de maneira semelhante a grande deficiência nos apelos à deriva genética:

Tanto a deriva como a seleção natural produzem mudanças genéticas que nós reconhecemos como evolução. Mas existe uma diferença importante. A deriva é um processo aleatório, enquanto a seleção é a antítese da aleatoriedade… Como um processo puramente aleatório, a deriva genética não pode causar a evolução das adaptações. Ela nunca poderia construir uma asa ou um olho. Para isso é necessária seleção natural não aleatória. O que a deriva pode fazer é causar a evolução de características que não são nem úteis nem prejudiciais para o organismo [60].

Coyne ainda observa: “A influência deste processo sobre importantes mudanças evolutivas, porém, é provavelmente pequena, porque ela não tem o poder de moldagem da seleção natural. A seleção natural continua a ser o único processo que pode produzir adaptação” [61]. Mas concordando com Lynch num certo sentido, ele mesmo reconhece que “deriva genética não é só incapaz de criar adaptações, como também pode realmente se sobrepor à seleção natural” [62].

O debate sobre se a seleção natural ou se a deriva genética é mais influente na evolução vai continuar, sem dúvida. Mas há poucas razões para crer, seja qual lado que ganhe este debate, que uma solução materialista viável seja oferecida. A biologia evolutiva encontra-se agora diante de um situação paradoxal:

  • A seleção natural é um mecanismo muito ineficiente para superar as forças aleatórias e fixar os tipos de adaptações complexas que observamos na população, pois ela é facilmente vencida por forças aleatórias como na deriva genética.
  • A vida está repleta de adaptações altamente complexas e eficientes, mas a deriva genética aleatória não oferece nenhuma razão justificável para se acreditar que tais características tenham qualquer motivo para surgir.

Em essência, a deriva genética é como recorrer ao mecanismo de “mutação e seleção”, só que menos toda a seleção. Isso expõe a deriva a todas as dificuldades que vimos no Problema 3, onde as mutações aleatórias não eram capazes de construir aspectos bioquímicos como proteínas funcionais, ou simples interações proteína-proteína, porque várias mutações coordenadas seriam necessárias para produzir essas características. Retirada a seleção, não há nenhuma razão para que mutações aleatórias sozinhas – ou seja, a deriva genética – produzam algo útil.

Infelizmente, o público é raramente alertado sobre esses problemas ou sobre esse debate. De acordo com Lynch, a seleção natural é normalmente retratada como um “mecanismo todo-poderoso (sem qualquer prova direta)” [63], que pode construir características biológicas complexas. Ele alerta que “o mito de que toda a evolução possa ser explicada por adaptação continua a ser perpetuado por causa da nossa reverência contínua ao tratado de Darwin na literatura popular” [64]. A verdade é que nem forças não aleatórias, como a seleção natural, nem forças aleatórias, como deriva genética, conseguem explicar a origem de muitas características biológicas complexas.

Texto traduzido e adaptado de ENV.

Referências:

[49] Scott Gilbert, Stuart Newman e Graham Budd citados em John Whitfield, “Biological theory: Postmodern evolution?”, Nature, 455: 281-284 (17/09/2008).

[50] Michael Lynch, “Evolutionary layering and the limits to cellular perfection”, Proceedings of the U.S. National Academy of Sciences (2012), disponível aqui.

[51] Michael Lynch, “The frailty of adaptive hypotheses for the origins of organismal complexity”, Proceedings of the U.S. National Academy of Sciences, 104: 8597-8604 (15/05/2007).

[52] Eugene V. Koonin, “Darwinian evolution in the light of genomics”, Nucleic Acids Research (2009): 1-24, disponível aqui.

[53] Ibid.

[54] Michael Lynch, “The frailty of adaptive hypotheses for the origins of organismal complexity”, Proceedings of the U.S. National Academy of Sciences, 104: 8597-8604 (15/05/2007).

[55] Chase W. Nelson and John C. Sanford, “The effects of low-impact mutations in digital organisms”, Theoretical Biology and Medical Modelling, 8:9 (2011).

[56] Michael Lynch, “The evolution of genetic networks by non-adaptive processes”, Nature Reviews Genetics, 8:803-813 (outubro de 2007).

[57] Ibid.

[58] Michael Lynch, “The frailty of adaptive hypotheses for the origins of organismal complexity”, Proceedings of the U.S. National Academy of Sciences, 104: 8597-8604 (15/05/2007).

[59] Ann Gauger, “The Frailty of the Darwinian Hypothesis, Part 2”, Evolution News & Views (14/07/2009), disponível aqui.

[60] Jerry A. Coyne, Why Evolution is True, p. 123 (Viking, 2009).

[61] Ibid., p. 13.

[62] Ibid., p. 124.

[63] Michael Lynch, “The frailty of adaptive hypotheses for the origins of organismal complexity”, Proceedings of the U.S. National Academy of Sciences, 104: 8597-8604 (15/05/2007).

[64] Ibid.

Problema 3: Mutações aleatórias gradativas não conseguem produzir a informação genética necessária para a complexidade irredutível

Imagem: repphotos/Flickr

Nota do tradutor: esta é a parte 3 da série de 10 artigos sobre os problemas científicos da evolução biológica e química. A série é baseada no capítulo “The Top Ten Scientific Problems with Biological and Chemical Evolution” de autoria de Casey Luskin no livro More than Myth, editado por Paul Brown e Robert Stackpole (Chartwell Press, 2014). Eis a lista de todos os artigos: Artigo introdutório, Problema 1, Problema 2, Problema 3, Problema 4, Problema 5, Problema 6, Problema 7, Problema 8, Problema 9, Problema 10.


De acordo com os biólogos evolucionistas, depois que a vida começou, a evolução darwiniana assumiu o posto e eventualmente teria produzido a grande diversidade de vida que observamos hoje. De acordo com o ponto de vista tradicional, os processos de mutação aleatória e seleção natural formaram a grande complexidade de vida através de pequenos passos mutacionais por vez. Todos as características complexas da vida, é claro, são entendidas como estando codificadas no DNA dos organismos vivos. A construção de novas características, portanto, requer a geração de novas informações no código genético. Essas informações necessárias podem ser produzidas nesse processo, passo-a-passo e sem controle, exigido pela teoria de Darwin?

Quase todo mundo concorda que a evolução darwiniana tende a funcionar bem quando cada pequeno passo ao longo de um caminho evolutivo oferece alguma vantagem de sobrevivência. Michael Behe, crítico de Darwin, observa que “se só uma mutação é necessária para conferir alguma habilidade, então a evolução darwiniana tem pouco problema para encontrá-la” [24]. No entanto, quando múltiplas mutações devem estar presentes simultaneamente para haver ganho de uma vantagem funcional, a evolução darwiniana fica emperrada. Como Behe explica: “Se mais de uma mutação é necessária, a chance de obter todas as mutações corretas fica exponencialmente pequena” [25].

Behe, professor de bioquímica na Lehigh University, cunhou o termo “complexidade irredutível” para descrever sistemas que requerem muitas partes — e por isso, muitas mutações que precisam estar presentes de uma vez só — antes de fornecer qualquer vantagem de sobrevivência para o organismo. De acordo com Behe, tais sistemas não pode evoluir no processo gradual passo-a-passo exigido pela evolução darwiniana. Como resultado, ele afirma que a mutação aleatória e seleção natural sem controle não podem gerar a informação genética necessária para produzir estruturas com complexidade irredutível. Muitas mutações simultâneas seriam necessárias — um evento que é bem improvável de acontecer.

A observação desse problema não se limita aos críticos de Darwin. Um artigo de um biólogo evolucionista proeminente no periódico Proceedings of the U.S. National Academy of Science reconhece que “o surgimento simultâneo de todos os componentes de um sistema não é plausível” [26]. Da mesma forma, o biólogo evolucionista da University of Chicago Jerry Coyne — um defensor fiel do Darwinismo — admite que “a seleção natural não pode construir uma característica em que passos intermediários não confiram um benefício total ao organismo” [27]. Até Darwin reconheceu esse problema intuitivamente, como ele escreveu em A Origem das Espécies:

Se pudesse ser demonstrado que existiu algum órgão complexo, que não poderia ter sido formado por numerosas, sucessivas e ligeiras modificações, minha teoria seria totalmente invalidada [28].

Os cientistas evolucionistas, como Darwin e Coyne, afirmam que não conhecem algum caso real em que a seleção darwiniana fica emperrada dessa maneira. Mas eles concordam, ao menos em princípio, que existem limites teóricos do que a evolução darwiniana possa realizar: se uma característica não puder ser formada por “numerosas, sucessivas e ligeiras modificações”, e se “as etapas intermediárias não conferirem um benefício total para o organismo”, então a evolução darwiniana estará “totalmente invalidada”.

Os problemas são reais. A biologia moderna continua descobrindo mais e mais exemplos de que a complexidade biológica parece ultrapassar a capacidade geradora de informação da evolução darwiniana.

Máquinas moleculares

Em seu livro A Caixa Preta de Darwin, Michael Behe discorre sobre máquinas moleculares que precisam de múltiplas partes já presentes antes para que pudessem funcionar e oferecer alguma vantagem para o organismo. O exemplo mais famoso de Behe é o flagelo bacteriano — um motor rotativo micromolecular, funcionando como um motor de popa na bactéria para impulsioná-la pelo meio líquido para encontrar comida. Sobre isso, os flagelos tem um projeto básico que é muito semelhante a alguns motores feitos por seres humanos e que contêm muitas peças que são familiares para os engenheiros, incluindo rotor, estator, junta universal, hélice, freio e embreagem. Como um biólogo molecular escreveu na revista Cell, “assim como outros motores, o flagelo se assemelha a uma máquina projetada por um ser humano” [29]. No entanto, a eficiência energética dessas máquinas supera qualquer coisa produzida por seres humanos: o mesmo artigo constatou que a eficiência do flagelo bacteriano “poderia ser próxima de 100%” [30].

Existem vários tipos de flagelos, mas todos usam certos componentes básicos. Um artigo na Nature Reviews Microbiology reconhece, “todos os flagelos bacterianos compartilham de um conjunto essencial de proteínas”, já que “três dispositivos modulares moleculares estão no cerne do flagelo bacteriano: o rotor-estator que energiza a rotação flagelar, o aparato quimiotáxico que gerencia as mudanças na direção do movimento, e do Sistema de Secreção Tipo 3 (T3SS) que gerencia a exportação dos componentes axiais do flagelo” [31]. Como isso pode sugerir, o flagelo é irredutivelmente complexo. Experimentos genéticos mostraram que ele não consegue se formar ou funcionar corretamente se qualquer um dos seus 35 genes estivesse faltando [32]. Neste jogo de tudo-ou-nada, as mutações não conseguem produzir a complexidade necessária para formar um motor flagelar rotativo e funcional em pequenos passos incrementais, e as chances são muito remotas para que ele se montasse em um grande salto. Na verdade, o artigo da Nature Reviews Microbiology mencionado acima admitiu que “a comunidade de pesquisa dos flagelos mal começou a ponderar sobre como esses sistemas evoluíram” [33].

No entanto, o flagelo é apenas um dos exemplos entre milhares de máquinas moleculares conhecidas na biologia. Um único projeto de pesquisa relatou a descoberta de mais de 250 novas máquinas moleculares apenas no fungo de fermento [34]. O ex-presidente da Academia Nacional de Ciências dos EUA (National Academy of Sciences, NAS), Bruce Alberts, escreveu um artigo na revista Cell elogiando a “velocidade”, “elegância”, “sofisticação” e a “atividade altamente organizada” dessas máquinas moleculares “notáveis” e “maravilhosas”. Ele explicou o que o inspirou nessas palavras: “Por que nós chamamos de máquinas proteicas os grandes grupos de proteínas que estão por trás da função celular? Precisamente porque, como máquinas inventadas pelo homem para lidar de forma eficiente com o mundo macroscópico, estes grupos de proteínas contêm peças móveis altamente coordenadas” [35]. Bioquímicos como Behe e outros acreditam que, com todas as suas peças coordenadas interagindo, muitas dessas máquinas não poderiam ter evoluído passo-a-passo ao modo darwiniano.

Mas não são só as máquinas com várias peças que estão fora do alcance da evolução darwiniana. Partes das próprias proteínas que constroem estas máquinas também exigiriam várias mutações simultâneas para que surgissem.

A pesquisa desafia o mecanismo darwiniano

Em 2000 e 2004, o especialista em proteínas Douglas Axe publicou uma pesquisa experimental no Journal of Molecular Biology sobre testes de sensibilidade mutacional que ele realizou com enzimas em bactérias [36]. Enzimas são cadeias longas de aminoácidos que se dobram em um formato tridimensional específico e estável para que possam funcionar. Os experimentos de sensibilidade mutacionais começam por fazer mutações das sequências de aminoácidos dessas proteínas, em seguida testando as proteínas mutantes para determinar se elas ainda podem se dobrar num formato estável e funcionar adequadamente. A pesquisa de Axe verificou que as sequências de aminoácidos que produzem arranjos proteicos estáveis e funcionais podem ser tão raras como na proporção de 1 em 1074 sequências, o que sugere que a maioria das sequências de aminoácidos não irão produzir proteínas estáveis e, portanto, não poderiam funcionar nos organismos vivos.

Em razão dessa raridade extrema de sequências de proteínas funcionais, seria muito difícil que mutações aleatórias tomassem uma proteína de um tipo de formato, e evoluíssem para um outro tipo sem passar por algum estágio não funcional. Em vez de evoluir através de “numerosas, sucessivas e ligeiras modificações”, muitas mudanças precisariam ocorrer simultaneamente para “encontrar” as sequências raras e improváveis de aminoácidos que produzissem proteínas funcionais. Colocando o tema em perspectiva, os resultados de Axe sugerem que as chances de processos darwinianos cegos e não controlados produzirem um formato funcional de proteína são menores do que as chances de alguém, com os olhos fechados, disparar uma flecha na Via Láctea e acertar um átomo pré-selecionado [37].

Proteínas interagem comumente com outras proteínas através de um encaixe tipo “mão na luva”, mas essas interações exigem frequentemente que muitos aminoácidos estejam “simplesmente corretos” antes que elas ocorram. Em 2004, Behe, juntamente com o físico da Universidade de Pittsburgh David Snoke, simulou a evolução darwiniana dessas interações proteína-proteína. Os cálculos de Behe e Snoke descobriram que, para organismos multicelulares, a evolução de uma simples interação proteína-proteína que necessitasse de duas ou mais mutações para funcionar provavelmente exigiria mais organismos e gerações do que os que estiveram disponíveis ao longo de toda a história da Terra. Eles concluíram que “o mecanismo de duplicação de genes e mutações pontuais por si mesmos seriam ineficazes… porque poucas espécies multicelulares alcançam os tamanhos populacionais necessários” [38].

Quatro anos depois, numa tentativa de refutar os argumentos de Behe, os biólogos Rick Durrett and Deena Schmidt acabaram confirmando a contragosto que ele estava basicamente correto. Depois de calcular a probabilidade de duas mutações simultâneas acontecendo por evolução darwiniana em uma população de seres humanos, eles descobriram que um evento como esse “levaria mais de 100 milhões de anos”. Tendo em vista que os humanos divergiram de seu suposto ancestral comum com os chimpanzés há apenas 6 milhões de anos, eles reconheceram que tais mutações são “muito pouco prováveis de acontecer em uma escala razoável de tempo” [39].

Agora, um defensor do darwinismo poderia dizer que estes cálculos mediram o poder do mecanismo darwiniano só entre organismos multicelulares, onde ele seria menos eficiente pois esses organismos mais complexos têm tamanhos menores de população e tempos maiores de geração do que organismos unicelulares procariontes, como bactérias. A evolução darwiniana, percebe o darwinista, poderia ter uma melhor chance quando operasse em organismos como as bactérias, que se reproduzem mais rápido e têm tamanhos de população muito maiores. Cientistas céticos da evolução darwiniana estão cientes dessa objeção, e descobriram que mesmo entre organismos que evoluem mais rapidamente como bactérias, a evolução darwiniana enfrenta grandes limitações.

Em 2010, Douglas Axe publicou comprovações indicando que, apesar das altas taxas de mutação e das generosas suposições que favoreciam um processo darwiniano, adaptações moleculares que exigissem mais de seis mutações antes de produzir qualquer vantagem seria extremamente improvável de surgir na história da Terra.

No ano seguinte, Axe publicou uma pesquisa com a bióloga do desenvolvimento Ann Gauger a respeito de experimentos para converter uma enzima bacteriana em outra enzima intimamente relacionada – o tipo de conversão que evolucionistas afirmam que poderia acontecer facilmente. Para este caso, eles descobriram que a conversão exigiria um mínimo de pelo menos sete mudanças simultâneas [40], que excede o limite de seis mutações que Axe tinha previamente estabelecido como limite do que é provável que a evolução darwiniana seja capaz de realizar em bactérias. Em razão de essa conversão ser considerada relativamente simples, a pesquisa sugere que as características biológicas mais complexas exigiriam mais de seis mutações simultâneas para dar alguma vantagem funcional nova.

Em outros experimentos conduzidos por Gauger e pelo biólogo Ralph Seelke da University of Wisconsin–Superior, os pesquisadores quebraram um gene na bactéria E. Coli necessário para sintetizar o aminoácido triptofano. Quando o genoma da bactéria foi quebrado em apenas um lugar, mutações aleatórias foram capazes de “consertar” o gene. Mas, mesmo quando apenas duas mutações eram necessárias para restaurar a função, a evolução darwiniana parecia ficar empacada, com incapacidade de recuperar a função completa [41].

Esses tipos de resultados sugerem consistentemente que as informações necessárias para que proteínas e enzimas funcionem são numerosas demais para serem produzidas por processos darwinianos em qualquer escala razoável de tempo evolutivo.

Céticos de Darwin abundam

Os doutores Axe, Gauger e Seelke não são de modo nenhum os únicos cientistas a observar a raridade das sequências de aminoácidos que produzem proteínas funcionais. Um proeminente livro-texto de biologia de nível universitário afirma que “mesmo uma pequena mudança na estrutura primária pode afetar a conformação e a capacidade de uma proteína de funcionar” [42]. De forma parecida, o biólogo evolucionista David S. Goodsell escreve:

Apenas uma pequena fração das possíveis combinações de aminoácidos dará forma espontaneamente a uma estrutura estável. Se você fizer uma proteína com uma sequência aleatória de aminoácidos, as chances são de que ela só irá formar um emaranhado pegajoso quando colocados em água [43].

Goodsell prossegue afirmando que “as células aperfeiçoaram as sequências de aminoácidos ao longo de muitos anos de seleção evolutiva”. Mas se sequências de proteínas funcionais são raras, então é provável que a seleção natural não seja capaz de transformar proteínas de uma seqüência genética funcional para outra sem ficarem presas em algum estágio intermediário mal adaptado ou não benéfico.

A falecida bióloga Lynn Margulis, uma membra muito respeitada da Academia Nacional de Ciências dos EUA (National Academy of Sciences, NAS) até a sua morte em 2011, disse uma vez “novas mutações não criam novas espécies; criam filhos que são debilitados” [44]. Ela ainda explicou em 2011 numa entrevista:

Os neo-darwinistas dizem que novas espécies surgem quando mutações ocorrem e modificam um organismo. Me ensinaram muitas e muitas vezes que a acumulação de mutações aleatórias levou à mudança evolutiva e a novas espécies. Eu acreditava nisso até procurar pelas evidências [45].

Similarmente, o ex-presidente da Academia de Ciências da França, Pierre-Paul Grasse, afirmou que “as mutações têm uma ‘capacidade construtiva’ muito limitada”, porque “não importa quão numerosas sejam, mutações não produzem qualquer tipo de evolução” [46].

Muitos outros cientistas se sentem assim. Mais de 800 cientistas com pós-doutorado assinaram uma declaração dizendo que “são céticos quanto a afirmações sobre a capacidade da mutação aleatória e da seleção natural para explicar a complexidade da vida” [47]. De fato, dois biólogos escreveram no Annual Review of Genomics and Human Genetics: “Continua a ser um mistério como o processo aleatório da mutação combinada com a seleção natural resultou na criação de milhares de novas proteínas com funções extraordinariamente diversas e bem otimizadas. Este problema é particularmente grave para os sistemas moleculares fortemente integrados que consistem em muitas partes interagindo” [48]. Talvez fosse menos misterioso se as concepções teóricas pudessem ser expandidas para além dos mecanismos evolutivos não controlados como mutações aleatórias e seleção natural para explicar a origem das características biológicas complexas.

Texto traduzido e adaptado de ENV.

Referências:

[24] Michael Behe, “Is There an ‘Edge’ to Evolution?”, aqui.

[25] Ibid.

[26] Michael Lynch, “Evolutionary layering and the limits to cellular perfection”, Proceedings of the U.S. National Academy of Sciences, disponível aqui.

[27] Jerry Coyne, “The Great Mutator (Review of The Edge of Evolution, de Michael Behe)”, The New Republic, pp. 38-44, 39 (18/06/2007).

[28] Charles Darwin, A Origem das Espécies (1859), capítulo 6, disponível aqui.

[29] David J. DeRosier, “The turn of the screw: The bacterial flagellar motor”, Cell, 93: 17-20 (1998).

[30] Ibid.

[31] Mark Pallen e Nicholas Matzke, “From The Origin of Species to the Origin of Bacterial Flagella”, Nature Reviews Microbiology, 4:788 (2006).

[32] Esses experimentos foram feitos em flagelos de E. coli e de S. typhimurium. Veja o transcrito do testemunho de Scott Minnich, pp. 103-112, Kitzmiller et al. v. Dover Area School Board, No. 4:04-CV-2688 (M.D. Pa., Nov. 3, 2005). Outros estudos experimentais identificaram mais de 30 proteínas necessárias para formar flagelos. Veja Tabela 1 em Robert M. Macnab, “Flagella”, em Escheria Coli and Salmonella Typhimurium: Cellular and Molecular Biology Vol 1, pp. 73-74, Frederick C. Neidhart, John L. Ingraham, K. Brooks Low, Boris Magasanik, Moselio Schaechter, and H. Edwin Umbarger, eds., (Washington D.C.: American Society for Microbiology, 1987).

[33] Mark Pallen e Nicholas Matzke, “From The Origin of Species to the Origin of Bacterial Flagella”, Nature Reviews Microbiology, 4:788 (2006).

[34] “The Closest Look Ever at the Cell’s Machines”, ScienceDaily.com (24/01/2006), disponível aqui.

[35] Bruce Alberts, “The Cell as a Collection of Protein Machines: Preparing the Next Generation of Molecular Biologists”, Cell, 92:291 (06/02/1998).

[36] Douglas A. Axe, “Estimating the Prevalence of Protein Sequences Adopting Functional Enzyme Folds”, Journal of Molecular Biology, 341: 1295-1315 (2004); Douglas A. Axe, “Extreme Functional Sensitivity to Conservative Amino Acid Changes on Enzyme Exteriors”, Journal of Molecular Biology, 301: 585-595 (2000).

[37] Stephen C. Meyer, Signature in the Cell: DNA and the Evidence for Intelligent Design, p. 211 (Harper One, 2009).

[38] Michael Behe e David Snoke, “Simulating Evolution by Gene Duplication of Protein Features That Require Multiple Amino Acid Residues”, Protein Science, 13: 2651-2664 (2004).

[39] Rick Durrett e Deena Schmidt, “Waiting for Two Mutations: With Applications to Regulatory Sequence Evolution and the Limits of Darwinian Evolution”, Genetics, 180:1501-1509 (2008). Para uma discussão mais detalhada, ver Ann Gauger, Douglas Axe, Casey Luskin, Science and Human Origins (Discovery Institute Press, 2012).

[40] Ann Gauger e Douglas Axe, “The Evolutionary Accessibility of New Enzyme Functions: A Case Study from the Biotin Pathway”, BIO-Complexity, 2011 (1): 1-17.

[41] Ann Gauger, Stephanie Ebnet, Pamela F. Fahey, e Ralph Seelke, “Reductive Evolution Can Prevent Populations from Taking Simple Adaptive Paths to High Fitness”, BIO-Complexity, 2010 (2): 1-9.

[42] Neil A. Campbell e Jane B. Reece, Biology, p. 84 (7th ed., 2005).

[43] David S. Goodsell, The Machinery of Life, pp. 17, 19 (2nd ed., Springer, 2009).

[44] Lynn Margulis, citada em Darry Madden, UMass Scientist to Lead Debate on Evolutionary Theory, Brattleboro (Vt.) Reformer (03/02/2006).

[45] Lynn Margulis citada em “Lynn Margulis: Q + A”, Discover Magazine, p. 68 (abril de 2011).

[46] Pierre-Paul Grassé, Evolution of Living Organisms: Evidence for a New Theory of Transformation (Academic Press: New York NY, 1977).

[47] “A Scientific Dissent from Darwinism”, aqui.

[48] Joseph W. Thornton e Rob DeSalle, “Gene Family Evolution and Homology: Genomics Meets Phylogenetics”, Annual Review of Genomics and Human Genetics, 1:41-73 (2000).