Em formação

Por que os sistemas biológicos tendem a se tornar mais complexos?


A partir de elementos, compostos químicos, células, organismos multicelulares, a sociedade evolui e a cada passo as possibilidades aumentam e as coisas ficam complexas. Estamos construindo estruturas como o ribossomo cria cadeias polipeptídicas.

Então, minha pergunta é por que os humanos continuam a viver, nosso cérebro está inconscientemente tentando fazer nossa sociedade crescer, por que a vida tende a se tornar complexa com o tempo?


Não concordo com a suposição de que os sistemas biológicos evoluíram para se tornar mais complexos.

Um exemplo claro do contrário é encontrado no Rickettsia espécies de bactérias que vivem dentro das células de seu hospedeiro (parasitas intracelulares obrigatórios). Seus genomas contêm genes divididos, remanescentes de genes e pseudogenes que podem representar etapas de um processo de degradação do genoma.

Aqui você pode encontrar mais informações sobre Rickettsia evolução.

Aqui você pode encontrar um ensaio sobre a complexidade como uma força motriz na evolução.


Esta é uma questão antiga e interessante: como podemos explicar as tendências aparentes na evolução sem cair na armadilha da teleologia ou evolução direcionada a objetivos, a ideia de que a evolução está trabalhando em direção a um ponto final específico?

Não sei a resposta e não sei se alguém sabe a resposta, mas pelo menos dois livros abordaram a questão de forma séria.

  • John Tyler Bonner argumentou em um livro de 1988 que a complexidade tende a aumentar por causa das correlações entre o tamanho do organismo e a complexidade. O resumo de Cosma Shalizi sobre sua ideia é que:

… [F] encher um nicho anteriormente vazio faz maravilhas para o sucesso reprodutivo de um organismo; variações que aumentam de tamanho disponibilizam novos nichos e, portanto, são selecionadas favoravelmente. Mas, devido às restrições impostas pela física e química básicas, organismos maiores devem ser mais especializados internamente, ou seja, mais complexos, para serem tão eficientes quanto os menores, ou mesmo apenas para sobreviver, de modo que a seleção é especialmente favorável para organismos maiores e mais complexos . Por causa da maneira como os processos de desenvolvimento funcionam, essa complexidade provavelmente será mantida mesmo por organismos menores, posteriores, em outros nichos. Voila: a evolução da complexidade, por meio da seleção natural.

O argumento de Bonner pode ou não funcionar no nível da evolução cultural.

  • Em contraste, McShea e Brandon argumentaram em um livro de 2010 que a variação aleatória por si só tende a aumentar a complexidade. Resumo de McShea:

mesmo quando forças e restrições estão presentes, uma tendência para o aumento da complexidade está sempre presente. O raciocínio é simplesmente que, quando a seleção está ausente, as partes de um organismo devem tender espontaneamente a acumular variação e, portanto, a se tornarem mais diferentes umas das outras ... Uma consequência da [Lei Evolucionária de Força Zero] é que não precisamos do natural seleção para explicar tecidos e órgãos complexos em organismos.


A fim de compreender mais completamente fenômenos biológicos complexos, como muitas doenças humanas ou características quantitativas em animais / plantas, grandes quantidades e vários tipos de 'grandes' dados são gerados a partir de estudos complicados. Em um passado não tão distante, a geração de dados era o gargalo, agora é a mineração de dados ou a extração de insights biológicos úteis de grandes e complicados conjuntos de dados. Na última década, os avanços tecnológicos na geração de dados promoveram os estudos de fenômenos biológicos complexos. Em particular, as tecnologias de sequenciamento de última geração (NGS) permitiram aos pesquisadores rastrear mudanças em várias escalas biológicas, como variação genética em todo o genoma, expressão gênica e pequena abundância de RNA, modificações epigenéticas, motivos de ligação de proteínas e conformação cromossômica em uma alta taxa de transferência e custo-benefício (Fig. 1). A explosão de dados, especialmente dados ômicos (Fig. 1), desafia as metodologias de longa data para análise de dados.

Aprendizado de máquina usando dados biológicos complexos. São mostradas técnicas de geração de dados de alto rendimento para diferentes aspectos biológicos (deixou). ATAC-seq ensaio para cromatina acessível por transposase usando sequenciamento, ChIP-seq sequenciamento de imunoprecipitação da cromatina, DNase-seq Sequenciamento de sites hipersensíveis à DNase I, GC-MS cromatografia gasosa-espectrometria de massa, LC-MS cromatografia líquida - espectrometria de massa, lncRNA-seq sequenciamento de RNA não codificante longo, NMR ressonância magnética nuclear, RNA-seq Sequenciamento de RNA, smRNA-seq pequeno sequenciamento de RNA, WES sequenciamento completo do exoma, WGBS sequenciamento de bissulfito de todo o genoma, WGS sequenciamento do genoma completo, Hi-C captura de conformação de cromatina combinada com sequenciamento profundo, iTRAQ Tags isobáricas para quantificação relativa e absoluta

Os sistemas biológicos são complexos. A maioria dos estudos em grande escala enfoca apenas um aspecto específico do sistema biológico, por exemplo, estudos de associação do genoma (GWAS) enfocam variantes genéticas associadas a fenótipos medidos. No entanto, fenômenos biológicos complexos podem envolver muitos aspectos biológicos, tanto intrínsecos quanto extrínsecos (Fig. 1), e, portanto, não podem ser totalmente explicados usando um único tipo de dados. Por isso, a análise integrada de diferentes tipos de dados vem atraindo cada vez mais atenção. A integração de diferentes tipos de dados deve, em teoria, levar a uma compreensão mais holística dos fenômenos biológicos complexos, mas isso é difícil devido aos desafios dos dados heterogêneos e à natureza implicitamente ruidosa dos dados biológicos [1]. Outro desafio é a dimensionalidade dos dados: dados ômicos são de alta resolução, ou dito de outra forma, altamente dimensionais. Em estudos biológicos, o número de amostras é muitas vezes limitado e muito menor do que o número de variáveis ​​devido aos custos ou fontes disponíveis (por exemplo, amostras de câncer, réplicas de plantas / animais), isso também é conhecido como a 'maldição da dimensionalidade', que pode levar à dispersão de dados, multicolinearidade, testes múltiplos e sobreajuste [2].


Biologia de sistemas, medicina de sistemas, farmacologia de sistemas: o quê e por quê

A biologia de sistemas é hoje uma disciplina tão difundida que se torna difícil propor uma definição clara do que ela realmente é. Para alguns, permanece restrito ao campo genômico. Para muitos, designa a abordagem integrada ou o corpus de métodos computacionais empregados para lidar com a vasta quantidade de dados biológicos ou médicos e investigar a complexidade dos vivos. Embora definir a biologia de sistemas possa ser difícil, por outro lado, seu propósito é claro: a biologia de sistemas, com seus subcampos emergentes medicina de sistemas e farmacologia de sistemas, visa claramente dar sentido a observações complexas / conjuntos de dados experimentais e clínicos para melhorar nossa compreensão de doenças e seus tratamentos sem deixar de lado o contexto em que aparecem e se desenvolvem. Nesta breve revisão, pretendemos enfocar especificamente esses novos subcampos com as novas ferramentas teóricas e abordagens que foram desenvolvidas no contexto do câncer. A farmacologia de sistemas e a medicina agora dão esperança de grandes melhorias na terapia do câncer, tornando a medicina personalizada mais próxima da realidade. Como veremos, o desafio atual é conseguir aprimorar a prática clínica de acordo com a mudança de paradigma das ciências de sistemas.

Esta é uma prévia do conteúdo da assinatura, acesso através de sua instituição.


Primeira Lei da Biologia: A Tendência para a Diversidade e Complexidade de Aumentar nos Sistemas Evolucionários

Daniel W. McShea e Robert N. Brandon, Primeira Lei da Biologia: A Tendência para a Diversidade e Complexidade de Aumentar nos Sistemas Evolucionários, University of Chicago Press, 2010, 170 pp., $ 20,00 (pbk), ISBN 9780226562261.

Avaliado por Mohan Matthen, University of Toronto

Neste livro envolvente e muitas vezes perspicaz, Daniel McShea, um paleobiólogo, e Robert Brandon, um filósofo da biologia, ambos na Duke University, defendem uma "lei evolutiva de força zero" (ZFEL), que pode ser declarada assim:

Em qualquer sistema evolutivo em que haja variação e hereditariedade, existe, na ausência de restrição , uma tendência de aumento da diversidade e complexidade.

O livro é uma exposição e defesa desse princípio. Como argumentarei, a frase em itálico faz uma grande diferença em como o princípio deve ser entendido. Sem a frase, o princípio é original e heuristicamente importante, embora claramente falso com ela, tem validade empírica não comprovada.

Antes de prosseguirmos, dois esclarecimentos importantes. Primeiro, McShea e Brandon usam o termo 'complexidade' para significar "número de tipos de peças ou grau de diferenciação entre as peças" (7). Eles observam que, nesse sentido, a complexidade é bastante diferente da complexidade organizacional ou funcional, que são tópicos de discussão na filosofia da biologia e da mente. Assim, seu princípio não é diretamente aplicável à forma como órgãos complexos como o olho emergem (embora, como veremos, eles digam algo sobre isso). É mais relevante para questões como: Como a natureza gera a variação na qual a seleção natural opera? Em segundo lugar, "diversidade e complexidade" são uma e a mesma coisa. Pois a diversidade entre as partes de um sistema é apenas a complexidade do todo. Assim, podemos nos concentrar apenas no número de peças e na variação entre as peças. A lei da força zero diz que (na ausência de restrição) a complexidade nesse sentido tende a aumentar.

No primeiro capítulo, temos um exemplo vívido e motivador - uma cerca de estacas totalmente nova. Com o tempo, a cerca acumula manchas, lascas, manchas de mofo e outras imperfeições. A cerca foi pintada uniformemente para começar: cada piquete tinha uma cor uniforme e mais ou menos indiscernível dos outros. Mas com o passar do tempo, cada piquete assume imperfeições aleatórias que o diferenciam de qualquer outro. “Nenhuma força dirigida precisa ser invocada aqui & hellip. Nem qualquer intervenção humana dirigida é necessária. Em vez disso, diversidade e complexidade surgem pelo simples acúmulo de acidentes” (2-3).

Entendida dessa forma, a lei da força zero é claramente salutar. Na mecânica newtoniana, a falta de mudança é a condição sem força. Seguindo uma maneira de pensar newtoniana, dizem McShea e Brandon, os biólogos e outros supõem que sempre que há mudança, deve haver uma força que a causou. Mas na evolução há "uma tendência espontânea para indivíduos, populações, espécies e táxons superiores se diferenciarem" (33). Isso é ilustrado pelo acúmulo de pseudogenes (64) ou "DNA lixo" - trechos de DNA que perderam a capacidade de codificação de proteínas devido a erros de cópia aleatórios ao longo do tempo. Não precisamos postular "forças dirigidas" para explicar o DNA-lixo: é apenas uma manifestação do caos da natureza. Isso é o que McShea e Brandon querem destacar como a condição fundamental dos sistemas biológicos ao longo de gerações de reprodução: mudança aleatória, deterioração, desordem. O caos pode ser controlado por várias restrições, incluindo a seleção natural. Mas está sempre presente.

Tudo isso é verdade e um corretivo útil para certas maneiras de pensar sobre a evolução. Mas McShea e Brandon superestimam consistentemente a importância da lei da força zero - o título do livro e também o texto convidam a uma comparação com a Primeira Lei do Movimento de Newton, que (como todos sabemos) foi um axioma central da mecânica clássica e uma das mudanças de paradigma mais profundas na história da ciência. Compreendido como acima, a lei da força zero é muito mais como um padrão que emerge da reflexão sobre o paradigma da genética populacional (embora sem dúvida um importante). Além disso, a lei da força zero não é fundamental da mesma forma que a Lei da Inércia de Newton. A discussão a seguir deve tornar evidentes minhas razões para essa avaliação.

Para um exemplo matematicamente tratável da lei da força zero, considere uma coleção de partículas - digamos, algumas rochas no espaço sideral. A mecânica newtoniana diz que seu momentum coletivo não mudará a menos que esteja sujeito a uma força resultante. Por outro lado, é claro que, em certos aspectos, o diversidade de seus membros aumentará com o tempo (a menos que seja forçado a não fazê-lo). Considere a variação (embora medida) das distâncias das rochas a partir de seu centro de massa comum. Desde que pelo menos uma das partículas difira em velocidade das outras, as rochas ficarão mais dispersas a longo prazo e, portanto, a variância posicional aumentará. Ou considere a variação das rochas em relação à simetria de cada uma em torno de seu próprio centro de massa. Se as rochas colidirem umas com as outras e estiverem sujeitas a outras forças de deformação, essa quantidade também aumentará com o tempo - algumas das rochas se tornarão muito mais assimétricas do que eram, outras mudarão apenas um pouco, algumas podem até se tornar mais simétricas do que elas tinha sido antes. Esses aumentos de variância são o assunto da lei de força zero. Segundo McShea e Brandon, eles "surgem pelo simples acúmulo de acidentes".

Este é um bom insight, mas quão universalmente ele se aplica? Suponha que um artista pinte uma imagem pontilhista semelhante a Seurat em uma parede externa. Por causa de seus esforços, as regiões da parede adquirem uma certa variação no que diz respeito à cor. Mas por causa da exposição à luz solar, vento, chuva e abrasão, a imagem desbota gradualmente. A variação de cor da parede diminui. Ou suponha que você inadvertidamente queime algo em uma panela no fogão. No início, há muita fumaça ao redor da panela. A variação da concentração de fumaça em sua cozinha é bastante alta. Mas com o passar do tempo, a fumaça se dispersa: a cozinha inteira fica esfumaçada, mas não tanto quanto a região ao redor da panela - a variação da fumaça fica menor. Finalmente, a segunda lei da termodinâmica. Essa lei se preocupa com os tipos de variação que permitem transferências espontâneas de energia - por exemplo, diferenças de temperatura que permitem a transferência de calor. A Segunda Lei diz que esses tipos de variação irão (quase) sempre diminuir dentro de um sistema fechado e que, conseqüentemente, o potencial de transferência espontânea de energia diminui com o tempo.

Existe um problema sistêmico aqui. Considere a imagem semelhante a Seurat novamente. Você poderia dizer que as moléculas de tinta azul nesta pintura estão confinadas a certas regiões da imagem, assim como as moléculas de tinta verde, etc. Com o passar do tempo, essas moléculas se dispersam. Eles estão por todo o lugar. Vistas desta forma, as coleções de moléculas com cores uniformes perdem a uniformidade e seus aumentos de variância posicional. Nessa descrição, a lei da força zero parece válida. Mas agora olhe para isso de outra maneira. Considere a região do espaço que circunda a imagem - digamos, em um raio de dez quilômetros. Divida esta região em pequenas sub-regiões. Para começar, apenas algumas dessas regiões são ocupadas por moléculas de tinta azul. Mas com o passar do tempo, mais e mais são. No limite - em cerca de dez mil anos - a probabilidade de uma região a dez quilômetros de distância contendo uma molécula de tinta azul é praticamente a mesma de uma região originalmente pintada de azul. Então, como devemos olhar para o assunto? A diversidade de moléculas em relação à região ocupada aumenta, enquanto a diversidade de regiões em relação à ocupação por moléculas diminui. É claro que as moléculas são partes materiais do sistema e as regiões do espaço não. Mas isso não nos dá uma base adequada para acomodar todas as descrições desse tipo. (Veja abaixo.) Não encontrei nada no livro que tentasse capturar essa diferença de perspectivas - estou longe de ter certeza de que existe uma maneira geral de capturá-la.

É claro que os exemplos dados não satisfazem os antecedentes da lei de força zero. A alegação é que onde há variação e hereditariedade - no reino biológico, por exemplo - a complexidade aumentará na ausência de restrição. Como veremos, muito depende de como a "restrição" é entendida. Eu voltarei a isso. Mas primeiro, vamos notar que há um tipo de variação que sempre diminui, esteja a hereditariedade ou não presente. Essa é a variação que carrega informações sobre os estados anteriores do sistema. (Veja, por exemplo, Sober and Steel, a ser publicado, seção 9.) Os exemplos de Seurat e de fumaça são exemplos dessa verdade geral: em mil anos, você não conseguirá detectar a imagem que foi pintada na parede em poucas horas, não dá para saber se havia fumaça na cozinha.

Também em sistemas biológicos, a variação que carrega informações sobre estados passados ​​é apagada. Considere meus descendentes. Que haja uma medida genética F dos organismos de modo que os valores mais altos de F se correlacionem fortemente com a proximidade de descendência de mim. Em outras palavras, se F (x) for maior do que F (y), então provavelmente x é mais descendente de mim do que y. Atualmente, um número muito pequeno de organismos tem um alto valor de F, e o resto da população humana tem um número extremamente baixo. Com o passar do tempo, haverá por um tempo mais organismos com um número alto em relação ao resto, embora eles não sejam tão altos quanto meus descendentes mais próximos. Com o passar do tempo, a população se tornará menos variada em relação a F: meus descendentes serão cada vez menos diferentes dos não descendentes. Na verdade, todos os humanos compartilham um ancestral comum masculino e um ancestral feminino comum: há muito pouca variação no que diz respeito à proximidade da descendência desses indivíduos em particular e, portanto, no que diz respeito às marcas dessa descendência. No entanto, no início da história da espécie humana, quando outras linhagens ainda não haviam terminado, havia mais variação a esse respeito.

Outro exemplo prima facie prejudicar a lei da força zero tem a ver com deriva. Suponha que em um locus particular, haja dois alelos, A e a, nenhum dos quais tem qualquer vantagem seletiva. Considere uma população que é igualmente dividida entre organismos portadores de A e organismos portadores de A. Suponha ainda que a probabilidade de A sofrer mutação para a e a de a sofrer mutação para A sejam mais ou menos iguais. Até onde posso ver, este é um sistema evolucionário irrestrito. Mas sabemos com certeza que a população lentamente se afastará do estado meio-meio e que, eventualmente, um ou outro dos dois alelos se tornará fixo. Como Sober e Steel (no prelo) dizem, esta é uma diminuição constante na variação. O estado inicial 50-50 é máximo em relação à variação e o estado final 100-0 ou 0-100 é mínimo. McShea e Brandon tratam desse exemplo e argumentam que a finitude da população impõe uma "fronteira absorvente" (29-30), que, suponho, é considerada uma forma de restrição. Não entendo totalmente a metáfora, mas parece que, de acordo com eles, o tamanho da população finita é em si uma restrição. Isso tem como consequência que a própria deriva é uma consequência da restrição. Não sei como esse tipo de idealização se encaixa na heurística de força zero. Por um lado, mais tipos serão gerados em uma população infinita, por outro lado, não está claro como a complexidade deve ser medida. Este é um problema que deveria ter recebido maior atenção.

Quando calculamos a taxa de apagamento de informações, estamos interessados ​​em uma série de processos causais - como os genes são copiados, a taxa de mutação, as barreiras à reprodução interespécies, a adequação do gene, etc. Cada um desses processos afeta o aumento de variância. A mutação, obviamente, também é adequada, pois os genes mais adaptados tendem a aumentar em frequência, diminuindo assim a variância, as barreiras à reprodução interespécies porque tendem a preservar a variedade preexistente, e assim por diante. Cada um desses fatores de polarização é o que os autores chamam de "restrição". No entanto, alguns deles são "restrições constitucionais" na medida em que definem o domínio biológico e o diferenciam de outros domínios - a hereditariedade é um exemplo - e os outros são "impostos" ou extra-constitucionais. A lei da força zero deve ser aplicada na ausência de imposto restrições. (Veja a discussão no final do capítulo 2.)

Até agora, omiti a discussão sobre as restrições. Eu me volto agora para a lei conforme declarada acima, incluindo a frase em itálico. No início do capítulo 3, os autores dizem: "Na ausência de restrições e a mutação do hellip fará com que os indivíduos da próxima geração sejam diferentes uns dos outros" (25). Isso é crucial. Afinal, a mutação é a fonte mais importante de variação agregada em um sistema evolucionário. Mas, a menos que a mutação seja imparcial, é (por definição) uma "restrição". Suponho que a mutação seria imparcial em um determinado locus se todas as mutações possíveis fossem igualmente prováveis. Além disso, é imparcial se a taxa de mutação for independente de de outros fatores de polarização, como seleção natural ou exigência ambiental.

Agora, a mutação não é de fato imparcial dessas maneiras. Há mais mutação durante circunstâncias ambientalmente desafiadoras, esta é possivelmente uma característica evoluída. Existe o reparo do DNA, o que torna a mutação fora do tipo ancestral menos provável do que a mutação em direção a ele. Existem "pontos críticos de mutação" onde as taxas de mutação são muito mais altas do que em outros locais. Esses fenômenos indicam que a própria mutação é um processo restrito. A lei de força zero afirma que irrestrito mutação - mutação que não é verificada nem aumentada, mas sim em alguma taxa básica hipotética - resulta em variação aumentada. (A discussão em 130-131 é relevante neste ponto.)

Por que restringir a lei da força zero à mutação irrestrita ou de taxa básica? Suponho que a dialética que leva a essa restrição é algo como o seguinte. O que inicialmente tirei do exemplo da cerca de piquete foi que todos os tipos de eventos aleatórios deixam uma marca em um sistema e, portanto, aumentam sua diferenciação. (Vimos que há boas razões para duvidar da generalidade dessa afirmação, mas deixemos isso de lado por um momento.) No entanto, os autores percebem que algumas sequências de eventos são, de fato, homogeneizantes. Quando a cerca de estacas é pintada e consertada regularmente, ela recupera sua baixa variação original. Na evolução, a seleção natural desempenha este papel: elimina mutações impróprias. Suponho que a cláusula sem restrições deve excluir esses tipos de acontecimentos tendenciosos. Infelizmente, isso leva a algumas afirmações empiricamente bastante implausíveis.

Uma delas é a afirmação de que a lei da força zero explica aumentos tão grandes de variação como a explosão cambriana e a radiação ordoviciana. Pois uma coisa é dizer que grandes aumentos repentinos de variância não são surpreendentes, dada a onipresença das sequências de eventos que aumentam a variância, incluindo mutações. Outra coisa bem diferente é dizer que tais eventos são causados ​​pela mutação da taxa básica. Como sabemos isso sobre a explosão cambriana? E se não o fizermos, como isso confirma a lei da força zero? No capítulo 3, os autores listam muitos casos de grandes aumentos repentinos de variedade. E eles dizem que "O tema comum é a adaptação em linhagens individuais para explorar novas oportunidades, ocorrendo em algum grau de forma diferente em cada espécie e produzindo uma expansão em um ecossistema desocupado. Este é o ZFEL . "(Grifo meu.) Na verdade, isto não é ZFEL é seleção natural. Mas o ponto dos autores, presumivelmente, é que a adaptação dispersa mencionada nesta passagem pressupõe um grande número de genes à espreita, por assim dizer, para "explorar novas oportunidades". Certamente, isso sugere que a variedade é necessária para explicar tais eventos - mutação cria variedade, e muita mutação causa muita variedade. Mas como a cláusula sem restrições contribui para a nossa compreensão de eventos como a explosão cambriana?

A atitude dos autores parece ser que as restrições sempre podem ser separadas e descontadas - que subjacente às restrições está uma tendência imparcial para o aumento da variedade. Não acredito em quão potente é essa suposição de um ponto de vista explicativo, porque, mesmo que seja concedida, é inteiramente obscuro quão forte é a tendência à força zero. Pelo que sabemos, pode ser muito fraco, exceto quando amplificado por "forças" tendenciosas. Este é um problema que lembra aquele enfrentado pelo próprio Darwin. O tipo de pensamento que está por trás do Princípio da Seleção Natural foi revolucionário. Por outro lado, foi necessário muito trabalho empírico e teórico para estabelecer que havia variação suficiente para permitir escopo suficiente da seleção natural. O mesmo vale aqui: seria muito trabalhoso estabelecer que há muita "complexificação" na ausência de restrição.

Qual é o resultado deste livro ambicioso? Pondo de lado algumas das questões levantadas acima sobre a correção e o alcance do princípio central, parece-me bastante claro que ele realiza algo importante. Ele nos apresenta uma nova heurística relativa ao surgimento da diversidade filogenética e estrutural. Quando chegamos ao capítulo 7, um passeio pelas "Implicações", o leitor já tem prática no uso dessa heurística.

Mesmo assim, os autores exageram. O tratamento de funcional a complexidade é um exemplo. "Considere duas maneiras de construir um arco de pedra", eles insistem (124). A primeira maneira é construí-la encontrando as pedras com a forma correta e levantando-as uma a uma, com suportes suplementares que só podem ser removidos quando a pedra angular estiver no lugar. A segunda forma é ter uma pilha enorme de pedras de formato irregular - uma pilha tão grande e diversa que enterrada nela, por acaso, é um arco perfeito. Derrube todas as outras pedras e o arco independente será revelado. Talvez estruturas biológicas complexas sejam assim, dizem eles. A história padrão relativa à evolução do olho, com todas as suas partes elaboradamente interdependentes, é como a primeira - com a pré-adaptação desempenhando o papel de suportes suplementares. “Mas existe um método alternativo”, dizem os autores. "Vem do ZFEL, que nos convida a ver os organismos sempre inundados de novos tipos de partes." Essas partes podem ser jogadas para cima espontaneamente (como na enorme pilha) e "o papel da seleção natural pode ser principalmente negativo, revelando a complexidade [funcional] por subtração". Sugeri anteriormente que isso é incorreto: não há razão para pensar que a mutação irrestrita seja grande o suficiente para isso. Além disso, "complexidade por subtração" não aparece como uma alternativa plausível para a pré-adaptação.

Como comentário final, deixe-me relatar que, tendo deixado minha cópia de revisão em um avião, comprei e usei a edição do Kindle. Além da falta de números de página, achei extremamente útil. Foi (na maior parte) bem produzido - embora não tivesse resultados vinculados para as notas finais - e me permitiu deixar anotações, notas e marcadores de livros facilmente encontrados (sem adesivos feios) e encontrar passagens facilmente quando chegou a hora de verificar a cópia impressa da biblioteca para fornecer referências de página para esta revisão. *

Sober, Elliott e Mike Steel (no prelo) "Entropia Aumento e Perda de Informação em Modelos de Evolução de Markov," Biologia e Filosofia .

* André Ariew, Alex Rosenberg, Elliott Sober (que também me deu comentários detalhados sobre um rascunho anterior) e Denis Walsh discutiram proveitosamente os exemplos de Seurat e deriva para fixação nesta revisão. Não sei até que ponto eles concordariam com meu tratamento.


O mistério da origem da vida:

A segunda lei da termodinâmica descreve o fluxo de energia na natureza em processos que são irreversíveis. O significado físico da segunda lei da termodinâmica é que o fluxo de energia em tais processos é sempre em direção a uma distribuição mais uniforme da energia do universo. Qualquer pessoa que teve de pagar contas de serviços públicos por muito tempo percebeu que muito do ar quente em sua casa durante o inverno escapa para o exterior. Esse fluxo de energia da casa para o frio externo no inverno, ou o fluxo de energia do calor externo para a casa com ar-condicionado no verão, é um processo descrito pela segunda lei da termodinâmica. A queima de gasolina, convertendo compostos "ricos" em energia (hidrocarbonetos) em compostos "limpos" de energia, dióxido de carbono (CO 2) e água (H 2 0), é uma segunda ilustração deste princípio.

O conceito de entropia (S) nos dá uma maneira mais quantitativa de descrever a tendência da energia fluir em uma direção particular. A mudança de entropia para um sistema é definida matematicamente como o fluxo de energia dividido pela temperatura, ou,

onde S é a mudança na entropia, Q é o fluxo de calor para dentro ou para fora de um sistema e T é a temperatura absoluta em graus Kelvin (K).

Se considerarmos o fluxo de calor de uma casa quente para o exterior em uma noite fria de inverno, podemos aplicar a equação 7-2 da seguinte forma:

S T = S casa + S ao ar livre - Q / T 1 + Q / T 2 (7-3)

onde S r é a variação total de entropia associada a esse fluxo de calor irreversível, T 1 é a temperatura interna da casa e T 2 é a temperatura externa. O sinal negativo do primeiro período indica a perda de calor da casa, enquanto o sinal positivo no segundo período reconhece o calor ganho pelo ambiente externo. Como é mais quente dentro de casa do que ao ar livre (T 1 & gt T 2), a entropia total aumentará (S r & gt 0) como resultado desse fluxo de calor. Se desligarmos o aquecedor da casa, ele irá resfriar gradualmente até que a temperatura se aproxime da do ar livre, ou seja, T1 = T2. Quando isso ocorre, a mudança de entropia (S) associada ao fluxo de calor (Q) vai para zero. Uma vez que não há mais força motriz para o fluxo de calor para o exterior, cessa as condições de equilíbrio foram estabelecidas.

Como mostra este exemplo simples, o fluxo de energia ocorre em uma direção que faz com que a energia total seja distribuída de maneira mais uniforme. Se pensarmos bem, também podemos ver que o aumento da entropia associado a esse fluxo de energia é proporcional à força motriz para que esse fluxo de energia ocorra. A segunda lei da termodinâmica diz que a entropia do universo (ou qualquer sistema isolado nele) está aumentando, ou seja, a energia do universo está se tornando mais uniformemente distribuída.

Freqüentemente, observa-se que a segunda lei indica que a natureza tende a ir da ordem à desordem, da complexidade à simplicidade. Se o arranjo mais aleatório de energia é uma distribuição uniforme, então o presente arranjo da energia no universo é não aleatório, uma vez que alguma matéria é muito rica em energia química, outra em energia térmica, etc., e outra matéria é muito pobre em esses tipos de energia. De forma semelhante, os arranjos de massa no universo tendem a ir da ordem à desordem devido ao movimento aleatório em escala atômica produzido pela energia térmica. Os processos de difusão nos estados sólido, líquido ou gasoso são exemplos de aumento da entropia devido a movimentos atômicos aleatórios. Assim, o aumento da entropia em um sistema corresponde a arranjos cada vez mais aleatórios de massa e / ou energia.

Existe outra maneira de ver a entropia. A entropia de um sistema é uma medida da probabilidade de um determinado arranjo de massa e energia dentro dele. Uma abordagem termodinâmica estatística pode ser usada para quantificar ainda mais a entropia do sistema. Alta entropia corresponde a alta probabilidade. Como um arranjo aleatório é altamente provável, ele também seria caracterizado por uma grande entropia. On the other hand, a highly ordered arrangement, being less probable, would represent a lower entropy configuration. The second law would tell us then that events which increase the entropy of the system require a change from more order to less order, or from less-random states to more-random states. We will find this concept helpful in Chapter 9 when we analyze condensation reactions for DNA and protein.

Clausius 2 , who formulated the second law of thermodynamics, summarizes the laws of thermodynamics in his famous concise statement: "The energy of the universe is constant the entropy of the universe tends toward a maximum." The universe moves from its less probable current arrangement (low entropy) toward its most probable arrangement in which the energy of the universe will be more uniformly distributed.

Life and the Second Law of Thermodynamics

How does all of this relate to chemical evolution? Since the important macromolecules of living systems (DNA, protein, etc.) are more energy rich than their precursors (amino acids, heterocyclic bases, phosphates, and sugars), classical thermodynamics would predict that such macromolecules will not spontaneously form.

Roger Caillois has recently drawn this conclusion in saying, "Clausius and Darwin cannot both be right." 3 This prediction of classical thermodynamics has, however, merely set the stage for refined efforts to understand life's origin. Harold Morowitz 4 and others have suggested that the earth is not an isolated system, since it is open to energy flow from the sun. Nevertheless, one cannot simply dismiss the problem of the origin of organization and complexity in biological systems by a vague appeal to open-system non-equilibrium thermodynamics. The mechanisms responsible for the emergence and maintenance of coherent (organized) states must be defined. To clarify the role of mass and energy flow through a system as a possible solution to this problem, we will look in turn at the thermodynamics of (1) an isolated system, (2) a closed system, and (3) an open system. We will then discuss the application of open-system thermodynamics to living systems. In Chapter 8 we will apply the thermodynamic concepts presented in this chapter to the prebiotic synthesis of DNA and protein. In Chapter 9 this theoretical analysis will be used to interpret the various prebiotic synthesis experiments for DNA and protein, suggesting a physical basis for the uniform lack of success in synthesizing these crucial components for living cells.

An isolated system is one in which neither mass nor energy flows in or out. To illustrate such a system, think of a perfectly insulated thermos bottle (no heat loss) filled initially with hot tea and ice cubes. The total energy in this isolated system remains constant but the distribution of the energy changes with time. The ice melts and the energy becomes more uniformly distributed in the system. The initial distribution of energy into hot regions (the tea) and cold regions (the ice) is an ordered, nonrandom arrangement of energy, one not likely to be maintained for very long. By our previous definition then, we may say that the entropy of the system is initially low but gradually increases with time. Furthermore, the second law of thermodynamics says the entropy of the system will continue to increase until it attains some maximum value, which corresponds to the most probable state for the system, usually called equilibrium.

In summary, isolated systems always maintain constant total energy while tending toward maximum entropy, or disorder. In mathematical terms,

where E and S are the changes in the system energy and system entropy respectively, for a time interval t. Clearly the emergence of order of any kind in an isolated system is not possible. The second law of thermodynamics says that an isolated system always moves in the direction of maximum entropy and, therefore, disorder.

It should be noted that the process just described is irreversible in the sense that once the ice is melted, it will not reform in the thermos. As a matter of fact, natural decay and the general tendency toward greater disorder are so universal that the second law of thermodynamics has been appropriately dubbed "time's arrow." 5

Closed Systems near Equilibrium

A closed system is one in which the exchange of energy with the outside world is permitted but the exchange of mass is not. Along the boundary between the closed system and the surroundings, the temperature may be different from the system temperature, allowing energy flow into or out of the system as it moves toward equilibrium. If the temperature along the boundary is variable (in position but not time), then energy will flow through the system, maintaining it some distance from equilibrium. We will discuss closed systems near equilibrium first, followed by a discussion of closed systems removed from equilibrium next.

If we combine the first and second laws as expressed in equations 7-1 and 7-2 and replace the mechanical work term W by P V, where P is pressure and V is volume change, we obtain,

Algebraic manipulation gives

The term on the left side of the inequality in equation 7-6 is called the change in the Gibbs free energy ( G). It may be thought of as a thermodynamic potential which describes the tendency of a system to change---e.g., the tendency for phase changes, heat conduction, etc. to occur. If a reaction occurs spontaneously, it is because it brings a decrease in the Gibbs free energy ( G 0). This requirement is equivalent to the requirement that the entropy of the universe increase. Thus, like an increase in entropy, a decrease in Gibbs free energy simply means that a system and its surroundings are changing in such a way that the energy of the universe is becoming more uniformly distributed.

We may summarize then by noting that the second law of thermodynamics requires,

where t indicates the time period during which the Gibbs free energy changed.

The approach to equilibrium is characterized by,

The physical significance of equation 7-7 can be understood by rewriting equations 7-6 and 7-7 in the following form:

[ S / t] - [ 1 / T ( E / t + P V / t)] 0 (7-9)

and noting that the first term represents the entropy change due to processes going on within the system and the second term represents the entropy change due to exchange of mechanical and/or thermal energy with the surroundings. This simply guarantees that the sum of the entropy change in the system and the entropy change in the surroundings will be greater than zero i.e., the entropy of the universe must increase. For the isolated system, E + P V = 0 and equation 7-9 reduces to equation 7-4.

A simple illustration of this principle is seen in phase changes such as water transforming into ice. As ice forms, energy (80 calories/gm) is liberated to the surrounding. The change in the entropy of the system as the amorphous water becomes crystalline ice is -0.293 entropy units (eu)/degree Kelvin (K). The entropy change is negative because the thermal and configuration entropy (or disorder) of water is greater than that of ice, which is a highly ordered crystal.

For condition of T 273 o K energy is removed from water to produce ice, and the aggregate disordering of the surroundings is greater than the ordering of the water into ice crystals. This gives a net increase in the entropy of the universe, as predicted by the second law of thermodynamics.

It has often been argued by analogy to water crystallizing to ice that simple monomers may polymerize into complex molecules such as protein and DNA. The analogy is clearly inappropriate, however. The E + P V term (equation 7-9) in the polymerization of important organic molecules is generally positive (5 to 8 kcal/mole), indicating the reaction can never spontaneously occur at or near equilibrium.

By contrast the E + P V term in water changing to ice is a negative, -1.44 kcal/mole, indicating the phase change is spontaneous as long as T 273 o K, as previously noted. The atomic bonding forces draw water molecules into an orderly crystalline array when the thermal agitation (or entropy driving force, T S) is made sufficiently small by lowering the temperature. Organic monomers such as amino acids resist combining at all at any temperature, however, much less in some orderly arrangement.

Morowitz 6 has estimated the increase in the chemical bonding energy as one forms the bacterium Escherichia coli from simple precursors to be 0.0095 erg, or an average of 0.27 ev/ atom for the 2 x 10 10 atoms in a single bacterial cell. This would be thermodynamically equivalent to having water in your bathtub spontaneously heat up to 360 o C, happily a most unlikely event. He goes on to estimate the probability of the spontaneous formation of one such bacterium in the entire universe in five billion years under equilibrium conditions to be 10 -10 11 . Morowitz summarizes the significance of this result by saying that "if equilibrium processes alone were at work, the largest possible fluctuation in the history of the universe is likely to have been no longer than a small peptide." 7 Nobel Laureate I. Prigogine et al., have noted with reference to the same problem that:

Thus, reversing "time's arrow" is what chemical evolution is all about, and this will not occur in isolated or closed systems near equilibrium.

The possibilities are potentially more promising, however, if one considers a system subjected to energy flow which may maintain it far from equilibrium, and its associated disorder. Such a system is said to be a constrained system, in contrast to a system at or near equilibrium which is unconstrained. The possibilities for ordering in such a system will be considered next.

Closed Systems Far from Equilibrium

Energy flow through a system is the equivalent to doing work continuously on the system to maintain it some distance from equilibrium. Nicolis and Prigoginelo have suggested that the entropy change ( S) in a system for a time interval ( t) may be divided into two components.

where S e is the entropy flux due to energy flow through the system, and S i is the entropy production inside the system due to irreversible processes such as diffusion, heat conduction, heat production, and chemical reactions. We will note when we discuss open systems in the next section that S e includes the entropy flux due to mass flow through the system as well. The second law of thermodynamics requires,

In an isolated system, S e = 0 and equations 7-11 and 7-12 give,

Unlike S i , S e in a closed system does not have a definite sign, but depends entirely on the boundary constraints imposed on the system. The total entropy change in the system can be negative (i.e., ordering within system) when,

Under such conditions a state that would normally be highly improbable under equilibrium conditions can be maintained indefinitely. It would be highly unlikely (i.e., statistically just short of impossible) for a disconnected water heater to produce hot water. Yet when the gas is connected and the burner lit, the system is constrained by energy flow and hot water is produced and maintained indefinitely as long as energy flows through the system.

An open system offers an additional possibility for ordering---that of maintaining a system far from equilibrium via mass flow through the system, as will be discussed in the next section.

An open system is one which exchanges both energy and mass with the surroundings. It is well illustrated by the familiar internal combustion engine. Gasoline and oxygen are passed through the system, combusted, and then released as carbon dioxide and water. The energy released by this mass flow through the system is converted into useful work namely, torque supplied to the wheels of the automobile. A coupling mechanism is necessary, however, to allow the released energy to be converted into a particular kind of work. In an analagous way the dissipative (or disordering) processes within an open system can be offset by a steady supply of energy to provide for ( S) S e type work. Equation 7-11, applied earlier to closed systems far from equilibrium, may also be applied to open systems. In this case, the S e term represents the negative entropy, or organizing work done on the system as a result of both energy and mass flow through the system. This work done to the system can move it far from equilibrium, maintaining it there as long as the mass and/or energy flow are not interrupted. This is an essential characteristic of living systems as will be seen in what follows.

Thermodynamics of Living Systems

Living systems are composed of complex molecular configurations whose total bonding energy is less negative than that of their chemical precursors (e.g., Morowitz's estimate of E = 0.27 ev/atom) and whose thermal and configurational entropies are also less than that of their chemical precursors. Thus, the Gibbs free energy of living systems (see equation 7-6) is quite high relative to the simple compounds from which they are formed. The formation and maintenance of living systems at energy levels well removed from equilibrium requires continuous work to be done on the system, even as maintenance of hot water in a water heater requires that continuous work be done on the system. Securing this continuous work requires energy and/or mass flow through the system, apart from which the system will return to an equilibrium condition (lowest Gibbs free energy, see equations 7-7 and 7-8) with the decomposition of complex molecules into simple ones, just as the hot water in our water heater returns to room temperature once the gas is shut off.

In living plants, the energy flow through the system is supplied principally by solar radiation. In fact, leaves provide relatively large surface areas per unit volume for most plants, allowing them to "capture" the necessary solar energy to maintain themselves far from equilibrium. This solar energy is converted into the necessary useful work (negative S e in equation 7-11) to maintain the plant in its complex, high-energy configuration by a complicated process called photosynthesis. Mass, such as water and carbon dioxide, also flows through plants, providing necessary raw materials, but not energy. In collecting and storing useful energy, plants serve the entire biological world.

For animals, energy flow through the system is provided by eating high energy biomass, either plant or animal. The breaking down of this energy-rich biomass, and the subsequent oxidation of part of it (e.g., carbohydrates), provides a continuous source of energy as well as raw materials. If plants are deprived of sunlight or animals of food, dissipation within the system will surely bring death. Maintenance of the complex, high-energy condition associated with life is not possible apart from a continuous source of energy. A source of energy alone is not sufficient, however, to explain the origin or maintenance of living systems. The additional crucial factor is a means of converting this energy into the necessary useful work to build and maintain complex living systems from the simple biomonomers that constitute their molecular building blocks.

An automobile with an internal combustion engine, transmission, and drive chain provides the necessary mechanism for converting the energy in gasoline into comfortable transportation. Without such an "energy converter," however, obtaining transportation from gasoline would be impossible. In a similar way, food would do little for a man whose stomach, intestines, liver, or pancreas were removed. Without these, he would surely die even though he continued to eat. Apart from a mechanism to couple the available energy to the necessary work, high-energy biomass is insufficient to sustain a living system far from equilibrium. In the case of living systems such a coupling mechanism channels the energy along specific chemical pathways to accomplish a very specific type of work. We therefore conclude that, given the availability of energy and an appropriate coupling mechanism, the maintenance of a living system far from equilibrium presents no thermodynamic problems.

In mathematical formalism, these concepts may be summarized as follows:

(1) The second law of thermodynamics requires only that the entropy production due to irreversible processes within the system be greater than zero i.e.,

(2) The maintenance of living systems requires that the energy flow through the system be of sufficient magnitude that the negative entropy production rate (i.e., useful work rate) that results be greater than the rate of dissipation that results from irreversible processes going on within the systems i.e.,

(3) The negative entropy generation must be coupled into the system in such a way that the resultant work done is directed toward restoration of the system from the disintegration that occurs naturally and is described by the second law of thermodynamics i.e.,

where S e and S i refer not only to the magnitude of entropy change but also to the specific changes that occur in the system associated with this change in entropy. The coupling must produce not just any kind of ordering but the specific kind required by the system.

While the maintenance of living systems is easily rationalized in terms of thermodynamics, the origin of such living systems is quite another matter. Though the earth is open to energy flow from the sun, the means of converting this energy into the necessary work to build up living systems from simple precursors remains at present unspecified (see equation 7-17). The "evolution" from biomonomers of to fully functioning cells is the issue. Can one make the incredible jump in energy and organization from raw material and raw energy, apart from some means of directing the energy flow through the system? In Chapters 8 and 9 we will consider this question, limiting our discussion to two small but crucial steps in the proposed evolutionary scheme namely, the formation of protein and DNA from their precursors.

It is widely agreed that both protein and DNA are essential for living systems and indispensable components of every living cell today. 11 Yet they are only produced by living cells. Both types of molecules are much more energy and information rich than the biomonomers from which they form. Can one reasonably predict their occurrence given the necessary biomonomers and an energy source? Has this been verified experimentally? These questions will be considered in Chapters 8 and 9.

1. Victor F. Weisskopf, 1977. Amer. Sci. 65 , 405-11.

2. R. Clausius, 1855. Ann. Phys. 125 , 358.

3. R. Caillois, 1976. Coherences Aventureuses . Paris: Gallimard.

4. H.J. Morowitz, 1968. Energy Flow in Biology. New York: Academic Press, p.2-3.

5. H.F. Blum, 1951. Time's Arrow and Evolution. Princeton: Princeton University Press.

6. H.J. Morowitz, Energy Flow, p.66.

7. H.J. Morowitz, Energy Flow, p.68.

8. I. Prigogine, G. Nicolis, and A. Babloyantz, November, 1972. Physics Today, p.23.

9. H.F. Blum, 1955. American Scientist 43 , 595.

10. G. Nicolis and I. Prigogine, 1977. Self-Organization in Nonequilibrium Systems. New York: John Wiley, p.24.


T he Emergence of Complex Life

How life emerged from non-life is an extremely challenging question. As a prelude to the details, let&rsquos review the distinguishing features of living systems in the context of this question. Living systems have three essential properties. (1) They capture energy and utilize energy from external sources to fuel the chemical energy of growth and metabolism. &ldquoAutotrophic&rdquo organisms synthesize carbon compounds (&ldquofood&rdquo) with energy from the physical environment, such as sunlight or geothermal heat. &ldquoHeterotrophic&rdquo organisms procure energy by eating other organisms. (2) Living systems grow by adding materials and by changing organization. (3) Living systems replicate using a structured form of information that passes from generation to generation. This information directs the synthesis and growth of organic compounds in the cell. Non-living systems may exhibit some of these properties but not all of them at once.

Another consideration is the properties of Earth as a planet that are prerequisites for life. These include the size (mass) of Earth, which is large enough to hold an atmosphere by the force of gravity, and the surface temperature of Earth, which supports water in liquid form (fig. 1).

Figure 1. Water on the shore of Lake Superior (in Ontario) flowing over Precambrian rocks. Source: Catherine Badgley.

Part of the challenge in investigating the origins of life on earth is that the rock record from the earliest history of the earth is sparse. Even rarer are sedimentary rocks that have not been weathered away altogether or modified into igneous or metamorphic rocks. Another challenge is that the surface conditions of the early earth differed vastly from those of today, with a higher concentration of greenhouse gases in the early atmosphere, warmer surface temperatures, and anaerobic atmosphere and oceans. Nonetheless, active areas of research focus on plausible hypotheses about when, where, and how life on earth began.

Earliest life: When?

Chemical evidence (carbon isotopes implying photosynthesis) indicates that biological activity was present 3.8 Ga (billion years ago). The earliest fossil cells are known from sedimentary rocks 3.5 Ga in Australia. The fossils depict unicells in spherical and fibrous growth forms clumped together. Such evidence has been contested as the result of inorganic processes, but the co-occurrence of cell-like microstructures along with chemical signatures of organic compounds makes a strong case for these features as fossilized prokaryotes. Given the low probability of preservation of even rocks from this early time period, living cells would likely have appeared even earlier than the oldest fossils. Thus, life on earth probably arose between 4.0 and 3.5 Ga.


Between 3.5 and 2.0 Ga, the most common fossils are stromatolites&mdashmicrobial mats that grow into small mounds and hummocks by trapping fine mud on sticky surfaces. Figure 2 illustrates modern stromatolites in a tidal setting. Similar microbial ecosystems are still present today in deeper marine and freshwater contexts.


Figure 2. Modern stromatolites. (Source: BBC/Science/Earth)

1. Ocean. The ideas of Russian scientist Oparin and British scientist Haldane, from early in the 20th Century, postulated that lightning or ultraviolet radiation interacting with the primitive atmosphere would have led to formation of small organic molecules, which would have become locally concentrated in the ancient ocean. According to this hypothesis, clumps of organic molecules would acquire properties of primitive cells, such as semi-permeable outer membranes. Eventually, some of these proto-cells, by a process of selection, became true cells. Coacervates, amoeba-like entities that contain and release compounds, divide, and yet are purely physical in origin, provide a clue to how cell-like properties might have arisen. This hypothesis and later modifications of it have acquired the nickname of &ldquoprimordial soup.&rdquo The environment of early life, under this hypothesis, was the ancient ocean, where early organic molecules accumulated after forming in the atmosphere.

The famous Miller-Urey experiment demonstrated the plausibility of this hypothesis. In the 1950s, Miller and Urey successfully tested the Oparin/Haldane hypothesis. Using a simulated "primitive atmosphere" of methane, ammonia, and hydrogen, and an electric spark, they observed the formation of amino acids in their laboratory apparatus. Further experiments have substituted CO2 for CH4 and NH3, and ultraviolet light for the electric spark and have documented a host of organic molecules in the condensation vessel (fig. 3).

Figure 3. The Miller-Urey experiment. (Source: Wikipedia, Wikimedia)

2. Extraterrestrial locations (fig. 4). The detection of carbon, oxygen, and nitrogen, as well as simple organic compounds, in interstellar gas and dust prompted some scientists to consider whether life originated elsewhere in the solar system and was &ldquoseeded&rdquo onto Earth via comets and meteorites. Some comets and meteorites contain simple organic compounds, which supports the plausibility of this hypothesis. This hypothesis for the origin of life on earth has fallen out of favor, but it is considered likely that comets and meteorites contributed carbon, oxygen, and nitrogen to the surface of the early earth during the period of intensive bombardment.

Figure 4. The Orion nebula as photographed from the Hubble telescope. Interstellar gas and dust as well as comets and meteorites may contain the common elements of organic compounds as well as small organic molecules. (Source: NASA)


3. Deep earth or submarine hydrothermal vents. The discovery of abundant bacteria deep below the earth&rsquos surface and surrounding submarine vents (fig. 5) prompted some scientists to propose these environments as the locus of the origin of life. Far from damaging ultraviolet radiation and the violent surface processes of the early earth, these deep environments were proposed as potential sites where organic reactions and proto-cells could form. Sulfur compounds and geothermal heat would provide substrates and energy sources for cellular metabolism, as they do for bacteria today in these settings.

Figure 5. Hydrothermal vent. (Source: Woods Hole Oceanographic Institution)

The issue here is whether replication arose first or metabolism arose first in proto-cells. Experiments demonstrating that organic polymers can form on clay-mineral templates or that some forms of RNA can act as a catalyst as well as a means of information transfer have investigated plausible scenarios of replication.


Single origin for life on Earth

Four billion years ago, there may have been many early &ldquoexperiments&rdquo in the formation of organic molecules, proto-cells, and even fully functioning cells. All organisms today, from the smallest microbes to the largest trees and vertebrates, contain a number of biochemical features in common&mdashwhich supports the idea that all these forms have a common ancestor. Some of these common features are:

  • A common set of 20 left-handed amino acids
  • DNA and RNA as the basis of information transfer from generation to generation
  • ATP as the universal currency of energy
  • Fermentation as the first step of carbohydrate metabolism.

Genetic analyses of extant organisms (fig. 6) indicate that life consists of three major branches&mdashthe Eubacteria, the Archea, and the Eucarya. Eubacteria and Archae are prokaryotes and Eucarya are eukaryotes. The prokaryotes are the great element cyclers of the earth&rsquos surface, and are fundamental to many ecosystem services. They exhibit astounding metabolic diversity&mdashthat is, different kinds can use many different substrates for synthesis and metabolism. Eukaryotes have quite limited metabolic pathways but include all multicellular organisms, span six orders of magnitude of body size, and show great morphological diversity.

Figure 6. The three domains of life as revealed by genetic analyses. (Source: Wikipedia, Wikimedia)

The eukaryotic cell (fig. 7) is larger and more structurally organized than the prokaryotic cell of bacteria and archea. The prokaryotic cell lacks internal membranes the single-stranded DNA sits in the cytoplasm. In contrast, the eukaryotic cell contains a nucleus and other organelles. The nucleus is surrounded by a membrane, and contains double-stranded DNA in chromosomes. The eukaryotic cell shows other evidence of sub-cellular organization for more efficient function. Various energy-releasing enzymes are organized within mitochondria and plants contain chloroplasts, where photosynthesis occurs.


The origin of the eukaryotic cell over 2 billion years ago was an important evolutionary step. Protozoa, fungi, plants and animals -- are all eukaryotes. The theory of endosymbiosis proposes that at least two organelles found only in eukaryotes -- mitochondria (where ATP, the energy-transfer molecule, is synthesized) and chloroplasts (the location of photosynthesis) originated as prokaryotic hosts engulfed other prokaryotic cells with particular metabolic pathways. This endosymbiotic hypothesis, originally proposed by Lynn Margulis in 1967, provides a mechanism for the evolution of complex cell structures from simpler precursors.

1 nucleolus
2 nuclear membrane
3 ribosomes
4 vesicle
5 endoplasmic reticulum (rough)
6 Golgi body
7 cytoskeleton
8 endoplasmic reticulum (smooth)
9 mitochondria
10 vacuole
11 cytoplasm
12 lysosome
13 centrioles

Figure 7. Diagram of a eukaryotic animal cell. (Source: Wikipedia, Wikimedia)

Several lines of evidence indicate that life has been present for most of earth history. Hypotheses about life&rsquos origins vary in terms of environmental context and whether metabolism or replication arose first in the earliest cells. Prokaryotic ecosystems dominated the first two billion years of life on earth. Eukaryotes are thought to have arisen from prokaryotic ancestors through stages of endosymbiosis. Our bodies contain ten times as many cells of prokaryotic symbionts and hitchhikers as the number of eukaryotic cells with our human genome.


Conclusões

Model predictions are dependent upon the assumptions inherent in them. As questions become more focused, models are simplified and calibration datasets become richer, then arguably the risk of models providing misleading conclusions decreases. A reasonable criticism of QSP models is that the influence of unknown-unknowns and limited quality input data unacceptably increases the risk of using such models to explore complex biological questions. However, all models are “wrong” and history is rich with examples of incorrect models leading to productive discussion and a more detailed and realistic model. The Ptolemaic model of the universe was used to calculate interplanetary movements with some success for 1,500 years, before lack of concordance with key observations led to the current heliocentric model. Incorrect models can be powerful in scientific discovery, provided they are seen as tools to explore and are tested, debated, and revised systematically.

Overall, it is apparent that simple or empirical models “win” in some cases (simplicity, amenability to incorporate statistical parameters, ability to simulate an end point), but complex models in others (richer information content, clearer link to actual biology, potential to gain mechanistic insight). The question then becomes how do we assess relative value? An alternative view is that neither can “win,” merely that complex and simple/empirical models have different but complementary purposes. Thus, the model should be chosen for the use case. QSP models can perhaps be best looked at as tools to explore our understanding of disease biology in the earlier stages of drug discovery. As programs advance into the phase II and III domain, then the questions change from “is this the optimal target” to “how do we optimize dose, regimen, and patient numbers”? This latter question can be answered with a simple/empirical model. Indeed, this reduced model could be derived from the earlier complex QSP model using model reduction techniques and, thus, perhaps one is a natural evolution of the other.


Complexity increase for global (eco)systems

Now, it is well-documented by ecologists and evolutionary biologists that ecosystems tend to become more complex: the number of different species increases, and the number of dependencies and other linkages between species increases. This has been observed as well over the geological history of the earth, as in specific cases such as island ecologies which initially contained very few species, but where more and more species arose by immigration or by differentiation of a single species specializing on different niches (like the famous Darwin's finches on the Galapagos islands).

As is well explained by E.O. Wilson in his "The Diversity of Life", not only do ecosystems contain typically lots of niches that will eventually be filled by new species, there is a self-reinforcing tendency to create new niches. Indeed, a hypothetical new species (let's call them "bovers") occupying a hitherto empty niche, by its mere presence creates a set of new niches. Different other species can now specialize in somehow using the resources produced by that new species, e.g. as parasites that suck the bover's blood or live in its intestines, as predators that catch and eat bovers, as plants that grow on the bovers excrements, as furrowers that use abandoned bover holes, etc. etc. Each of those new species again creates new niches, that can give rise to even further species, and so on, ad infinitum. These species all depend on each other: take the bovers away and dozens of other species may go extinct.

This principle is not limited to ecosystems or biological species: if in a global system (e.g. the inside of a star, the primordial soup containing different interacting chemicals, . ) a stable system of a new type appears through evolution (e.g. a new element in a star, or new chemical compound), this will in general create a new environment or selector. This means that different variations will either be adapted to the new system (and thus be selected) or not (and thus be eliminated). Elimination of unfit systems may decrease complexity, selection of fit systems is an opportunity for increasing complexity, since it makes it possible for systems to appear which were not able to survive before. For example, the appearance of a new species creates an opportunity for the appearance of species-specific parasites or predators, but it may also cause the extinction of less fit competitors or prey.

However, in general the power for elimination of other systems will be limited in space, since the new system cannot immediately occupy all possible places where other systems exist. Por exemplo. the appearance of a particular molecule in a pool of "primordial soup" will not affect the survival of molecules in other pools. So, though some systems in the neighbourhood of the new system may be eliminated, in general not all systems of that kind will disappear. The power for facilitating the appearance of new systems will similarly be limited to a neighbourhood, but that does not change the fact that it increases the overall variety of systems existing in the global system. The net effect is the creation of a number of new local environments or neighbourhoods containing different types of systems, while other parts of the environment stay unchanged. The environment as a whole becomes more differentiated and, hence, increases its complexity.

See also:
Heylighen F. (1996): "The Growth of Structural and Functional Complexity during Evolution", in: F. Heylighen & D. Aerts (eds.) (1996): "The Evolution of Complexity" (Kluwer, Dordrecht). (in press)

W. Brian Arthur: "Why Do Things Become More Complex?", Scientific American, May 1993


At every step of the biological hierarchy, structure and function are connected. For example, different cells have specific components that help them carry out their duties. Red blood cells, which carry oxygen, are formed differently than the white blood cells that fight infection. The relationship between structure and function is also apparent in entire organisms and the physiological systems that serve them. A cat’s long, sensitive whiskers gather information from its environment.

All organisms interact with their environment, which includes both organic and inorganic components. Material and energy flow back and forth. For instance, green plants use water, carbon dioxide and sunlight from their environment to produce their own energy through photosynthesis, but they release oxygen as a byproduct.


Reconhecimentos

We wish to thank the anonymous reviewers and S. G. Oliver for their valuable comments on the manuscript. This work was supported by grants from the European Research Council (C.P.), the Wellcome Trust (C.P.), the 'Lendület Program' of the Hungarian Academy of Sciences (B.P.), the International Human Frontier Science Program Organization and the Hungarian Scientific Research Fund (B.P and C.P). R.N. is supported by The Netherlands Genomics Initiative (NGI – Horizon grant) and The Netherlands Organisation for Scientific Research (NWO - VENI Grant).


Assista o vídeo: Características generales de los sistemas biológicos (Dezembro 2021).