Em formação

Mais entropia: átomo ou macromolécula?


Uma pergunta que apareceu no meu último exame foi:

Qual dos seguintes tem maior entropia A) Um átomo B) Uma macromolécula

A pergunta não especifica mais nada (ou seja, tipo / tamanho do átomo ou macromolécula). As macromoléculas que aprendemos na classe eram proteínas, açúcares, ácidos nucléicos (DNA / RNA) ou lipídios. Qual é a resposta correta e por quê (cálculo hipotético, se possível)?


Ahh entropia. A ruína de muitos alunos de graduação. Você não vai precisar de muito rigor matemático para resolver as entropias absolutas na maioria dos campos biológicos, então é melhor pensar nisso de forma abstrata.

Considere o átomo. O que é que isso pode fazer? Bem, se você se lembra da aula de química, ele pode pular em um processo que chamamos de tradução, e os elétrons podem basicamente mudar de rotação. Na maior parte, se você tivesse um único átomo sozinho no universo, isso é tudo que ele poderia fazer. Mova-se e seus elétrons mudem de estado. É melhor pensar nisso como "estados" do átomo.

Vamos ver, o átomo pode se mover na direção X e girar para cima. Ele pode se mover na direção xey e girar para baixo ... etc. Mas o que quero dizer é que não há muita coisa que o único átomo possa fazer por si só.

Por outro lado, se começarmos a adicionar outros átomos à mistura, digamos através de ligações químicas, eles podem começar a fazer mais. Se dois átomos estão ligados, eles podem se esticar e se contrair (estados vibracionais), eles podem girar em torno um do outro e podem fazer tudo o que o átomo também pode fazer.

Como você pode ver, há muito mais "coisas" ou "estados" em que os dois átomos podem ser definidos ao mesmo tempo. Eles podem estar girando em uma direção, vibrando de uma maneira, movendo-se em outra ... etc etc ... até mesmo esta frase parece estar ficando mais caótica! E isso é realmente tudo o que a entropia é. Adicionando mais e mais maneiras de a matéria entrar em todas essas configurações possíveis.

Portanto, a resposta à sua pergunta é a macromolécula. Tem toneladas de átomos e ligações. Um número incontável de maneiras de girar, traduzir e vibrar, ser atingido por fótons e emitir luz e fazer todos os tipos de "coisas" caóticas (você pode contar na verdade, é muito difícil).


Entropia é uma medida para o número de estados acessíveis a um sistema. Quanto mais estados disponíveis, maior é a entropia.
Se você pensar em um átomo confinado em um volume V, então, sem outras restrições, o átomo pode estar em qualquer lugar dentro desse volume, ou seja, o número de estados será uma função do volume V. Quanto maior o volume, maior a entropia . Agora, se você adicionar outro átomo a esse volume de modo que os dois átomos formem um gás, ou seja, eles não se ligam, então esses átomos podem acessar os estados individualmente. O número de estados do sistema será o número de estados do átomo1 vezes o número de estados do átomo2. Assim, em um gás, o número de estados e, portanto, a entropia, aumenta com o número de átomos.
O que acontecerá agora, se os dois átomos se ligarem. Eles agora não podem acessar estados individualmente, então o número total de estados e, portanto, a entropia, será menor do que para um gás com os mesmos átomos. Mas os dois átomos ainda podem acessar estados semelhantes ao gás de um átomo, além de poderem fazer coisas novas, como girar em torno um do outro. Portanto, o número de estados de uma molécula de dois átomos será maior do que o número de estados de apenas um átomo.
Assim, se você comparar a entropia de um único átomo com a entropia de uma molécula de N átomos, a entropia da molécula será maior.
Se você comparar a entropia de um gás de N átomos com a entropia de uma molécula construída a partir desses N átomos, a entropia do gás será maior.


Como mostra esta tabela, quanto mais complexa é uma molécula (em geral), mais entropia ela tem.

Entropia é uma quantidade absoluta que é zero em $ 0 ^ o K. $ Quando um átomo ou molécula não tem como girar (está 'congelado'), há apenas um estado em que ele pode existir. Um átomo de um gás ou uma molécula de um gás diatômico a $ 25 ^ oC $ também é um tanto restrito em comparação com uma molécula complexa como o açúcar na mesma temperatura e pressão. Os carbonos e hidrogênios no açúcar têm mais estados possíveis para existir. Assim, por exemplo, cloro gasoso, $ Cl_2 (g), $ tem entropia mais baixa do que o propano, $ C_3H_8. $

As tendências de $ S $ para vários átomos e moléculas geralmente refletem a ideia de que S é determinado pela massa molecular e restrição de movimento.

Um cálculo típico.

Se você quiser medir a entropia de uma molécula simples, você assume que a entropia é 0 em $ 0 ^ o K $ e mede alterar na entropia à medida que a molécula é aquecida. Na prática, isso pode significar medir a diminuição da entropia do ambiente à medida que uma substância se aquece. Medindo as mudanças cuidadosamente até uma temperatura padrão (25 $ ^ oC) $, você obtém um número que é característico de cada substância.

A equação usada nos cursos de química é geralmente dada como

$$ Delta S = frac { Delta H} {T} $$

Em inglês, a mudança na entropia é igual à mudança no calor (por massa ou por mol), geralmente em alguma mudança de fase, dividida pela temperatura em graus Kelvin.

Como um exemplo simples, se o benzeno líquido é convertido em vapor em seu ponto de ebulição $ 80,1 ^ o C $ e o calor de vaporização para o benzeno é 394 J / g, então, para 50 g de benzeno líquido ($ C_6H_6 $), a mudança de entropia é

$$ Delta S = frac {(50 g) cdot (394 J / g)} {(80,1 + 273,15) ^ oK} = 55,7 J / ^ oK $$

Os químicos criaram tabelas que medem as mudanças de entropia para estados de várias moléculas. Com exceção de moléculas muito simples, as previsões de entropia baseadas na estrutura são difíceis e as tabelas são derivadas empiricamente.


Entropia e vida

As pesquisas sobre a relação entre a entropia termodinâmica da quantidade e a evolução da vida começaram por volta da virada do século XX. Em 1910, o historiador americano Henry Adams imprimiu e distribuiu para bibliotecas universitárias e professores de história o pequeno volume Uma Carta aos Professores Americanos de História propor uma teoria da história baseada na segunda lei da termodinâmica e no princípio da entropia. [1] [2]

O livro de 1944 O que é a vida? pelo físico ganhador do Nobel Erwin Schrödinger estimulou pesquisas adicionais no campo. Em seu livro, Schrödinger afirmou originalmente que a vida se alimenta de entropia negativa, ou negentropia como às vezes é chamada, mas em uma edição posterior se corrigiu em resposta a reclamações e afirmou que a verdadeira fonte é a energia livre. Trabalhos mais recentes restringiram a discussão à energia livre de Gibbs porque os processos biológicos na Terra normalmente ocorrem a uma temperatura e pressão constantes, como na atmosfera ou no fundo do oceano, mas não em ambos em curtos períodos de tempo para organismos individuais .

Idéias sobre a relação entre entropia e organismos vivos inspiraram hipóteses e especulações em muitos contextos, incluindo psicologia, teoria da informação, a origem da vida e a possibilidade de vida extraterrestre.


Medidas de entropia surpreendentes revelam efeito exótico no grafeno de "ângulo mágico"

Efeito Pomeranchuk no grafeno de ângulo mágico, revelando uma transição exótica entre duas fases: A (Fermi) fase líquida, onde as posições espaciais dos elétrons são desordenadas, mas seus momentos magnéticos (setas) estão perfeitamente alinhados, e uma fase sólida onde os elétrons são ordenados no espaço, mas seus momentos magnéticos estão flutuando livremente. Contra-intuitivamente, a fase líquida transforma-se na fase sólida após o aquecimento. Crédito: Weizmann Institute of Science

Pesquisadores do Weizmann Institute of Science e do Massachusetts Institute of Technology descobrem uma surpreendente transição de fase no grafeno de dupla camada torcida.

A maioria dos materiais passa de sólidos para líquidos quando são aquecidos. Um contra-exemplo raro é o hélio-3, que pode solidificar com o aquecimento. Este efeito contra-intuitivo e exótico, conhecido como efeito Pomeranchuk, pode agora ter encontrado seu análogo eletrônico em um material conhecido como grafeno de ângulo mágico, afirma uma equipe de pesquisadores do Instituto de Ciência Weizmann liderada pelo Prof. Shahal Ilani, em colaboração com Prof. Pablo Jarillo-Herrero & grupo # 8217s do Massachusetts Institute of Technology (MIT).

Este resultado, publicado hoje (7 de abril de 2021) em Natureza, vem graças à primeira medição de entropia eletrônica em um material bidimensional atomicamente fino. & # 8220Entropia descreve o nível de desordem em um material e determina qual de suas fases é estável em diferentes temperaturas, & # 8221 explica Ilani. & # 8220Nossa equipe se organizou para medir a entropia eletrônica no ângulo mágico do grafeno para resolver alguns de seus mistérios pendentes, mas descobriu outra surpresa. & # 8221

Entropia magnética gigante

A entropia é uma quantidade física básica que não é fácil de entender ou medir diretamente. Em baixas temperaturas, a maioria dos graus de liberdade em um material condutor congela e apenas os elétrons contribuem para a entropia. Em materiais a granel, há abundância de elétrons e, portanto, é possível medir sua capacidade térmica e daí deduzir a entropia. Em um material bidimensional atomicamente fino, devido ao pequeno número de elétrons, tal medição torna-se extremamente desafiadora. Até agora, nenhum experimento conseguiu medir a entropia em tais sistemas.

Para medir a entropia, a equipe de Weizmann usou um microscópio de varredura exclusivo composto por um transistor de elétron único de nanotubo de carbono posicionado na borda de um cantilever de sonda de varredura. Este instrumento pode reproduzir espacialmente a imagem do potencial eletrostático produzido pelos elétrons em um material, com uma sensibilidade sem precedentes. Com base nas relações de Maxwell & # 8217s que conectam as diferentes propriedades termodinâmicas de um material, pode-se usar essas medições eletrostáticas para sondar diretamente a entropia dos elétrons.

& # 8220Quando realizamos as medições em campos magnéticos altos, a entropia parecia absolutamente normal, seguindo o comportamento esperado de um líquido convencional (Fermi) de elétrons, que é o estado mais padrão em que os elétrons existem em baixas temperaturas. Surpreendentemente, no entanto, em campo magnético zero, os elétrons exibiam um excesso de entropia gigante, cuja presença era muito misteriosa. & # 8221 diz Ilani. Esta entropia gigante surgiu quando o número de elétrons no sistema era de cerca de um para cada local da & # 8220superrede & # 8221 artificial formada em grafeno de ângulo mágico.

Artificial & # 8220superlattice & # 8221 em camadas torcidas de grafeno

O grafeno é um cristal de átomos de carbono com a espessura de um átomo arranjado em uma rede hexagonal. Quando duas folhas de grafeno são colocadas uma sobre a outra com um ângulo de desalinhamento pequeno e especial, ou & # 8220magic, & # 8221, um padrão moiré periódico aparece que atua como uma & # 8220superrede & # 8221 artificial para os elétrons no material. Os padrões moiré são um efeito popular em tecidos e surgem sempre que uma malha se sobrepõe a outra em um pequeno ângulo.

No grafeno de ângulo mágico, os elétrons vêm em quatro sabores: spin & # 8220up & # 8221 ou spin & # 8220down & # 8221 and two & # 8220valleys. & # 8221 Cada site moiré pode, portanto, conter até quatro elétrons, um de cada sabor.

Os pesquisadores já sabiam que esse sistema se comporta como um simples isolante quando todos os sítios moiré estão completamente cheios (quatro elétrons por sítio). Em 2018, no entanto, o Prof Jarillo-Herrero e colegas descobriram para sua surpresa que ele pode ser isolante em outras obturações inteiras (dois ou três elétrons por sítio moiré), o que só poderia ser explicado se um estado correlacionado de elétrons fosse formado. Porém, próximo ao preenchimento de um elétron por sítio moiré, a grande maioria das medições de transporte indicou que o sistema é bastante simples, comportando-se como um metal comum. É exatamente aqui que as medições de entropia pela equipe Weizmann-MIT encontraram os resultados mais surpreendentes.

& # 8220 Em contraste com o comportamento visto no transporte próximo ao preenchimento de um elétron por local de moiré, que é totalmente sem características, nossas medições indicaram que termodinamicamente, a transição de fase mais dramática ocorre neste preenchimento, & # 8221 diz o Dr. Asaf Rozen, um autor principal neste trabalho. & # 8220 Percebemos que perto desse recheio, ao aquecer o material, um líquido Fermi bastante convencional se transforma em um metal correlacionado com uma entropia magnética gigante. Essa entropia gigante (de cerca de 1 constante de Boltzmann por sítio de rede) só poderia ser explicada se cada sítio moiré tivesse um grau de liberdade totalmente livre para flutuar. & # 8221

Um análogo eletrônico do efeito Pomeranchuk

& # 8220Este excesso de entropia incomum nos lembrou de um efeito exótico que foi descoberto há cerca de 70 anos no hélio-3, & # 8221 diz o teórico de Weizmann, Prof. Erez Berg. & # 8220A maioria dos materiais, quando aquecidos, transformam-se de sólido em líquido. Isso ocorre porque um líquido sempre tem mais entropia do que o sólido, pois os átomos se movem de forma mais errática no líquido do que no sólido. & # 8221 No hélio-3, entretanto, em uma pequena parte do diagrama de fase, o material se comporta completamente opostamente, e a fase de temperatura mais alta é o sólido. Esse comportamento, previsto pelo físico teórico soviético Isaak Pomeranchuk na década de 1950, só pode ser explicado pela existência de outra fonte & # 8220 oculta & # 8221 de entropia no sistema. No caso do hélio-3, essa entropia vem dos spins nucleares em rotação livre. & # 8220Cada átomo tem um spin em seu núcleo (uma & # 8216eta & # 8217 que pode apontar em qualquer direção), & # 8221 explica Berg. & # 8220No hélio-3 líquido, devido ao princípio de exclusão de Pauli, exatamente metade dos spins deve apontar para cima e a outra metade deve apontar para baixo, de modo que os spins não podem girar livremente. Na fase sólida, no entanto, os átomos estão localizados e nunca se aproximam, de modo que seus spins nucleares podem girar livremente. & # 8221

& # 8220A entropia em excesso gigante que observamos no estado correlacionado com um elétron por sítio moiré é análoga à entropia do hélio-3 sólido, mas em vez de átomos e spins nucleares, no caso do grafeno de ângulo mágico temos elétrons e eletrônicos spins (ou momentos magnéticos de vale), & # 8221, diz ele.

O diagrama de fase magnética

Para estabelecer ainda mais a relação com o efeito Pomeranchuk, a equipe realizou medições detalhadas do diagrama de fases. Isso foi feito medindo a & # 8220compressibilidade & # 8221 dos elétrons no sistema, isto é, o quão difícil é comprimir elétrons adicionais em um determinado local da rede (tal medição foi demonstrada no grafeno de dupla camada torcida na equipe & # 8217s anteriores trabalhar). Esta medição revelou duas fases distintas separadas por uma queda acentuada na compressibilidade: uma fase semelhante a líquido eletrônico de baixa entropia e uma fase semelhante a um sólido de alta entropia com momentos magnéticos livres. Ao acompanhar a queda na compressibilidade, os pesquisadores mapearam a fronteira entre as duas fases em função da temperatura e do campo magnético, demonstrando que a fronteira de fase se comporta exatamente como esperado do efeito Pomerachuk.

& # 8220Este novo resultado desafia nossa compreensão do grafeno de ângulo mágico & # 8221 diz Berg. & # 8220Nós imaginamos que as fases neste material eram simples & # 8211, tanto condutoras quanto isolantes, e esperávamos que, em temperaturas tão baixas, todas as flutuações eletrônicas fossem congeladas. Este não é o caso, como mostra a entropia magnética gigante. & # 8221

& # 8220 As novas descobertas fornecerão novos insights sobre a física de sistemas de elétrons fortemente correlacionados e talvez até ajudem a explicar como esses spins flutuantes afetam a supercondutividade & # 8221, acrescenta.

Os pesquisadores reconhecem que ainda não sabem explicar o efeito Pomeranchuk no grafeno do ângulo mágico. É exatamente como no hélio-3, em que os elétrons na fase sólida permanecem a uma grande distância uns dos outros, permitindo que seus momentos magnéticos permaneçam completamente livres? & # 8220Não temos certeza, & # 8221 admite Ilani, & # 8220 visto que a fase que observamos tem uma & # 8216 personalidade de espinho & # 8217 & # 8211 algumas de suas propriedades estão associadas a elétrons itinerantes, enquanto outras só podem ser explicadas pensando em os elétrons como estando localizados em uma rede. & # 8221

Referência: & # 8220 Evidência intrópica para um efeito Pomeranchuk no grafeno de ângulo mágico & # 8221 por Asaf Rozen, Jeong Min Park, Uri Zondiner, Yuan Cao, Daniel Rodan-Legrain, Takashi Taniguchi, Kenji Watanabe, Yuval Oreg, Ady Stern, Erez Berg , Pablo Jarillo-Herrero e Shahal Ilani, 7 de abril de 2021, Natureza.
DOI: 10.1038 / s41586-021-03319-3

A pesquisa do Prof. Shahal Ilani & # 8217s é apoiada pelo Programa Ponte Sagol Weizmann-MIT, o Prêmio André Deloro de Pesquisa Científica, o Prêmio de Pesquisa Rosa e Emilio Segre e o Leona M. e Harry B. Helmsley Charitable Trust.

A pesquisa do Prof. Erez Berg & # 8217s é apoiada por Irving e Cherna Moskowitz.

A pesquisa do Prof. Yuval Oreg & # 8217s é apoiada pela Lady Davis Professorial Chair of Experimental Physics. O Prof. Oreg é o chefe do Centro de Nanofísica Maurice e Gabriella Goldschleger.

A pesquisa do Prof. Ady Stern & # 8217s é apoiada pelo Veronika A. Rabl Physics Discretionary Fund e o Zuckerman STEM Leadership Program.


O mistério da origem da vida:

A segunda lei da termodinâmica descreve o fluxo de energia na natureza em processos que são irreversíveis. O significado físico da segunda lei da termodinâmica é que o fluxo de energia em tais processos é sempre em direção a uma distribuição mais uniforme da energia do universo. Qualquer pessoa que teve de pagar contas de serviços públicos por muito tempo percebeu que muito do ar quente em sua casa durante o inverno escapa para o exterior. Esse fluxo de energia da casa para o frio externo no inverno, ou o fluxo de energia do calor externo para a casa com ar-condicionado no verão, é um processo descrito pela segunda lei da termodinâmica. A queima de gasolina, convertendo compostos "ricos" em energia (hidrocarbonetos) em compostos "limpos" de energia, dióxido de carbono (CO 2) e água (H 2 0), é uma segunda ilustração deste princípio.

O conceito de entropia (S) nos dá uma maneira mais quantitativa de descrever a tendência da energia fluir em uma direção particular. A mudança de entropia para um sistema é definida matematicamente como o fluxo de energia dividido pela temperatura, ou,

onde S é a mudança na entropia, Q é o fluxo de calor para dentro ou para fora de um sistema e T é a temperatura absoluta em graus Kelvin (K).

Se considerarmos o fluxo de calor de uma casa quente para o exterior em uma noite fria de inverno, podemos aplicar a equação 7-2 da seguinte forma:

S T = S casa + S ao ar livre - Q / T 1 + Q / T 2 (7-3)

onde S r é a variação total de entropia associada a esse fluxo de calor irreversível, T 1 é a temperatura interna da casa e T 2 é a temperatura externa.O sinal negativo do primeiro período indica a perda de calor da casa, enquanto o sinal positivo no segundo período reconhece o calor ganho pelo ambiente externo. Como é mais quente dentro de casa do que ao ar livre (T 1 & gt T 2), a entropia total aumentará (S r & gt 0) como resultado desse fluxo de calor. Se desligarmos o aquecedor da casa, ele irá resfriar gradualmente até que a temperatura se aproxime da do ar livre, ou seja, T1 = T2. Quando isso ocorre, a mudança de entropia (S) associada ao fluxo de calor (Q) vai para zero. Uma vez que não há mais força motriz para o fluxo de calor para o exterior, cessa as condições de equilíbrio foram estabelecidas.

Como mostra este exemplo simples, o fluxo de energia ocorre em uma direção que faz com que a energia total seja distribuída de maneira mais uniforme. Se pensarmos bem, também podemos ver que o aumento da entropia associado a esse fluxo de energia é proporcional à força motriz para que esse fluxo de energia ocorra. A segunda lei da termodinâmica diz que a entropia do universo (ou qualquer sistema isolado nele) está aumentando, ou seja, a energia do universo está se tornando mais uniformemente distribuída.

Freqüentemente, observa-se que a segunda lei indica que a natureza tende a ir da ordem à desordem, da complexidade à simplicidade. Se o arranjo mais aleatório de energia é uma distribuição uniforme, então o presente arranjo da energia no universo é não aleatório, uma vez que alguma matéria é muito rica em energia química, outra em energia térmica, etc., e outra matéria é muito pobre em esses tipos de energia. De forma semelhante, os arranjos de massa no universo tendem a ir da ordem à desordem devido ao movimento aleatório em escala atômica produzido pela energia térmica. Os processos de difusão nos estados sólido, líquido ou gasoso são exemplos de aumento da entropia devido a movimentos atômicos aleatórios. Assim, o aumento da entropia em um sistema corresponde a arranjos cada vez mais aleatórios de massa e / ou energia.

Existe outra maneira de ver a entropia. A entropia de um sistema é uma medida da probabilidade de um determinado arranjo de massa e energia dentro dele. Uma abordagem termodinâmica estatística pode ser usada para quantificar ainda mais a entropia do sistema. Alta entropia corresponde a alta probabilidade. Como um arranjo aleatório é altamente provável, ele também seria caracterizado por uma grande entropia. Por outro lado, um arranjo altamente ordenado, sendo menos provável, representaria uma configuração de entropia mais baixa. A segunda lei nos diria então que eventos que aumentam a entropia do sistema requerem uma mudança de mais ordem para menos ordem, ou de estados menos aleatórios para estados mais aleatórios. Consideraremos esse conceito útil no Capítulo 9, quando analisarmos as reações de condensação para DNA e proteínas.

Clausius 2, que formulou a segunda lei da termodinâmica, resume as leis da termodinâmica em sua famosa declaração concisa: & quotA energia do universo é constante, a entropia do universo tende a um máximo. & Quot O universo se move de seu arranjo atual menos provável ( baixa entropia) em direção ao seu arranjo mais provável, no qual a energia do universo será mais uniformemente distribuída.

Vida e a segunda lei da termodinâmica

Como tudo isso se relaciona com a evolução química? Visto que as macromoléculas importantes dos sistemas vivos (DNA, proteínas, etc.) são mais ricas em energia do que seus precursores (aminoácidos, bases heterocíclicas, fosfatos e açúcares), a termodinâmica clássica prevê que tais macromoléculas não se formarão espontaneamente.

Roger Caillois chegou recentemente a essa conclusão ao dizer: "Cláusius e Darwin não podem estar ambos certos". 3 Essa previsão da termodinâmica clássica, entretanto, apenas preparou o terreno para esforços refinados para compreender a origem da vida. Harold Morowitz 4 e outros sugeriram que a Terra não é um sistema isolado, uma vez que está aberta ao fluxo de energia do sol. No entanto, não se pode simplesmente descartar o problema da origem da organização e da complexidade dos sistemas biológicos por um vago apelo à termodinâmica de desequilíbrio de sistema aberto. Os mecanismos responsáveis ​​pelo surgimento e manutenção de estados coerentes (organizados) devem ser definidos. Para esclarecer o papel do fluxo de massa e energia através de um sistema como uma possível solução para este problema, examinaremos, por sua vez, a termodinâmica de (1) um sistema isolado, (2) um sistema fechado e (3) um sistema aberto . Em seguida, discutiremos a aplicação da termodinâmica de sistema aberto a sistemas vivos. No Capítulo 8, aplicaremos os conceitos termodinâmicos apresentados neste capítulo à síntese pré-biótica de DNA e proteína. No Capítulo 9, essa análise teórica será usada para interpretar os vários experimentos de síntese prebiótica de DNA e proteína, sugerindo uma base física para a falta de sucesso uniforme na síntese desses componentes cruciais para células vivas.

Um sistema isolado é aquele em que nem a massa nem a energia fluem para dentro ou para fora. Para ilustrar tal sistema, pense em uma garrafa térmica perfeitamente isolada (sem perda de calor) cheia inicialmente com chá quente e cubos de gelo. A energia total neste sistema isolado permanece constante, mas a distribuição da energia muda com o tempo. O gelo derrete e a energia fica mais uniformemente distribuída no sistema. A distribuição inicial de energia nas regiões quentes (o chá) e nas regiões frias (o gelo) é um arranjo ordenado e não aleatório de energia, que provavelmente não será mantido por muito tempo. Por nossa definição anterior, então, podemos dizer que a entropia do sistema é inicialmente baixa, mas aumenta gradualmente com o tempo. Além disso, a segunda lei da termodinâmica diz que a entropia do sistema continuará a aumentar até atingir algum valor máximo, que corresponde ao estado mais provável para o sistema, geralmente chamado de equilíbrio.

Em resumo, os sistemas isolados sempre mantêm a energia total constante enquanto tendem à entropia máxima ou desordem. Em termos matemáticos,

onde E e S são as mudanças na energia do sistema e na entropia do sistema, respectivamente, para um intervalo de tempo t. É evidente que o surgimento de qualquer tipo de ordem em um sistema isolado não é possível. A segunda lei da termodinâmica diz que um sistema isolado sempre se move na direção da entropia máxima e, portanto, da desordem.

Deve-se notar que o processo que acabamos de descrever é irreversível no sentido de que uma vez que o gelo derrete, ele não se reforma na garrafa térmica. Na verdade, a decadência natural e a tendência geral para uma desordem maior são tão universais que a segunda lei da termodinâmica foi apropriadamente apelidada de & quottime's arrow. & Quot 5

Sistemas Fechados perto do Equilíbrio

Um sistema fechado é aquele em que a troca de energia com o mundo exterior é permitida, mas a troca de massa não. Ao longo da fronteira entre o sistema fechado e os arredores, a temperatura pode ser diferente da temperatura do sistema, permitindo o fluxo de energia para dentro ou para fora do sistema conforme ele se move em direção ao equilíbrio. Se a temperatura ao longo da fronteira for variável (na posição, mas não no tempo), então a energia fluirá através do sistema, mantendo-o a alguma distância do equilíbrio. Discutiremos primeiro os sistemas fechados próximos ao equilíbrio, seguidos de uma discussão sobre os sistemas fechados removidos do equilíbrio a seguir.

Se combinarmos a primeira e a segunda leis expressas nas equações 7-1 e 7-2 e substituir o termo de trabalho mecânico W por P V, onde P é a pressão e V é a mudança de volume, obtemos,

A manipulação algébrica dá

O termo do lado esquerdo da desigualdade na equação 7-6 é chamado de mudança na energia livre de Gibbs (G). Pode ser pensado como um potencial termodinâmico que descreve a tendência de mudança de um sistema --- por exemplo, a tendência de ocorrerem mudanças de fase, condução de calor, etc. Se uma reação ocorre espontaneamente, é porque traz uma diminuição na energia livre de Gibbs (G 0). Este requisito é equivalente ao requisito de que a entropia do universo aumente. Assim, como um aumento na entropia, uma diminuição na energia livre de Gibbs simplesmente significa que um sistema e seus arredores estão mudando de tal forma que a energia do universo está se tornando mais uniformemente distribuída.

Podemos resumir então, observando que a segunda lei da termodinâmica requer,

onde t indica o período de tempo durante o qual a energia livre de Gibbs mudou.

A abordagem do equilíbrio é caracterizada por,

O significado físico da equação 7-7 pode ser compreendido reescrevendo as equações 7-6 e 7-7 da seguinte forma:

[S / t] - [1 / T (E / t + P V / t)] 0 (7-9)

e observando que o primeiro termo representa a mudança de entropia devido a processos ocorrendo dentro do sistema e o segundo termo representa a mudança de entropia devido à troca de energia mecânica e / ou térmica com o ambiente. Isso simplesmente garante que a soma da mudança de entropia no sistema e a mudança de entropia nos arredores será maior do que zero, ou seja, a entropia do universo deve aumentar. Para o sistema isolado, E + P V = 0 e a equação 7-9 se reduz à equação 7-4.

Uma ilustração simples desse princípio é vista nas mudanças de fase, como a transformação da água em gelo. À medida que o gelo se forma, a energia (80 calorias / grama) é liberada para o ambiente. A mudança na entropia do sistema conforme a água amorfa se torna gelo cristalino é de -0,293 unidades de entropia (eu) / grau Kelvin (K). A mudança de entropia é negativa porque a entropia (ou desordem) térmica e de configuração da água é maior do que a do gelo, que é um cristal altamente ordenado.

Para a condição de T 273 o K, a energia é removida da água para produzir gelo, e a desordem agregada dos arredores é maior do que a ordenação da água em cristais de gelo. Isso dá um aumento líquido na entropia do universo, conforme previsto pela segunda lei da termodinâmica.

Muitas vezes argumentou-se, por analogia à água que se cristaliza em gelo, que monômeros simples podem polimerizar em moléculas complexas, como proteínas e DNA. A analogia é claramente inadequada, no entanto. O termo E + P V (equação 7-9) na polimerização de moléculas orgânicas importantes é geralmente positivo (5 a 8 kcal / mol), indicando que a reação nunca pode ocorrer espontaneamente em ou perto do equilíbrio.

Em contraste, o termo E + P V na mudança de água para gelo é negativo, -1,44 kcal / mol, indicando que a mudança de fase é espontânea enquanto T 273 o K, como observado anteriormente. As forças de ligação atômica atraem as moléculas de água para um arranjo cristalino ordenado quando a agitação térmica (ou força motriz da entropia, T S) é reduzida o suficiente pela redução da temperatura. Monômeros orgânicos, como aminoácidos, resistem à combinação em qualquer temperatura, porém, muito menos em algum arranjo ordenado.

Morowitz 6 estimou o aumento na energia de ligação química à medida que se forma a bactéria Escherichia coli a partir de precursores simples em 0,0095 erg, ou uma média de 0,27 ev / átomo para os 2 x 10 10 átomos em uma única célula bacteriana. Isso seria termodinamicamente equivalente a ter água em sua banheira aquecida espontaneamente até 360 o C, felizmente um evento muito improvável. Ele passa a estimar a probabilidade de formação espontânea de uma dessas bactérias em todo o universo em cinco bilhões de anos sob condições de equilíbrio em 10 -10 11. Morowitz resume a importância desse resultado dizendo que "se os processos de equilíbrio por si só estivessem em ação, a maior flutuação possível na história do universo provavelmente não seria mais do que um pequeno peptídeo". 7 Prêmio Nobel I. Prigogine et al. , notaram com referência ao mesmo problema que:

Assim, inverter a & quot; seta do quottime & quot é o que trata a evolução química, e isso não ocorrerá em sistemas isolados ou fechados perto do equilíbrio.

As possibilidades são potencialmente mais promissoras, entretanto, se considerarmos um sistema sujeito a um fluxo de energia que pode mantê-lo longe do equilíbrio e sua desordem associada. Tal sistema é considerado um sistema restrito, em contraste com um sistema em ou próximo do equilíbrio que é irrestrito. As possibilidades de pedido em tal sistema serão consideradas a seguir.

Sistemas fechados longe do equilíbrio

O fluxo de energia através de um sistema é equivalente a trabalhar continuamente no sistema para mantê-lo a alguma distância do equilíbrio. Nicolis e Prigoginelo sugeriram que a mudança de entropia (S) em um sistema para um intervalo de tempo (t) pode ser dividida em dois componentes.

onde S e é o fluxo de entropia devido ao fluxo de energia através do sistema e S i é a produção de entropia dentro do sistema devido a processos irreversíveis, como difusão, condução de calor, produção de calor e reações químicas. Notaremos quando discutirmos os sistemas abertos na próxima seção que S e inclui o fluxo de entropia devido ao fluxo de massa através do sistema também. A segunda lei da termodinâmica requer,

Em um sistema isolado, S e = 0 e as equações 7-11 e 7-12 fornecem,

Ao contrário de S i, S e em um sistema fechado não tem um sinal definido, mas depende inteiramente das restrições de limite impostas ao sistema. A mudança total de entropia no sistema pode ser negativa (ou seja, ordenação dentro do sistema) quando,

Sob tais condições, um estado que normalmente seria altamente improvável em condições de equilíbrio pode ser mantido indefinidamente. Seria altamente improvável (ou seja, estatisticamente quase impossível) que um aquecedor de água desconectado produzisse água quente. No entanto, quando o gás é conectado e o queimador aceso, o sistema é restringido pelo fluxo de energia e a água quente é produzida e mantida indefinidamente enquanto a energia fluir pelo sistema.

Um sistema aberto oferece uma possibilidade adicional de ordenação --- a de manter um sistema longe do equilíbrio via fluxo de massa através do sistema, como será discutido na próxima seção.

Um sistema aberto é aquele que troca energia e massa com o ambiente. É bem ilustrado pelo conhecido motor de combustão interna. Gasolina e oxigênio são passados ​​pelo sistema, queimados e então liberados como dióxido de carbono e água. A energia liberada por esse fluxo de massa através do sistema é convertida em trabalho útil, a saber, torque fornecido às rodas do automóvel. Um mecanismo de acoplamento é necessário, entretanto, para permitir que a energia liberada seja convertida em um tipo particular de trabalho. De maneira análoga, os processos dissipativos (ou desordenadores) dentro de um sistema aberto podem ser compensados ​​por um fornecimento constante de energia para fornecer trabalho do tipo (S) S e. A Equação 7-11, aplicada anteriormente a sistemas fechados longe do equilíbrio, também pode ser aplicada a sistemas abertos. Nesse caso, o termo S e representa a entropia negativa, ou trabalho de organização feito no sistema como resultado do fluxo de energia e massa através do sistema. Este trabalho feito no sistema pode afastá-lo do equilíbrio, mantendo-o aí desde que o fluxo de massa e / ou energia não seja interrompido. Esta é uma característica essencial dos sistemas vivos, como será visto a seguir.

Termodinâmica dos Sistemas Vivos

Os sistemas vivos são compostos de configurações moleculares complexas, cuja energia de ligação total é menos negativa do que a de seus precursores químicos (por exemplo, a estimativa de Morowitz de E = 0,27 ev / átomo) e cujas entropias térmicas e configuracionais também são menores do que a de seus precursores químicos. Assim, a energia livre de Gibbs dos sistemas vivos (ver equação 7-6) é bastante alta em relação aos compostos simples dos quais são formados. A formação e manutenção de sistemas vivos em níveis de energia bem removidos do equilíbrio requer trabalho contínuo a ser feito no sistema, assim como a manutenção de água quente em um aquecedor de água requer que trabalho contínuo seja feito no sistema. Garantir este trabalho contínuo requer energia e / ou fluxo de massa através do sistema, além do qual o sistema retornará a uma condição de equilíbrio (energia livre de Gibbs mais baixa, consulte as equações 7-7 e 7-8) com a decomposição de moléculas complexas em simples uns, assim como a água quente em nosso aquecedor de água retorna à temperatura ambiente quando o gás é desligado.

Em plantas vivas, o fluxo de energia através do sistema é fornecido principalmente por radiação solar. Na verdade, as folhas fornecem áreas de superfície relativamente grandes por unidade de volume para a maioria das plantas, permitindo que elas "capturem" a energia solar necessária para se manterem longe do equilíbrio. Essa energia solar é convertida no trabalho útil necessário (S e negativo na equação 7-11) para manter a planta em sua configuração complexa de alta energia por um processo complicado chamado fotossíntese. A massa, como a água e o dióxido de carbono, também flui pelas plantas, fornecendo as matérias-primas necessárias, mas não a energia. Ao coletar e armazenar energia útil, as plantas atendem a todo o mundo biológico.

Para os animais, o fluxo de energia através do sistema é fornecido pela ingestão de biomassa de alta energia, vegetal ou animal. A quebra desta biomassa rica em energia e a subsequente oxidação de parte dela (por exemplo, carboidratos), fornece uma fonte contínua de energia, bem como matérias-primas. Se as plantas forem privadas de luz solar ou os animais de comida, a dissipação dentro do sistema certamente trará a morte. A manutenção da condição complexa de alta energia associada à vida não é possível sem uma fonte contínua de energia. Uma fonte de energia sozinha não é suficiente, entretanto, para explicar a origem ou manutenção dos sistemas vivos. O fator crucial adicional é um meio de converter essa energia no trabalho útil necessário para construir e manter sistemas vivos complexos a partir de biomônomos simples que constituem seus blocos de construção moleculares.

Um automóvel com motor de combustão interna, transmissão e corrente de transmissão fornece o mecanismo necessário para converter a energia da gasolina em um transporte confortável. Sem esse "conversor de energia", entretanto, obter transporte a partir da gasolina seria impossível. De maneira semelhante, a comida pouco faria por um homem cujo estômago, intestinos, fígado ou pâncreas foram removidos. Sem isso, ele certamente morreria, embora continuasse a comer. Além de um mecanismo para acoplar a energia disponível ao trabalho necessário, a biomassa de alta energia é insuficiente para sustentar um sistema vivo longe do equilíbrio. No caso de sistemas vivos, esse mecanismo de acoplamento canaliza a energia ao longo de caminhos químicos específicos para realizar um tipo de trabalho muito específico. Concluímos, portanto, que, dada a disponibilidade de energia e um mecanismo de acoplamento adequado, a manutenção de um sistema vivo longe do equilíbrio não apresenta problemas termodinâmicos.

No formalismo matemático, esses conceitos podem ser resumidos da seguinte forma:

(1) A segunda lei da termodinâmica exige apenas que a produção de entropia devido a processos irreversíveis dentro do sistema seja maior do que zero, ou seja,

(2) A manutenção de sistemas vivos requer que o fluxo de energia através do sistema seja de magnitude suficiente para que a taxa de produção de entropia negativa (isto é, taxa de trabalho útil) resultante seja maior do que a taxa de dissipação que resulta de processos irreversíveis acontecendo dentro os sistemas, ou seja,

(3) A geração de entropia negativa deve ser acoplada ao sistema de tal forma que o trabalho resultante realizado seja direcionado para a restauração do sistema a partir da desintegração que ocorre naturalmente e é descrita pela segunda lei da termodinâmica, ou seja,

onde S e e S i referem-se não apenas à magnitude da mudança de entropia, mas também às mudanças específicas que ocorrem no sistema associadas a essa mudança na entropia. O acoplamento deve produzir não qualquer tipo de pedido, mas o tipo específico exigido pelo sistema.

Embora a manutenção de sistemas vivos seja facilmente racionalizada em termos de termodinâmica, a origem de tais sistemas vivos é outra questão. Embora a terra esteja aberta ao fluxo de energia do sol, os meios de converter essa energia no trabalho necessário para construir sistemas vivos a partir de precursores simples permanecem atualmente não especificados (ver equação 7-17). A "evolução" de biomônomos para células em pleno funcionamento é o problema. É possível dar o salto incrível em energia e organização a partir da matéria-prima e da energia bruta, além de alguns meios de direcionar o fluxo de energia através do sistema? Nos Capítulos 8 e 9, consideraremos essa questão, limitando nossa discussão a duas etapas pequenas, mas cruciais, no esquema evolutivo proposto, a saber, a formação de proteínas e DNA a partir de seus precursores.

É amplamente aceito que tanto a proteína quanto o DNA são essenciais para os sistemas vivos e componentes indispensáveis ​​de todas as células vivas hoje. 11 No entanto, eles são produzidos apenas por células vivas. Ambos os tipos de moléculas são muito mais ricos em energia e informações do que os biomônomos a partir dos quais se formam. Pode-se prever razoavelmente sua ocorrência, dados os biomônomos necessários e uma fonte de energia? Isso foi verificado experimentalmente? Essas perguntas serão consideradas nos Capítulos 8 e 9.

1. Victor F. Weisskopf, 1977. Amer. Sci. 65, 405-11.

2. R. Clausius, 1855. Ann. Phys. 125, 358.

3. R. Caillois, 1976. Coherences Aventureuses. Paris: Gallimard.

4. H.J. Morowitz, 1968. Energy Flow in Biology. Nova York: Academic Press, p.2-3.

5. H.F. Blum, 1951. Time's Arrow and Evolution. Princeton: Princeton University Press.

6. H.J. Morowitz, Energy Flow, p.66.

7. H.J. Morowitz, Energy Flow, p.68.

8. I. Prigogine, G. Nicolis e A. Babloyantz, novembro de 1972. Physics Today, p.23.

9. H. F. Blum, 1955. American Scientist 43, 595.

10. G. Nicolis e I. Prigogine, 1977. Self-Organization in Nonequilibrium Systems. Nova York: John Wiley, p.24.


Síntese de desidratação

A maioria das macromoléculas são feitas de subunidades únicas, ou blocos de construção, chamados monômeros. Os monômeros se combinam usando ligações covalentes para formar moléculas maiores conhecidas como polímeros. Ao fazer isso, os monômeros liberam moléculas de água como subprodutos. Este tipo de reação é conhecido como Síntese de desidratação, que significa "juntar enquanto perde água".

Figura 1. Na reação de síntese de desidratação ilustrada acima, duas moléculas de glicose são ligadas entre si para formar o dissacarídeo maltose. No processo, uma molécula de água é formada.

Em uma reação de síntese de desidratação (Figura 1), o hidrogênio de um monômero se combina com o grupo hidroxila de outro monômero, liberando uma molécula de água. Ao mesmo tempo, os monômeros compartilham elétrons e formam ligações covalentes. À medida que monômeros adicionais se juntam, esta cadeia de monômeros repetidos forma um polímero. Diferentes tipos de monômeros podem se combinar em muitas configurações, dando origem a um grupo diverso de macromoléculas. Mesmo um tipo de monômero pode se combinar de várias maneiras para formar vários polímeros diferentes: por exemplo, monômeros de glicose são os constituintes do amido, glicogênio e celulose.


Mais entropia: átomo ou macromolécula? - Biologia

Nota: este documento irá imprimir em um formato devidamente modificado (13 páginas)

Entropia é um dos conceitos mais fundamentais da ciência física, com consequências de longo alcance que vão da cosmologia à química. Também é amplamente mal representado como uma medida de & quotdesordem & quot, conforme discutiremos a seguir. O físico alemão Rudolf Clausius originou o conceito de & quotenergia desperdiçada & quot no início da década de 1850, e sua definição passou por uma série de definições mais precisas nos 15 anos seguintes.

A página anterior explicou como a tendência da energia térmica de se dispersar o mais amplamente possível é o que impulsiona todos os processos espontâneos, incluindo, é claro reações químicas. Agora precisamos entender como a direção e extensão da propagação e compartilhamento de energia podem estar relacionadas às propriedades termodinâmicas mensuráveis ​​de substâncias & # 151, isto é, de reagentes e produtos.

Você deve se lembrar que quando uma quantidade de calor q flui de um corpo mais quente para um mais frio, permitindo que a energia térmica disponível se espalhe e povoe mais microestados, que a proporção q/T mede a extensão dessa propagação de energia. Acontece que podemos generalizar isso para outros processos também, mas há uma dificuldade em usar q porque não é uma função de estado, seu valor depende do caminho ou da maneira pela qual um processo é realizado. Isso significa, é claro, que o quociente q/T também não pode ser uma função de estado, portanto, não podemos usá-la para obter diferenças entre reagentes e produtos como fazemos com as outras funções de estado. A maneira de contornar isso é restringir nossa consideração a uma classe especial de caminhos que são descritos como reversível.

Diz-se que uma mudança ocorre de forma reversível quando pode ser realizada em uma série de etapas infinitas, cada uma das quais pode ser desfeita por meio de uma mudança igualmente minuciosa nas condições que provocam a mudança.

Por exemplo, a expansão reversível de um gás pode ser alcançada reduzindo a pressão externa em uma série de etapas infinitas, a reversão de qualquer etapa restaurará o sistema e os arredores ao seu estado anterior. Da mesma forma, o calor pode ser transferido reversivelmente entre dois corpos, alterando a diferença de temperatura entre eles em etapas infinitas, cada uma das quais pode ser desfeita invertendo a diferença de temperatura.

O exemplo mais citado de um irreversível mudança é a livre expansão de um gás no vácuo. Embora o sistema sempre possa ser restaurado ao seu estado original pela recompressão do gás, isso exigiria que os arredores realizassem um trabalho no gás. Uma vez que o gás não funciona no ambiente em uma expansão livre (a pressão externa é zero, então PΔV = 0), haverá uma mudança permanente no entorno. Outro exemplo de mudança irreversível é a conversão do trabalho mecânico em calor de fricção, não há como, ao reverter o movimento de um peso ao longo de uma superfície, que o calor liberado devido ao atrito possa ser restaurado ao sistema.

Expansão e compressão de gás reversível e irreversível

Esses diagramas mostram a mesma expansão e compressão & plusmn & # 916V realizada em diferentes números de etapas, variando de uma única etapa na parte superior a um número "infinito" de etapas na parte inferior. À medida que o número de etapas aumenta, os processos se tornam menos irreversíveis, ou seja, a diferença entre o trabalho feito na expansão e o necessário para recomprimir o gás diminui. No limite de um número & # 148infinito & # 148 de etapas (parte inferior), esses termos de trabalho são idênticos e tanto o sistema quanto os arredores (o & # 147world & # 148) permanecem inalterados pelo ciclo de expansão-compressão. Em todos os outros casos, o sistema (o gás) é restaurado ao seu estado inicial, mas o arredores estão mudados para sempre.

Uma mudança reversível é aquela realizada de tal forma que, ao ser desfeita, tanto o sistema quanto o ambiente (ou seja, o mundo) permanecem inalterados.

Reversível = impossível: então por que se preocupar?

Não é preciso dizer, é claro, que qualquer processo que prossiga em etapas infinitas iria demorar infinitamente para ocorrer, então a reversibilidade termodinâmica é uma idealização que nunca é alcançada em processos reais, exceto quando o sistema já está em equilíbrio, caso em que nenhuma mudança ocorrerá de qualquer maneira! Então, por que o conceito de processo reversível é tão importante?

A resposta pode ser vista lembrando que a mudança na energia interna que caracteriza qualquer processo pode ser distribuída em uma infinidade de maneiras entre o fluxo de calor através dos limites do sistema e o trabalho realizado no ou pelo sistema, conforme expresso pelo & # 916você = q + C . Cada combinação de q e C representa um caminho diferente entre os estados inicial e final. Pode ser mostrado que, como um processo como a expansão de um gás é realizado em séries sucessivamente mais longas de etapas menores, o valor absoluto de q aproxima-se de um mínimo, e o de C aproxima-se de um máximo que é característico do processo específico.

Assim, quando um processo é realizado de forma reversível, o C-termo na expressão da Primeira Lei tem seu maior valor possível, e o q-term está no seu menor. Essas quantidades especiais Cmax e qmin (que denotamos como qrev e pronunciar & # 147q-reversível & # 148) têm valores únicos para qualquer processo dado e são, portanto, funções de estado.

Trabalho e reversibilidade

Observe que a condição reversível implica Cmax e qmin. A impossibilidade de extrair tudo da energia interna como trabalho é essencialmente uma declaração da segunda lei.

Para um processo que troca reversivelmente uma quantidade de calor qrev com os arredores, a mudança de entropia é definida como

Esta é a forma básica de avaliar & DeltaS para processos de temperatura constante, como mudanças de fase ou expansão isotérmica de um gás. Para processos nos quais a temperatura não é constante, como aquecimento ou resfriamento de uma substância, a equação deve ser integrada sobre a faixa de temperatura necessária, como na Eq (2-3) adiante.

. mas se nenhum processo real pode ocorrer reversivelmente, para que serve uma expressão envolvendo qrev? Este é um ponto bastante delicado que você deve entender: embora a transferência de calor entre o sistema e os arredores seja impossível de se conseguir de uma maneira verdadeiramente reversível, este caminho idealizado é apenas crucial para a definição de & # 916S em virtude de ser uma função de estado, o mesmo valor de & # 916S será aplicado quando o sistema sofrer a mesma alteração líquida por meio de qualquer caminho. Por exemplo, a mudança de entropia que um gás sofre quando seu volume é dobrado em temperatura constante será a mesma, independentemente de a expansão ser realizada em 1000 pequenas etapas (tão reversíveis quanto a paciência provavelmente permitir) ou por uma única etapa ( o caminho mais irreversível possível!) expansão no vácuo.

Este & # 147 espalhar e compartilhar & # 148 pode espalhar a energia térmica em um volume maior de espaço ou seu compartilhamento entre microestados anteriormente inacessíveis do sistema. A tabela a seguir mostra como esse conceito se aplica a vários processos comuns.

Sistema e processo

Fonte de aumento de entropia do sistema

Entropia é uma quantidade, isto é, é proporcional à quantidade de matéria em um sistema, portanto, 100 g de cobre metálico tem o dobro da entropia de 50 g na mesma temperatura. Isso faz sentido porque o pedaço maior de cobre contém o dobro dos níveis de energia quantizados capazes de conter a energia térmica.

Entropia e & quotdesordem & quot

A entropia ainda é descrita, principalmente em livros didáticos mais antigos, como uma medida de desordem. Em um sentido técnico estrito, isso é correto, uma vez que a distribuição e o compartilhamento da energia térmica tem o efeito de randomizar a disposição da energia térmica dentro de um sistema. Mas simplesmente igualar entropia com & # 147desordem & # 148 sem qualificação adicional é extremamente enganoso porque é muito fácil esquecer que a entropia (e a termodinâmica em geral) se aplica apenas a sistemas de nível molecular capazes de trocar energia térmica com o ambiente. Levar esses conceitos aos macrossistemas pode produzir analogias convincentes, mas não é mais ciência. é muito melhor evitar totalmente o termo & # 147desordem & # 148 ao discutir entropia.


Fig. 2-1 [fonte]

Sim, acontece, mas não tem nada a ver com entropia termodinâmica!

E sobre o mesmo assunto, aqui estão alguns vídeos interessantes do YouTube:

Entropia e probabilidade

Como foi explicado na lição anterior, a distribuição de energia térmica em um sistema é caracterizada pelo número de microestados quantizados que são acessíveis (ou seja, entre os quais a energia pode ser compartilhada), quanto mais destes houver, maior será a entropia do sistema. Esta é a base de uma definição alternativa (e mais fundamental) de entropia

no qual k é a constante de Boltzmann (a constante de gás por molécula, 1,3810 & # 15023 J K & # 1501) e & # 937 (ômega) é o número de microestados que correspondem a um dado macroestado do sistema. Quanto mais microestados, maior é a probabilidade de o sistema estar no macroestado correspondente. Para qualquer macroestado fisicamente realizável, a quantidade & # 937 é um número inimaginavelmente grande, normalmente em torno de um mol. Em comparação, o número de átomos que constituem a Terra é cerca de 10 50. Mas, embora esteja além da compreensão humana comparar números que parecem beirar o infinito, a energia térmica contida nos sistemas físicos reais consegue descobrir a maior dessas quantidades sem nenhuma dificuldade, estabelecendo-se rapidamente no macroestado mais provável para um determinado conjunto de condições.

O motivo S depende do logaritmo de & # 937 é fácil de entender. Suponha que temos dois sistemas (recipientes de gás, digamos) com S1, Ω1 e S2, Ω2. Se agora redefinirmos isso como um único sistema (sem realmente misturar os dois gases), então a entropia do novo sistema será S = S1 + S2 mas o número de microestados será o produto & # 9371Ω2 porque para cada estado do sistema 1, o sistema 2 pode estar em qualquer um dos & # 9372 estados. Porque ln (& # 9371Ω2) = ln & # 9371 + ln & # 9372, a aditividade da entropia é preservada.

Entropia, equilíbrio e direção do tempo

Se alguém pudesse fazer um filme mostrando os movimentos de átomos individuais de um gás ou de um sistema de reação química em estado de equilíbrio, não havia como determinar, ao assisti-lo, se o filme estava passando para frente ou para trás. Os físicos descrevem isso dizendo que tais sistemas possuem simetria de reversão de tempo nem a mecânica clássica nem a quântica oferecem qualquer pista sobre a direção do tempo.

Mas quando um filme em exibição muda no macronível escópico está sendo reproduzido ao contrário, a estranheza é totalmente aparente para qualquer um se você vir livros voando de uma mesa ou chá sendo sugado de volta para um saquinho de chá (ou uma reação química em reverso), você saberá imediatamente que algo está errado. Nesse nível, o tempo claramente tem uma direção, e freqüentemente se nota que, como a entropia do mundo como um todo sempre aumenta e nunca diminui, é a entropia que dá ao tempo sua direção. É por esse motivo que a entropia é às vezes chamada de & quottime's arrow & quot (veja este excelente artigo da Wikipedia sobre o assunto).

Mas há um problema aqui: a termodinâmica convencional é capaz de definir a mudança de entropia apenas para processos reversíveis que, como sabemos, levam um tempo infinitamente longo para serem executados. Portanto, somos confrontados com o aparente paradoxo de que a termodinâmica, que lida apenas com as diferenças entre os estados e não as viagens entre eles, é incapaz de descrever o próprio processo de mudança pelo qual temos consciência do fluxo do tempo.

Um ensaio muito interessante de Peter Coveney, da University of Wales, oferece uma possível solução para esse problema.

A direção do tempo é revelada ao químico pelo progresso de uma reação em direção ao seu estado de equilíbrio, uma vez que o equilíbrio é alcançado, a mudança líquida que leva a ele cessa e, do ponto de vista daquele sistema particular, o fluxo do tempo cessa.

Se estendermos a mesma ideia para o sistema muito maior do mundo como um todo, isso leva ao conceito de & quotheat a morte do universo & quot, que foi mencionado brevemente na lição anterior. (Veja aqui um resumo das várias interpretações deste conceito.)

Os valores de energia, como você sabe, são todos relativos e devem ser definidos em uma escala completamente arbitrária - não existe energia absoluta de uma substância, portanto podemos definir arbitrariamente a entalpia ou energia interna de um elemento em seu forma mais estável a 298K e pressão de 1 atm como zero.

O mesmo é não verdadeiro para a entropia, uma vez que a entropia é uma medida da diluição & # 148 da energia térmica, segue-se que quanto menos energia térmica disponível para se espalhar através de um sistema (ou seja, quanto mais baixa a temperatura), menor será sua entropia. Em outras palavras, conforme a temperatura absoluta de uma substância se aproxima de zero, o mesmo ocorre com sua entropia.

Este princípio é a base do, que afirma que a entropia de um sólido perfeitamente ordenado a 0 & deg K é zero.

Como as entropias são medidas

O de uma substância em qualquer temperatura acima de 0 & deg K deve ser determinado calculando os incrementos de calor q necessário para trazer a substância de 0 & deg K para a temperatura de interesse e, em seguida, somar as razões q/T . Dois tipos de medições experimentais são necessários:

  1. As entalpias associadas a qualquer mudanças de fase a substância pode sofrer dentro da faixa de temperatura de interesse. O derretimento de um sólido e a vaporização de um líquido correspondem a aumentos consideráveis ​​no número de microestados disponíveis para aceitar a energia térmica, portanto, à medida que esses processos ocorrem, a energia flui para um sistema, preenchendo esses novos microestados na medida necessária para manter uma temperatura constante (o ponto de congelamento ou ebulição) esses influxos de energia térmica correspondem aos calores de fusão e vaporização. O aumento de entropia associado ao derretimento, por exemplo, é apenast & # 916Hfusão/ Tm.
  2. o capacidade de calorC de uma fase expressa a quantidade de calor necessária para alterar a temperatura em uma pequena quantidade & # 916T , ou mais precisamente, por uma quantidade infinita-essencial dT . Assim, o aumento de entropia provocado pelo aquecimento de uma substância em uma faixa de temperaturas que não abrange uma transição de fase é dado pela soma das quantidades C dT / T para cada incremento de temperatura dT . É claro que isso é apenas o integral

Como a capacidade de calor é ela mesma ligeiramente dependente da temperatura, as determinações mais precisas de entropias absolutas requerem que a dependência funcional de C sobre T ser usado na integral acima no lugar de uma constante C . Quando isso não é conhecido, pode-se fazer uma série de medições de capacidade de calor em incrementos estreitos de temperatura & # 916T e meça a área sob cada seção da curva.

Fig 2-2 A área sob cada seção do gráfico representa a mudança de entropia associada ao aquecimento da substância através de um intervalo e DeltaT. A isso devem ser adicionadas as entalpias de fusão, vaporização e de quaisquer mudanças de fase sólido-sólido. Valores de Cp pois temperaturas próximas a zero não são medidas diretamente, mas devem ser estimadas a partir da teoria quântica.

Fig 2-3 As áreas cumulativas de 0 K a qualquer temperatura (tirada do gráfico experimental à esquerda) são então plotadas como uma função de T, e quaisquer entropias de mudança de fase, como Svapor = Hvapor / Tb são adicionados para obter a entropia absoluta na temperatura T.

Como a entropia muda com a temperatura

Conforme mostrado na Fig 2-3 acima, a entropia de uma substância aumenta com a temperatura, e isso acontece por duas razões:

  • Conforme a temperatura aumenta, mais microestados se tornam acessíveis, permitindo que a energia térmica seja mais amplamente dispersa. Isso se reflete no aumento gradual da entropia com a temperatura.
  • As moléculas de sólidos, líquidos e gases têm cada vez mais liberdade de movimento, facilitando a difusão e o compartilhamento da energia térmica. Mudanças de fase são, portanto, acompanhadas por aumento maciço e descontínuo na entropia.

O valor de uma substância é sua entropia à pressão de 1 atm. Os valores encontrados nas tabelas são normalmente aqueles para 298K e são expressos em unidades de J K & # 1501 mol & # 1501. A tabela abaixo mostra alguns valores típicos para substâncias gasosas.

Ele 126 H2 131 CH4 186
Ne 146 N2 192 H2O (g) 187
Ar 155 CO 197 CO2 213
Kr 164 F2 203 C2H6 229
Xe 170 O2 205 n -C3H8 270
Cl2 223 n -C4H10 310

Tabela 1: Entropias padrão de alguns gases em 298K, J K & # 1501 mol & # 1501

Observe especialmente como os valores fornecidos nesta tabela ilustram esses pontos importantes:

  • Embora as energias e entalpias internas padrão dessas substâncias sejam zero, as entropias não são. Isso ocorre porque não há escala absoluta de energia, portanto, convencionalmente definimos as & # 147energias de formação & # 148 dos elementos em seus estados padrão para zero. A entropia, entretanto, mede não a energia em si, mas sua dispersão entre os vários estados quânticos disponíveis para aceitá-la, e estes existem mesmo em elementos puros.
  • É evidente que as entropias geralmente aumentam com o peso molecular. Para os gases nobres, é claro que isso é um reflexo direto do princípio de que os estados quânticos translacionais são mais compactados em moléculas mais pesadas, permitindo que sejam ocupadas.
  • As entropias das moléculas diatômicas e poliatômicas mostram os efeitos adicionais dos níveis quânticos rotacionais.

Tabela 2: Entropias de alguns elementos sólidos em 298 K, J K & # 1501 mol & # 1501

As entropias dos elementos sólidos são fortemente influenciadas pela maneira como os átomos estão ligados uns aos outros. O contraste entre diamante e grafite é particularmente notável. A grafite, que é composta de pilhas de folhas hexagonais, parece ser duas vezes mais boa em absorver energia térmica do que o diamante, no qual os átomos de carbono estão firmemente presos em um rede tridimensional, proporcionando-lhes menos oportunidade de vibrar em torno de suas posições de equilíbrio. Olhando para todos os exemplos na tabela acima, você notará uma correlação inversa geral entre a dureza de um sólido e sua entropia. Assim, o sódio, que pode ser cortado com uma faca, tem quase duas vezes a entropia do ferro - a entropia muito maior do chumbo reflete tanto seu alto peso atômico quanto a relativa maciez desse metal. Essas tendências são consistentes com o princípio frequentemente expresso de que quanto mais & # 147 desordenada & # 148 uma substância, maior sua entropia.

Tabela 3: Entropia de água a 298K,
J K & # 1501 mol & # 1501

Gases, que servem como veículos eficientes para espalhar energia térmica por um grande volume de espaço, têm entropias muito maiores do que as fases condensadas. Da mesma forma, os líquidos têm entropias mais altas do que os sólidos devido à multiplicidade de maneiras pelas quais as moléculas podem interagir (ou seja, armazenar energia).

À medida que uma substância se torna mais dispersa no espaço, a energia térmica que ela carrega também se espalha por um volume maior, levando a um aumento em sua entropia.

Como a entropia, como a energia, é uma propriedade extensa, uma solução diluída de uma determinada substância pode muito bem possuir uma entropia menor do que o mesmo volume de uma solução mais concentrada, mas a entropia por mole de soluto (o molar entropia), é claro, sempre aumentará à medida que a solução se torna mais diluída.

Para substâncias gasosas, o volume e a pressão são, respectivamente, medidas diretas e inversas de concentração. Para um gás ideal que se expande a uma temperatura constante (o que significa que absorve calor do ambiente para compensar o trabalho que realiza durante a expansão), o aumento da entropia é dado por

(Se for permitido que o gás resfrie durante a expansão, a relação se torna mais complicada e será melhor discutida em um curso mais avançado.)

Como a pressão de um gás é inversamente proporcional ao seu volume, podemos facilmente alterar a relação acima para expressar a mudança de entropia associada a uma mudança na pressão de um gás perfeito:

Expressando a mudança de entropia diretamente nas concentrações, temos a relação semelhante

Embora essas equações se apliquem estritamente apenas a gases perfeitos e não possam ser usadas para líquidos e sólidos, verifica-se que, em uma solução diluída, o soluto pode muitas vezes ser tratado como um gás disperso no volume da solução, então a última equação pode realmente fornecer um valor bastante preciso para a entropia de diluição de uma solução. Veremos mais tarde que isso tem consequências importantes na determinação das concentrações de equilíbrio em uma mistura de reação homogênea.

(Espera-se que você seja capaz de definir e explicar o significado dos termos identificados em.)

  • A é executado em etapas infinitas após as quais, quando desfeito, tanto o sistema quanto o ambiente (ou seja, o mundo) permanecem inalterados. (Veja o exemplo de expansão-compressão de gás dado acima.) Embora a verdadeira mudança reversível não possa ser realizada na prática, ela sempre pode ser aproximada.
  • A soma do (q) e (C) associado a um processo é definido pelo & # 916você = q + C . Calor e trabalho em si não são funções de estado e, portanto, dependem do particular em que um processo é executado.
  • Como um processo é realizado de forma mais reversível, o valor de C aproxima-se de seu valor máximo possível, e q aproxima-se do seu valor mínimo possível.
  • Embora q não é uma função de estado, o quociente qrev/ T é e é conhecido como.
  • Entropia é uma medida de dentro de um sistema.
  • A entropia de uma substância aumenta com seu peso molecular e complexidade e com a temperatura. A entropia também aumenta à medida que a pressão ou concentração se torna menor. Entropias de gases são muito maiores do que as de fases condensadas.
  • O valor de uma substância pura em uma determinada temperatura é a soma de toda a entropia que ela adquiriria ao se aquecer do zero absoluto (onde S= 0) para a temperatura particular.

Última modificação da página: 14.01.2019

e cópia 2003, 2007 por Stephen Lower - Simon Fraser University - Burnaby / Vancouver Canadá

Para obter informações sobre este site ou para entrar em contato com o autor,
por favor veja o Livro Virtual Chem1 pagina inicial.


Resumo

Há muito se reconhece que a estrutura química influencia muito a formação do vidro polimérico, mas uma teoria molecular geral que prevê como a estrutura química determina as propriedades dos polímeros formadores de vidro tem se desenvolvido lentamente. Enquanto a teoria de entropia generalizada (GET) explica a influência de vários detalhes moleculares na formação de vidro de polímero, a aplicação de GET até agora foi limitada ao uso do modelo de polímero mais simples no qual todos os grupos de átomos unidos dentro dos monômeros de uma espécie interagem com um monômero comum energia média de van der Waals. No entanto, heterogeneidades energéticas são onipresentes dentro dos monômeros de polímeros reais, e suas implicações para a formação de vidro polimérico ainda precisam ser investigadas teoricamente. Este artigo usa uma extensão do GET para explorar a influência das heterogeneidades energéticas dentro dos monômeros sobre a natureza da formação do vidro polimérico. Esta extensão do GET é alcançada combinando a teoria de Adam-Gibbs relacionando o tempo de relaxação estrutural à entropia configuracional com uma extensão significativa recente da teoria do cluster de rede para fundidos de polímero com interações específicas, em particular, para fundidos onde três van der distintos As energias de interação de Waals são necessárias para descrever as heterogeneidades energéticas dentro dos monômeros. O presente trabalho se concentra em estabelecer tendências gerais para a variação das propriedades características da formação do vidro, como o parâmetro de fragilidade isobárica. mP e a temperatura de transição vítrea Tg, com detalhes moleculares, como as interações específicas e rigidez da cadeia. Nossos cálculos confirmam que o modelo usado anteriormente com interações médias de monômero captura corretamente as tendências gerais na variação de mP e Tg com vários parâmetros moleculares. Mais importante, o ajuste das heterogeneidades energéticas dentro dos monômeros por si só é mostrado para fornecer um mecanismo eficiente para ajustar as propriedades dos polímeros formadores de vidro. As variações das propriedades do polímero ao longo da isofragilidade e isoTg as linhas são ilustradas como ferramentas de design importantes para exibir a influência combinada de interações específicas e rigidez da cadeia.


Átomos

A Estrutura do Atom

Para entender como os elementos se unem, devemos primeiro discutir o menor componente ou bloco de construção de um elemento, o átomo. Um átomo é a menor unidade de matéria que retém todas as propriedades químicas de um elemento. Por exemplo, um átomo de ouro tem todas as propriedades do ouro por ser um metal sólido à temperatura ambiente. Uma moeda de ouro é simplesmente um grande número de átomos de ouro moldados na forma de uma moeda e contendo pequenas quantidades de outros elementos conhecidos como impurezas. Os átomos de ouro não podem ser decompostos em nada menor enquanto ainda retêm as propriedades do ouro.

Um átomo é composto por duas regiões: o núcleo, que está no centro do átomo e contém prótons e nêutrons, e a região mais externa do átomo que mantém seus elétrons em órbita ao redor do núcleo, conforme ilustrado na Figura 1. Os átomos contêm prótons, elétrons e nêutrons, entre outros subatômicos partículas. A única exceção é o hidrogênio (H), que é feito de um próton e um elétron sem nêutrons.

Figura 1. Elementos, como o hélio, representados aqui, são feitos de átomos. Os átomos são compostos de prótons e nêutrons localizados dentro do núcleo, com elétrons em orbitais ao redor do núcleo.

Prótons e nêutrons têm aproximadamente a mesma massa, cerca de 1,67 × 10–24 gramas. Os cientistas definem arbitrariamente essa quantidade de massa como uma unidade de massa atômica (amu) ou um Dalton, conforme mostrado na Tabela 1. Embora semelhantes em massa, prótons e nêutrons diferem em sua carga elétrica. UMA próton tem carga positiva, enquanto um nêutron está descarregado. Portanto, o número de nêutrons em um átomo contribui significativamente para sua massa, mas não para sua carga. Elétrons são muito menores em massa do que os prótons, pesando apenas 9,11 × 10 -28 gramas, ou cerca de 1/1800 de uma unidade de massa atômica. Portanto, eles não contribuem muito para a massa atômica geral de um elemento. Portanto, ao considerar a massa atômica, é comum ignorar a massa de quaisquer elétrons e calcular a massa do átomo com base apenas no número de prótons e nêutrons. Embora não contribuam significativamente para a massa, os elétrons contribuem muito para a carga do átomo, pois cada elétron tem uma carga negativa igual à carga positiva de um próton. Em átomos neutros sem carga, o número de elétrons orbitando o núcleo é igual ao número de prótons dentro do núcleo. Nesses átomos, as cargas positivas e negativas se cancelam, levando a um átomo sem carga líquida.

Levando em consideração o tamanho dos prótons, nêutrons e elétrons, a maior parte do volume de um átomo - maior que 99 por cento - é, na verdade, espaço vazio. Com todo esse espaço vazio, pode-se perguntar por que os chamados objetos sólidos não passam simplesmente uns pelos outros. O motivo pelo qual não o fazem é que os elétrons que circundam todos os átomos têm carga negativa e cargas negativas se repelem.

Tabela 1. Prótons, nêutrons e elétrons
Cobrar Missa (amu) Localização
Próton +1 1 núcleo
Nêutron 0 1 núcleo
Elétron –1 0 orbitais

Número atômico e massa

Os átomos de cada elemento contêm um número característico de prótons e elétrons. O número de prótons determina um elemento & # 8217s número atômico e é usado para distinguir um elemento de outro. O número de nêutrons é variável, resultando em isótopos, que são formas diferentes do mesmo átomo que variam apenas no número de nêutrons que possuem. Juntos, o número de prótons e o número de nêutrons determinam o número de massa de um elemento & # 8217s, conforme ilustrado na Figura 2. Observe que a pequena contribuição da massa dos elétrons é desconsiderada no cálculo do número de massa. Essa aproximação de massa pode ser usada para calcular facilmente quantos nêutrons um elemento possui, simplesmente subtraindo o número de prótons do número de massa. Uma vez que os isótopos de um elemento & # 8217s terão números de massa ligeiramente diferentes, os cientistas também determinam o massa atômica, que é a média calculada do número de massa para seus isótopos que ocorrem naturalmente. Freqüentemente, o número resultante contém uma fração. Por exemplo, a massa atômica do cloro (Cl) é 35,45 porque o cloro é composto de vários isótopos, alguns (a maioria) com massa atômica 35 (17 prótons e 18 nêutrons) e alguns com massa atômica 37 (17 prótons e 20 nêutrons) .

Pergunta Prática

O carbono tem um número atômico de seis e dois isótopos estáveis ​​com números de massa de doze e treze, respectivamente. Sua massa atômica é 12,11.

Figura 2. Carbono-12 e carbono-13

Quantos nêutrons o carbono-12 e o carbono-13 têm, respectivamente?


Afetando Entropia

Vários fatores afetam a quantidade de entropia em um sistema. Se você aumenta a temperatura, aumenta a entropia.

(1) Mais energia colocada em um sistema excita as moléculas e a quantidade de atividade aleatória.

(2) À medida que um gás se expande em um sistema, a entropia aumenta. Este também é fácil de visualizar. Se um átomo tiver mais espaço para pular, ele vai pular mais. Gases e plasmas possuem grande entropia quando comparados a líquidos e sólidos.

(3) Quando um sólido se torna um líquido, sua entropia aumenta.

(4) Quando um líquido se torna um gás, sua entropia aumenta. Acabamos de falar sobre essa ideia. Se você der aos átomos mais espaço para se moverem, eles se moverão. Você também pode pensar nisso em termos de energia colocada em um sistema. Se você adicionar energia a um sólido, ele pode se tornar um líquido. Os líquidos têm mais energia e entropia do que os sólidos.

(5) Qualquer reação química que aumente o número de moléculas de gás também aumenta a entropia. Uma reação química que aumenta o número de moléculas de gás seria uma reação que derrama energia em um sistema. Mais energia dá a você maior entropia e aleatoriedade dos átomos.






Mais entropia: átomo ou macromolécula? - Biologia

Às vezes, as pessoas dizem que a vida viola a segunda lei da termodinâmica. Este não é o caso de não sabermos de nada no universo que viole essa lei. Então, por que as pessoas dizem que a vida viola a segunda lei da termodinâmica? Qual é a segunda lei da termodinâmica?

A segunda lei é uma lei direta da física com a conseqüência de que, em um sistema fechado, você não pode terminar nenhum processo físico real com tanta energia útil quanto tinha para começar & # 8212, alguma é sempre desperdiçada. Isso significa que uma máquina de movimento perpétuo é impossível. A segunda lei foi formulada depois que os engenheiros do século XIX perceberam que o calor não pode passar de um corpo mais frio para um corpo mais quente sozinho.

Segundo o filósofo da ciência Thomas Kuhn, a segunda lei foi expressa pela primeira vez por dois cientistas, Rudolph Clausius e William Thomson (Lord Kelvin), usando diferentes exemplos, em 1850-51 (2). O físico quântico americano Richard P. Feynman, entretanto, diz que o físico francês Sadi Carnot descobriu a segunda lei 25 anos antes (3). Isso teria sido antes da primeira lei, a conservação de energia, ser descoberta (3.5)! Em qualquer caso, os cientistas modernos concordam completamente com os princípios acima.

Entropia Termodinâmica

A primeira oportunidade para confusão surge quando introduzimos o termo entropia na mistura. Clausius inventou o termo em 1865. Ele notou que uma certa proporção era constante em ciclos de calor reversíveis ou ideais. A proporção foi trocada por calor para a temperatura absoluta. Clausius decidiu que a razão conservada deve corresponder a uma quantidade física real, e ele a chamou de "entropia".

Certamente, nem toda proporção conservada corresponde a uma quantidade física real. O acidente histórico introduziu este termo na ciência. Em outro planeta, poderia haver física sem o conceito de entropia. Carece completamente de clareza intuitiva. Até o grande físico James Clerk Maxwell entendeu por um tempo (4). No entanto, o termo permaneceu.

o American Heritage Dictionary dá como a primeira definição de entropia, "Para um sistema fechado, a medida quantitativa da quantidade de energia térmica não disponível para fazer o trabalho." Portanto, é um tipo de quantidade negativa, o oposto da energia disponível.

Hoje, é costume usar o termo entropia para declarar a segunda lei: A entropia em um sistema fechado nunca pode diminuir. Enquanto a entropia é definida como energia indisponível, esta paráfrase da segunda lei é equivalente às anteriores acima. Em um sistema fechado, a energia disponível nunca pode aumentar, então (porque a energia é conservada) seu complemento, a entropia, nunca pode diminuir.

Uma demonstração familiar da segunda lei é o fluxo de calor das coisas quentes para as frias, e nunca vice-versa. Quando uma pedra quente é jogada em um balde com água fria, a pedra esfria e a água esquenta até que cada uma tenha a mesma temperatura que a outra. Durante este processo, a entropia do sistema aumenta. Se você conhece as capacidades de calor e as temperaturas iniciais da pedra e da água, e a temperatura final da água, pode quantificar o aumento de entropia em calorias ou joules por grau.

Você deve ter notado as palavras "sistema fechado" algumas vezes acima. Considere simplesmente um balde preto de água inicialmente na mesma temperatura do ar ao seu redor. Se o balde for colocado sob a luz do sol forte, ele irá absorver o calor do sol, como acontece com as coisas pretas. Agora a água fica mais quente do que o ar ao seu redor e a energia disponível aumentou. Tem entropia diminuiu? A energia que antes não estava disponível tornou-se disponível em sistema fechado? Não, este exemplo é apenas uma violação aparente da segunda lei. Como a luz solar foi admitida, o sistema local não foi fechado, a energia da luz solar foi fornecida de fora do sistema local. Se considerarmos o sistema maior, incluindo o sol, a energia disponível diminuiu e a entropia aumentou conforme necessário.

Vamos chamar esse tipo de entropia entropia termodinâmica. O qualificador "termodinâmico" é necessário porque a palavra entropia também é usada em outro sentido não-hermodinâmico.

Entropia Lógica

Entropia também é usada para significar desorganização ou desordem. J. Willard Gibbs, o físico teórico americano do século XIX, chamou isso de "confusão". o American Heritage Dictionary dá como segunda definição de entropia, "uma medida de desordem ou aleatoriedade em um sistema fechado." Novamente, é um conceito negativo, desta vez o oposto de organização ou ordem. O termo passou a ter esse segundo significado graças ao grande físico austríaco Ludwig Boltzmann.

O modelo também poderia ser usado para mostrar que dois tipos diferentes de gases se misturariam completamente. O raciocínio que ele usou para a mistura é muito semelhante ao da difusão do calor, mas há uma diferença importante. Na difusão do calor, o aumento da entropia pode ser medido pela razão das unidades físicas, joules por grau. Na mistura de dois tipos de gases já na mesma temperatura, se nenhuma energia for dissipada, a razão de joules por grau & # 8212 entropia termodinâmica & # 8212 é irrelevante. O processo de mistura não dissipativo está relacionado à difusão do calor apenas por analogia (5). No entanto, Boltzmann usou um fator, k, agora chamada de constante de Boltzmann, para anexar unidades físicas à última situação. Agora, a palavra entropia passou a ser aplicada também ao processo simples de mistura. (Claro, a constante de Boltzmann tem um uso legítimo & # 8212 ela relaciona a energia cinética média de uma molécula a sua temperatura.)

A entropia, neste último sentido, passou a ser usada nos campos crescentes da ciência da informação, ciência da computação, teoria da comunicação, etc. A história costuma ser contada que, no final dos anos 1940, John von Neumann, um pioneiro da era do computador, aconselhou a comunicação -teorista Claude E. Shannon para começar a usar o termo "entropia" ao discutir informações porque "ninguém sabe o que realmente é entropia, então em um debate você sempre terá a vantagem" (6).

Richard Feynman sabia que há uma diferença entre os dois significados de entropia. Ele discutiu a entropia termodinâmica na seção chamada "Entropia" de seu Aulas de Física publicado em 1963 (7), usando unidades físicas, joules por grau e mais de uma dúzia de equações (vol I, seção 44-6). Ele discutiu o segundo significado de entropia em uma seção diferente intitulada "Ordem e entropia" (vol I seção 46-5) da seguinte forma:

Este é o modelo de Boltzmann novamente. Observe que Feynman não usa a constante de Boltzmann. Ele não atribui unidades físicas a este tipo de entropia, apenas um número (um logaritmo). E ele não usa uma única equação nesta seção de seu Palestras.

Observe outra coisa. O "número de maneiras" só pode ser estabelecido dividindo-se primeiro artificialmente o espaço em pequenos elementos de volume. Este não é um ponto pequeno. Em todas as situações físicas reais, contar o número de arranjos possíveis requer um parcelamento arbitrário. Como Peter Coveney e Roger Highfield dizem (7,5):

No mesmo artigo, Shannon não atribui unidades físicas à sua entropia e nunca menciona a constante de Boltzmann, k. Em um ponto, ele apresenta brevemente K, dizendo concisamente, "A constante K equivale apenas a uma escolha de uma unidade de medida "(p 11). Embora o papel de 55 páginas contenha mais de 300 equações, K aparece apenas mais uma vez, no Apêndice 2, que conclui, "A escolha do coeficiente K é uma questão de conveniência e equivale à escolha de uma unidade de medida ”(p 29). Shannon nunca especifica a unidade de medida.

Esse tipo de entropia é claramente diferente. As unidades físicas não pertencem a ele e (exceto no caso de informação digital) uma convenção arbitrária deve ser imposta antes que possa ser quantificado. Para distinguir este tipo de entropia da entropia termodinâmica, vamos chamá-la entropia lógica.

A equação S = k logW + const aparece sem uma teoria elementar & # 8211 ou como se quer dizer & # 8211 sem qualquer significado do ponto de vista fenomenológico & # 8212 Albert & # 160Einstein, & # 1601910 & # 160 (8.5)

Apesar da importante distinção entre os dois significados de entropia, a regra conforme declarada acima para a entropia termodinâmica parece se aplicar, no entanto, ao tipo lógico: a entropia em um sistema fechado nunca pode diminuir. E realmente, não haveria nada de misterioso sobre essa lei também. É semelhante a dizer as coisas nunca se organizam. (O significado original de organizar é "fornecer órgãos".) Somente essa regra tem pouco a ver com termodinâmica.

É verdade que cristais e outras configurações regulares podem ser formados por processos não guiados. E estamos acostumados a dizer que essas configurações são "organizadas". Mas os cristais não foram espontaneamente "fornecidos com órgãos". O termo correto para essas configurações regulares é "ordenado". A receita de um cristal já está presente na solução que ele cresce a partir de & # 8212; a estrutura do cristal é prescrita pela estrutura das moléculas que o compõem. A formação de cristais é o resultado direto de leis químicas e físicas que não evoluem e que são, comparadas aos programas genéticos, muito simples.

A regra de que as coisas nunca se organizam também é mantida em nossa experiência cotidiana. Sem alguém para consertar, um vidro quebrado nunca se conserta. Sem manutenção, uma casa se deteriora. Sem gerenciamento, um negócio fracassa. Sem um novo software, um computador nunca adquire novos recursos. Nunca.

Charles Darwin entendeu esse princípio universal. É bom senso. É por isso que uma vez ele fez uma anotação para si mesmo sobre a evolução: "Nunca use as palavras superior ou inferior" (9). No entanto, a palavra "superior" neste sentido proibido aparece meia dúzia de vezes na primeira edição do livro de Darwin Origem das especies (10).

  • Não há progresso na evolução. & # 8212 Stephen Jay Gould, 1995 (12)
  • Todos concordamos que não há progresso. & # 8212 Richard Dawkins, 1995 (13)
  • A falácia do progresso & # 8212 John Maynard Smith e E & # 246rs Szathm & # 225ry, 1995 (14)
  • Todas as espécies existentes são igualmente evoluídas. & # 8212 Lynn Margulis e Dorion Sagan, 1995 (11)

A vida é organização

O progresso, então, é uma propriedade da evolução da vida como um todo por quase qualquer padrão intuitivo concebível. Não pretendamos negar em nossa filosofia o que sabemos ser verdade em nosso coração. & # 8212 & # 160Edward & # 160O. & # 160Wilson & # 160 (16)

A vida é organização. De células procarióticas, células eucarióticas, tecidos e órgãos, a plantas e animais, famílias, comunidades, ecossistemas e planetas vivos, a vida é organização, em todas as escalas. A evolução da vida é o aumento da organização biológica, se é que é alguma coisa. Claramente, se a vida se origina e faz progresso evolutivo sem organizar os insumos de alguma forma fornecidos, então algo se organizou. A entropia lógica em um sistema fechado diminuiu. Essa é a violação a que as pessoas estão chegando, quando dizem que a vida viola a segunda lei da termodinâmica. Esta violação, o diminuir de entropia lógica em um sistema fechado, deve acontecer continuamente na explicação darwiniana do progresso evolutivo.

A maioria dos darwinistas simplesmente ignora esse problema impressionante. Quando confrontados com ela, procuram refúgio na confusão entre os dois tipos de entropia. A entropia [lógica] não diminuiu, dizem eles, porque o sistema não está fechado. Energia como a luz solar é constantemente fornecida ao sistema. Se você considerar o sistema maior que inclui o sol, a entropia [termodinâmica] aumentou, conforme necessário.

Livros sobre entropia e biologia, 1980-2000

Outro exemplo típico de confusão entre os dois tipos de entropia vem de um livro semelhante de Tim M. Berra, Evolução e o mito do criacionismo. O parágrafo seguinte daquele livro parece indicar que qualquer animal grande pode montar uma bicicleta (18).

Um raro exemplo do uso da matemática para combinar os dois tipos de entropia é dado em O mistério da origem da vida, publicado em 1984. Seus autores reconhecem dois tipos de entropia, que eles chamam de "térmica" e "configuracional". Para contar o "número de maneiras" do último tipo de entropia, eles usam restrições que mais tarde admitem ser irrealistas. Eles contam apenas o número de maneiras pelas quais uma cadeia de aminoácidos de comprimento fixo pode ser sequenciada. Eles admitem no final, porém, que a corda pode nunca se formar. Para impor as unidades de joules por grau à entropia "configuracional", elas simplesmente se multiplicam pela constante de Boltzmann (19). No entanto, eles finalmente chegam à seguinte conclusão (p 157-158):

No Evolução, Termodinâmica e Informação, Jeffrey S. Wicken também adota os termos "térmico" e "configuracional". Mas aqui ambos pertencem apenas ao "conteúdo de informação" não energético de um estado termodinâmico, e a informação "energética" também é necessária para a descrição completa de um sistema. A entropia de Shannon é diferente de tudo isso e não é um conceito útil para Wicken. No entanto, ele diz que a evolução e a origem da vida não são problemas separados e, "A explicação mais parcimoniosa é assumir que a vida sempre existiu" (19.5)!

O tratamento da entropia de Roger Penrose é digno de menção. No A Nova Mente do Imperador (20), ele se esquiva agilmente do problema de atribuir unidades físicas à entropia lógica (p 314, itálico de Penrose):

No A geladeira e o universo (21), Martin Goldstein e Inge F. Goldstein questionam se há "uma diferença irreconciliável" entre os dois tipos de entropia. Eles começam suas considerações sobre a entropia lógica discutindo os arranjos possíveis das cartas de jogar, onde o parcelamento não é arbitrário & # 8212, o número de possibilidades pode ser contado. Quando eles mudam para o mundo da física, eles não se preocupam com o fato de que o parcelamento agora deve ser feito arbitrariamente. Eles estão preocupados, inicialmente, em anexar unidades físicas à entropia lógica. ". A entropia é medida em unidades de energia divididas pela temperatura. C [contando microestados] é um número puro "(p. 173). Mas, em última análise, eles aplicam a constante de Boltzmann. Nenhum cálculo usando entropia lógica com unidades físicas ocorre. A próxima vez que eles mencionam entropia lógica é na seção" Informação e Entropia ", onde eles dividir o produto anterior pela constante de Boltzmann para retirar as unidades físicas!

Um tratamento ambicioso da entropia no que diz respeito à biologia é o livro Evolução como Entropia, por Daniel R. Brooks e E. O. Wiley. Eles reconhecem que a distinção entre os diferentes tipos de entropia é importante (22):

Na verdade, os autores reconhecem muitos tipos de entropia, eles descrevem a entropia física, entropia de Shannon-Weaver, entropia de coesão e entropia estatística, por exemplo. Eles raramente usam ou mencionam a constante de Boltzmann. Um de seus principais argumentos é que embora o progresso da evolução pareça representar uma redução da entropia, essa redução é apenas aparente. Na realidade, a evolução aumenta a entropia conforme exige a segunda lei. Mas a evolução não aumenta a entropia tão rápido quanto a taxa máxima possível. Então, em comparação com a taxa máxima possível, a entropia parece estar diminuindo. Nossos olhos nos enganaram!

Em outro livro intitulado A própria vida, o biólogo matemático Robert Rosen, da Universidade de Columbia, parece ter compreendido o problema ao escrever: "A Segunda Lei afirma isso. um sistema que tende autonomamente para um estado organizado não pode ser fechado "(23). Mas imediatamente ele se afasta, reclamando que o termo" organização "é vago. Na intenção de introduzir termos que prefere, como" vinculação ", ele não considera a possibilidade de que, em um sistema aberto, a organização da vida poderia ser importado para uma região de outra.

Livro de 1998 de Hans Christian von Baeyer, Demônio de Maxwell, é envolvente e informativo sobre os cientistas que foram os pioneiros da segunda lei. A história termina com uma entrevista de Wojciech Zurek, da Divisão Teórica do Laboratório Nacional de Los Alamos. Zurek apresenta outro segundo tipo de entropia, porque, "Como todas as ideias científicas, o conceito de entropia, por mais útil que seja, precisa ser recondicionado, atualizado e ajustado a novos insights. Algum dia. os dois tipos de entropia começarão a se aproximar em valor , e a nova teoria se tornará passível de verificação experimental "(23.5).

Alguns acham essas passagens obscuras e provisórias. Um crítico reclama que o trabalho ao longo das linhas defendidas por Prigogine quinze anos antes deu poucos frutos posteriormente. "Não conheço nenhum fenômeno que ele tenha explicado", disse Pierre C. Hohenberg, da Universidade de Yale (25).

Dr. Hubert P. Yockey dá ao assunto da entropia e biologia um tratamento investigativo e perspicaz em sua monografia, Teoria da informação e biologia molecular (26). Ele concorda enfaticamente que existem diferentes tipos de entropia que não se correlacionam. "A entropia de Shannon e a entropia de Maxwell-Boltzmann-Gibbs. Não têm nada a ver uma com a outra" (p 313). Mas a entropia de Shannon (que pertence à teoria da informação) não faz distinção entre sequências significativas de DNA que codificam a vida e sequências aleatórias de DNA de igual comprimento. (Shannon escreveu: "Esses aspectos semânticos da comunicação são irrelevantes para o problema de engenharia.") Sem distinção entre sequências significativas e sem sentido, Yockey é capaz de concluir que a evolução não cria nenhum paradoxo para a entropia de Shannon. No entanto, Yockey prova com impressionante comando de biologia e estatística que seria impossível encontrar os novos genes necessários para o progresso evolutivo pelo método de busca aleatório atualmente em uso. Ele é profundamente cético em relação às teorias prevalecentes da evolução e da origem da vida na Terra. (Cynthia Yockey, 2005)

Em 1999 O quinto milagre (28), o físico teórico e escritor científico Paul Davies dedica um capítulo, "Against the Tide", à relação entre entropia e biologia. Em uma nota final para esse capítulo, ele escreve: "Os organismos 'superiores' têm superiores (não inferior) entropia algorítmica. "(p 277, itálico de Davies) & # 8212 outra inversão do entendimento usual. Ele conclui:" A fonte da informação biológica, então, é o ambiente do organismo "(p 57). Mais tarde," A instabilidade induzida pela gravidade é uma fonte de informação "(p 63). Mas isso" ainda nos deixa com o problema. Como tem significativo surgiram informações no universo? ”(p. 65). Ele não responde a essa pergunta.

A pedra de toque da vida (1999) segue o curso de Prigogine, contando com a constante de Boltzmann para ligar a entropia termodinâmica e lógica (29). O autor Werner Loewenstein costuma tocar os acordes que acompanham o entendimento profundo. “Quanto à origem da informação, a nascente, esta deve estar em algum lugar do território próximo ao big bang” (p. 25). "Evidentemente, um pouco de borbulhar, rodopiar e ferver ajuda muito na organização da matéria. Essa compreensão levou ao nascimento de uma nova alquimia." (P 48-49). Exatamente.

O cientista da computação Rolf Landauer escreveu um artigo publicado em junho de 1996, que contém uma visão que deve desencorajar tentativas de vincular fisicamente os dois tipos de entropia. Ele demonstra que "não há necessidade de energia mínima inevitável por bit transmitido" (31). O uso da constante de Boltzmann para unir a entropia termodinâmica e a entropia lógica mostra-se, portanto, sem base. Pode-se objetar com razão que o requisito mínimo de energia por bit de informação não está relacionado à entropia lógica. Mas essa suposta exigência foi a pedra angular dos argumentos modernos que conectam os dois conceitos.

O que há de novo

A History of Thermodynamics (pdf de 100 páginas) por Julian Barbour, 2020.
Entropia. por que ninguém sabe o que é? "O universo tende à desordem." Por Michael Brooks, New Scientist, 04 de dezembro de 2019.
03 de março de 2019: Uma revisão de O Demônio na Máquina, de Paul Davies.
05 de novembro de 2018:. um eufemismo.
A nova termodinâmica: como a física quântica está quebrando as regras, por Zeeya Merali, Nature, 01 de novembro de 2017.
Batalha entre as leis quânticas e termodinâmicas esquenta por Davide Castelvecchi, Nature, 30 de março de 2017.
Os pesquisadores da Argonne postulam uma forma de contornar localmente a Segunda Lei da Termodinâmica por Louise Lerner, UChicago Argonne LLC (+ Newswise), 19 de outubro de 2016.
Da entropia à informação: máquinas de escrever tendenciosas e a origem da vida, de Christoph Adami e Thomas LaBar, arXiv: 1506.06988 [q-bio.PE], arXiv.org, 23 de junho de 2015.
Estabilidade e sua manifestação nos mundos químico e biológico, Robert Pascal e Addy Pross, doi: 10.1039 / C5CC06260H, Chem. Comum. , 07 Out 2015. Através de uma perspectiva cinética pode-se demonstrar que o processo de emergência da vida, bem como a sua evolução subsequente, aparentemente inconsistente, senão em desacordo com a lógica termodinâmica, têm, na realidade, uma base matemática / lógica.
23 de fevereiro de 2015: A segunda lei diz essencialmente que o universo deve ter um começo e um fim.
Roger Penrose, Cycles of Time: An Extraordinary New View of the Universe, ISBN: 9780099505945, Vintage, maio de 2012."Devemos, de fato, ter em mente que é provável que sempre haja alguma medida de subjetividade no valor preciso da entropia que se pode atribuir a um sistema." (P 37)
Jeremy L. England, "Statistical phys of self-replication" [resumo | pdf], doi: 10.1063 / 1.4818538, v 139 n 121923, J. Chem. Phys. , Agosto de 2013 e comentário: A New Physics Theory of Life por Natalie Wolchover, Quanta Magazine, 22 de janeiro de 2014.
Charles Lineweaver, Paul CW Davies e Michael Ruse, eds., Complexity and the Arrow of Time, ISBN 978-1-107-02725, Cambridge University Press, 2013 e uma revisão de Daniel W. McShea, "Unnecessary Complexity" [html] , doi: 10.1126 / science.1245386, p 1319-1320 v 342, Science, 13 de dezembro de 2013.
18 de outubro de 2013: Novo livro de Manfred Eigen, From Strange Simplicity to Complex Familiarity.
13 de setembro de 2013: Um grande problema com todas as teorias da origem da vida & # 8212 como surgiu a "autopreservação" biológica?
2 de janeiro de 2013: Shufeng Zhang envia links para seu artigo, "Entropia: Um conceito que não é uma quantidade física".
O experimento BaBar confirma a assimetria de tempo, SLAC National Accelerator Labratory, 19 de novembro de 2012.
Granville Sewell, "A second look at the second law" [pdf], doi: 101016 / j.aml.2011.01.019, Applied Mathematics Letters, 2011 [retratado]. "Se um aumento na ordem é extremamente improvável quando um sistema é fechado, ainda é extremamente improvável quando o sistema está aberto, a menos que algo esteja entrando que o torne extremamente improvável."
O custo inevitável da computação revelado por Philip Ball, Nature News, 7 de março de 2012.
Peter A. Corning, "Thermoeconomics: Beyond the Second Law" [resumo | PDF de 38 páginas], Instituto para o Estudo de Sistemas Complexos, 2001. "Acreditamos que toda a estratégia associada a várias tentativas de reduzir a evolução biológica e a dinâmica dos sistemas vivos aos princípios da termodinâmica clássica irreversível ou à mecânica estatística . é um beco sem saída teórico. "
Arieh Ben-Naim, Entropia desmistificada [promoção do editor], ISBN: 978-981-270-055-1, World Scientific Publishing Co., maio de 2007. "The units of entropy (J / K). não deveria ser usado para expressar entropia "(p204).
28 de abril de 2009: A vida nada mais é do que um elétron procurando um lugar para descansar.
F. Alexander Bais e J. Doyne Farmer, "Physics of Information" [PDF], SFI Working Paper 07-08-029, 2007. ". Do ponto de vista da termodinâmica, a entropia é uma quantidade puramente macroscópica."
Howard Landman discorda e oferece uma discussão útil, começando em 29 de setembro de 2007.
Fra & # 250sto da Silva recomenda Peter A. Corning, 21 de junho de 2007.
John Whitfield, "Survival of the Likeliest?" [texto], 10.1371 / journal.pbio.0050142, e142, v 5 n 5, PLoS Biology, publicado em 15 de maio de 2007. "Em todo o universo, a interação de energia e matéria traz estruturas regulares & # 8212se eles estrelas, cristais, redemoinhos em fluidos ou sistemas meteorológicos em atmosferas & # 8212 em existência. Poderiam [coisas vivas] fazer parte do mesmo fenômeno? "
Philip Dorrell discorda, 26 de dezembro de 2006.
Brig Klyce entrevistado sobre o Prêmio Evolução por Tom Barbalet de biota.org, 2 de setembro de 2006.
Anonymous responde com um elogio, 21 de dezembro de 2005.
Cynthia Yockey responde para alterar nossos comentários sobre Hubert P. Yockey, 17 de novembro de 2005.
Dr. Shu-Kun Lin, editor do jornal online Entropia, discorda de Rossell, 26 de setembro de 2005.
Sergio Rossell sugere que quando dois gases se misturam, a mudança de entropia termodinâmica é mensurável, 27 de agosto de 2005.
Jean-Bernard Brissaud, "Os significados da entropia" [resumo | pdf], p 68-96 v 7, Entropia, 14 de fevereiro de 2005. "Uma confusão sobre a natureza da entropia vem do fato de que uma mensagem perfeitamente comprimida é de entropia máxima, contendo uma quantidade máxima de informação, enquanto uma sequência aleatória de 0s e 1s, também de entropia máxima, não contém em formação."
24 de abril de 2005: Teoria da Informação, Evolução e Origem da Vida, por Hubert Yockey
Richard Dawkins, "Human Chauvinism and Evolutionary Progress", p 206-217, Capelão do Diabo, Mariner Books, 2004. "A evolução revelou-se clara e importante, progressiva", agora diz Dawkins.
Todd L. Duncan e Jack S. Semura, "The Deep Physics Behind the Second Law: Information and Energy As Independent Forms of Bookkeeping" [resumo], p 21-29 v 6, Entropia, Março de 2004.
22 de março de 2004: citação de Stephen Wolfram
Respostas do Dr. Attila Grandpierre, Observatório Konkoly, Hungria, 22 de janeiro de 2004.
Andreas Greven et al., Eds., Entropia, ISBN: 0-691-11338-6 [promo] [Capítulo 1.pdf], Princeton University Press, 2003. "Esperamos que essas relações aparentemente misteriosas se tornem mais claras ao ler este livro."
Harvey S. Leff e Andrew F. Rex, Demônio 2 de Maxwell: Entropia, Clássico e Quântico, Informação, Computação, Institute of Physics Publishing, 2003.
The Adjacent Possible & # 8212 Stuart Kauffman fala sobre "a necessidade de uma teoria da organização", n. 127, Borda, 3 de novembro de 2003.
Is Intelligence a Biological Imperative ?: Parte IV, de um fórum intitulado, "The Drake Equation Revisited," realizado em Palo Alto, CA, 26 de agosto de 2003. Na discussão entre Peter Ward e David Grinspoon, o último invoca a termodinâmica de não equilíbrio para permitir que a vida diminua sua entropia lógica.
Henry Gee, "Evolução progressiva: pensamento aspiracional" [texto], p 611 v 420, Natureza, 12 de dezembro de 2002. "Evolução progressiva. Origina-se de uma visão da vida profundamente idealista e pré-evolucionária." (Gee concorda com Ruse.)
"Claude Shannon, Matemático, Morre aos 84," O jornal New York Times, 27 de fevereiro de 2001.
23 de novembro de 2000: Mônada para Homem, de Michael Ruse, que duvida do progresso evolutivo.
25 de outubro de 2000: comentários de Jim Galasyn sobre a segunda lei.
12 de junho de 2000: Ernst Mayr não duvida do progresso evolutivo.
Christoph Adami, Charles Ofria e Travis C. Collier, "Evolução da complexidade biológica" [resumo], doi: 10.1073 / pnas.97.9.4463, p4463-4468 v97, Proc. Natl. Acad. Sci., EUA, 25 de abril de 2000.
23 de dezembro de 1998: Gert Korthof elogia esta página.