Em formação

1.1.2: O Processo da Ciência - Biologia


Assim como a geologia, a física e a química, a biologia é uma ciência que reúne conhecimento sobre o mundo natural. Especificamente, a biologia é o estudo da vida. As descobertas da biologia são feitas por uma comunidade de pesquisadores que trabalham individualmente e em conjunto usando métodos combinados. Nesse sentido, a biologia, como todas as ciências, é um empreendimento social como a política ou as artes.

Os métodos científicos incluem observação cuidadosa, manutenção de registros, raciocínio lógico e matemático, experimentação e submissão de conclusões ao escrutínio de outros. A ciência também requer considerável imaginação e criatividade; um experimento bem planejado é comumente descrito como elegante ou bonito. Como a política, a ciência tem implicações práticas consideráveis ​​e algumas ciências são dedicadas a aplicações práticas, como a prevenção de doenças (Figura ( PageIndex {2} )). Outras atividades científicas são amplamente motivadas pela curiosidade. Qualquer que seja seu objetivo, não há dúvida de que a ciência, incluindo a biologia, transformou a existência humana e continuará a fazê-lo.

A Natureza da Ciência

Biologia é uma ciência, mas o que exatamente é ciência? O que o estudo da biologia compartilha com outras disciplinas científicas? Ciência (do latim Scientia, que significa "conhecimento") pode ser definido como conhecimento sobre o mundo natural.

A ciência é uma forma muito específica de aprender, ou saber, sobre o mundo. A história dos últimos 500 anos demonstra que a ciência é uma forma muito poderosa de conhecer o mundo; é em grande parte responsável pelas revoluções tecnológicas que ocorreram durante esse tempo. No entanto, existem áreas do conhecimento e da experiência humana às quais os métodos da ciência não podem ser aplicados. Isso inclui respostas a questões puramente morais, questões estéticas ou o que pode ser geralmente classificado como questões espirituais. A ciência não pode investigar essas áreas porque estão fora do reino dos fenômenos materiais, os fenômenos da matéria e da energia, e não podem ser observados e medidos.

O método científico é um método de pesquisa com etapas definidas que incluem experimentos e observação cuidadosa. As etapas do método científico serão examinadas em detalhes posteriormente, mas um dos aspectos mais importantes desse método é o teste de hipóteses. Uma hipótese é uma explicação sugerida para um evento, que pode ser testada. Hipóteses, ou explicações provisórias, geralmente são produzidas no contexto de uma teoria científica. Uma teoria científica é uma explicação geralmente aceita, completamente testada e confirmada para um conjunto de observações ou fenômenos. A teoria científica é a base do conhecimento científico. Além disso, em muitas disciplinas científicas (menos na biologia) existem leis científicas, frequentemente expressas em fórmulas matemáticas, que descrevem como os elementos da natureza se comportarão sob certas condições específicas. Não há uma evolução de hipóteses por meio de teorias a leis como se representassem algum aumento na certeza sobre o mundo. As hipóteses são o material do dia-a-dia com o qual os cientistas trabalham e são desenvolvidas dentro do contexto das teorias. As leis são descrições concisas de partes do mundo que são passíveis de descrição estereotipada ou matemática.

Ciências Naturais

O que você esperaria ver em um museu de ciências naturais? Sapos? Plantas? Esqueletos de dinossauros? Exposições sobre como o cérebro funciona? Um planetário? Gemas e minerais? Ou talvez todas as opções acima? A ciência inclui campos diversos como astronomia, biologia, ciências da computação, geologia, lógica, física, química e matemática (Figura ( PageIndex {3} )) No entanto, aqueles campos da ciência relacionados ao mundo físico e seus fenômenos e processos são considerados ciências naturais. Assim, um museu de ciências naturais pode conter qualquer um dos itens listados acima.

Não existe um acordo completo quando se trata de definir o que as ciências naturais incluem. Para alguns especialistas, as ciências naturais são astronomia, biologia, química, ciências da terra e física. Outros estudiosos optam por dividir as ciências naturais em ciências da vida, que estudam os seres vivos e incluem a biologia, e as ciências físicas, que estudam a matéria inanimada e incluem astronomia, física e química. Algumas disciplinas, como biofísica e bioquímica, baseiam-se em duas ciências e são interdisciplinares.

Inquérito científico

Uma coisa é comum a todas as formas de ciência: um objetivo final "saber". A curiosidade e a investigação são as forças motrizes para o desenvolvimento da ciência. Os cientistas procuram entender o mundo e a maneira como ele funciona. Dois métodos de pensamento lógico são usados: raciocínio indutivo e raciocínio dedutivo.

O raciocínio indutivo é uma forma de pensamento lógico que usa observações relacionadas para chegar a uma conclusão geral. Esse tipo de raciocínio é comum na ciência descritiva. Um cientista da vida, como um biólogo, faz observações e as registra. Esses dados podem ser qualitativos (descritivos) ou quantitativos (consistindo em números), e os dados brutos podem ser complementados com desenhos, imagens, fotos ou vídeos. A partir de muitas observações, o cientista pode inferir conclusões (induções) com base em evidências. O raciocínio indutivo envolve a formulação de generalizações inferidas da observação cuidadosa e da análise de uma grande quantidade de dados. Os estudos do cérebro geralmente funcionam dessa maneira. Muitos cérebros são observados enquanto as pessoas realizam uma tarefa. A parte do cérebro que se acende, indicando atividade, é então demonstrada como a parte que controla a resposta a essa tarefa.

O raciocínio dedutivo ou dedução é o tipo de lógica usada na ciência baseada em hipóteses. No raciocínio dedutivo, o padrão de pensamento se move na direção oposta em comparação com o raciocínio indutivo. O raciocínio dedutivo é uma forma de pensamento lógico que usa um princípio geral ou lei para prever resultados específicos. A partir desses princípios gerais, um cientista pode extrapolar e prever os resultados específicos que seriam válidos, desde que os princípios gerais sejam válidos. Por exemplo, uma previsão seria que se o clima está se tornando mais quente em uma região, a distribuição de plantas e animais deve mudar. Comparações foram feitas entre as distribuições no passado e no presente, e as muitas mudanças que foram encontradas são consistentes com o aquecimento do clima. Encontrar a mudança na distribuição é evidência de que a conclusão da mudança climática é válida.

Ambos os tipos de pensamento lógico estão relacionados às duas vias principais do estudo científico: ciência descritiva e ciência baseada em hipóteses. A ciência descritiva (ou descoberta) visa observar, explorar e descobrir, enquanto a ciência baseada em hipóteses começa com uma questão ou problema específico e uma resposta ou solução potencial que pode ser testada. A fronteira entre essas duas formas de estudo costuma ser confusa, porque a maioria dos empreendimentos científicos combina as duas abordagens. As observações levam a perguntas, as perguntas levam à formação de uma hipótese como uma possível resposta a essas perguntas e, então, a hipótese é testada. Assim, a ciência descritiva e a ciência baseada em hipóteses estão em diálogo contínuo.

Testando hipóteses

Os biólogos estudam o mundo vivo fazendo perguntas sobre ele e buscando respostas baseadas na ciência. Essa abordagem também é comum a outras ciências e costuma ser chamada de método científico. O método científico foi usado até nos tempos antigos, mas foi documentado pela primeira vez por Sir Francis Bacon da Inglaterra (1561-1626) (Figure ( PageIndex {4} )), que criou métodos indutivos para investigação científica. O método científico não é usado exclusivamente por biólogos, mas pode ser aplicado a quase tudo como um método lógico de solução de problemas.

O processo científico normalmente começa com uma observação (geralmente um problema a ser resolvido) que leva a uma pergunta. Vamos pensar em um problema simples que começa com uma observação e aplicar o método científico para resolver o problema. Numa segunda-feira de manhã, um aluno chega à aula e rapidamente descobre que a sala está muito quente. Essa é uma observação que também descreve um problema: a sala de aula está muito quente. O aluno então faz uma pergunta: “Por que a sala de aula está tão quente?”

Lembre-se de que uma hipótese é uma explicação sugerida que pode ser testada. Para resolver um problema, várias hipóteses podem ser propostas. Por exemplo, uma hipótese pode ser: “A sala de aula está quente porque ninguém ligou o ar-condicionado”. Mas pode haver outras respostas para a pergunta e, portanto, outras hipóteses podem ser propostas. Uma segunda hipótese pode ser: “A sala de aula está quente porque há uma queda de energia e, portanto, o ar-condicionado não funciona”.

Uma vez que uma hipótese foi selecionada, uma previsão pode ser feita. Uma previsão é semelhante a uma hipótese, mas normalmente tem o formato “Se. então . . ” Por exemplo, a previsão para a primeira hipótese pode ser, “Se o aluno liga o ar condicionado, então a sala de aula não ficará mais quente. ”

Uma hipótese deve ser testável para garantir que é válida. Por exemplo, uma hipótese que depende do que um urso pensa não é testável, porque nunca se pode saber o que um urso pensa. Também deve ser falseável, o que significa que pode ser refutado por resultados experimentais. Um exemplo de hipótese não falsificável é “Botticelli’s Nascimento de Vênus é bonito." Não há experimento que possa mostrar que essa afirmação é falsa. Para testar uma hipótese, um pesquisador conduzirá um ou mais experimentos planejados para eliminar uma ou mais das hipóteses. Isso é importante. Uma hipótese pode ser refutada ou eliminada, mas nunca pode ser provada. A ciência não lida com provas como a matemática. Se um experimento falha em refutar uma hipótese, então encontramos suporte para essa explicação, mas isso não quer dizer que no futuro uma explicação melhor não será encontrada, ou um experimento mais cuidadosamente planejado será encontrado para falsificar a hipótese.

Cada experimento terá uma ou mais variáveis ​​e um ou mais controles. Uma variável é qualquer parte do experimento que pode variar ou mudar durante o experimento. Um controle é uma parte do experimento que não muda. Procure as variáveis ​​e controles no exemplo a seguir. Como um exemplo simples, um experimento pode ser conduzido para testar a hipótese de que o fosfato limita o crescimento de algas em lagoas de água doce. Uma série de lagos artificiais são enchidos com água e metade deles é tratada com a adição de fosfato a cada semana, enquanto a outra metade é tratada com a adição de um sal que não é conhecido por ser usado por algas. A variável aqui é o fosfato (ou falta de fosfato), os casos experimentais ou de tratamento são os tanques com fosfato adicionado e os tanques de controle são aqueles com algo inerte adicionado, como o sal. Apenas adicionar algo também é um controle contra a possibilidade de que adicionar matéria extra ao tanque tenha algum efeito. Se os tanques tratados apresentam menor crescimento de algas, então encontramos suporte para nossa hipótese. Se não o fizerem, rejeitamos nossa hipótese. Esteja ciente de que rejeitar uma hipótese não determina se as outras hipóteses podem ou não ser aceitas; simplesmente elimina uma hipótese que não é válida (Figura). Usando o método científico, as hipóteses que são inconsistentes com os dados experimentais são rejeitadas.

Exemplo ( PageIndex {1} )

No exemplo abaixo, o método científico é usado para resolver um problema cotidiano. Qual parte do exemplo abaixo é a hipótese? Qual é a previsão? Com base nos resultados do experimento, a hipótese é suportada? Se não for suportado, proponha algumas hipóteses alternativas.

  1. Minha torradeira não tosta meu pão.
  2. Por que minha torradeira não funciona?
  3. Há algo errado com a tomada elétrica.
  4. Se algo estiver errado com a tomada, minha cafeteira também não funcionará quando conectada a ela.
  5. Eu ligo minha cafeteira na tomada.
  6. Minha cafeteira funciona.

Solução

A hipótese é # 3 (há algo errado com a tomada elétrica), e a previsão é # 4 (se algo estiver errado com a tomada, a cafeteira também não funcionará quando conectada à tomada). A hipótese original não é suportada, pois a cafeteira funciona quando ligada na tomada. As hipóteses alternativas podem incluir (1) a torradeira pode estar quebrada ou (2) a torradeira não foi ligada.

Na prática, o método científico não é tão rígido e estruturado como pode parecer à primeira vista. Às vezes, um experimento leva a conclusões que favorecem uma mudança na abordagem; frequentemente, um experimento traz questões científicas inteiramente novas ao quebra-cabeça. Muitas vezes, a ciência não opera de forma linear; em vez disso, os cientistas continuamente extraem inferências e fazem generalizações, encontrando padrões à medida que sua pesquisa prossegue. O raciocínio científico é mais complexo do que o próprio método científico sugere.

Ciências Básicas e Aplicadas

A comunidade científica tem debatido nas últimas décadas sobre o valor dos diferentes tipos de ciência. É valioso buscar a ciência simplesmente para obter conhecimento, ou o conhecimento científico só tem valor se pudermos aplicá-lo para resolver um problema específico ou melhorar nossas vidas? Esta questão enfoca as diferenças entre dois tipos de ciência: ciência básica e ciência aplicada.

A ciência básica ou ciência “pura” busca expandir o conhecimento, independentemente da aplicação de curto prazo desse conhecimento. Não se concentra no desenvolvimento de um produto ou serviço de valor público ou comercial imediato. O objetivo imediato da ciência básica é o conhecimento pelo conhecimento, embora isso não signifique que no final não possa resultar em uma aplicação.

Em contraste, a ciência aplicada ou "tecnologia" visa usar a ciência para resolver problemas do mundo real, tornando possível, por exemplo, melhorar o rendimento de uma safra, encontrar uma cura para uma doença específica ou salvar animais ameaçados por um desastre natural . Na ciência aplicada, o problema geralmente é definido pelo pesquisador.

Alguns indivíduos podem perceber a ciência aplicada como "útil" e a ciência básica como "inútil". Uma pergunta que essas pessoas podem fazer a um cientista que defende a aquisição de conhecimento seria: "Para quê?" Um olhar cuidadoso na história da ciência, entretanto, revela que o conhecimento básico resultou em muitas aplicações notáveis ​​de grande valor. Muitos cientistas pensam que uma compreensão básica da ciência é necessária antes que um aplicativo seja desenvolvido; portanto, a ciência aplicada depende dos resultados gerados pela ciência básica. Outros cientistas acham que é hora de deixar a ciência básica e, em vez disso, encontrar soluções para problemas reais. Ambas as abordagens são válidas. É verdade que existem problemas que exigem atenção imediata; entretanto, poucas soluções seriam encontradas sem a ajuda do conhecimento gerado pela ciência básica.

Um exemplo de como a ciência básica e a aplicada podem trabalhar juntas para resolver problemas práticos ocorridos após a descoberta da estrutura do DNA levou a uma compreensão dos mecanismos moleculares que governam a replicação do DNA. Fios de DNA, únicos em cada ser humano, são encontrados em nossas células, onde fornecem as instruções necessárias para a vida. Durante a replicação do DNA, novas cópias do DNA são feitas, pouco antes de uma célula se dividir para formar novas células. Compreender os mecanismos de replicação do DNA permitiu aos cientistas desenvolver técnicas de laboratório que agora são usadas para identificar doenças genéticas, localizar indivíduos que estavam na cena do crime e determinar a paternidade. Sem ciência básica, é improvável que existisse ciência aplicada.

Outro exemplo da ligação entre a pesquisa básica e aplicada é o Projeto Genoma Humano, um estudo em que cada cromossomo humano foi analisado e mapeado para determinar a sequência precisa das subunidades de DNA e a localização exata de cada gene. (O gene é a unidade básica da hereditariedade; a coleção completa de genes de um indivíduo é seu genoma.) Outros organismos também foram estudados como parte deste projeto para obter uma melhor compreensão dos cromossomos humanos. O Projeto Genoma Humano (Figure ( PageIndex {6} )) contou com pesquisas básicas realizadas com organismos não humanos e, posteriormente, com o genoma humano. Um objetivo final importante acabou sendo usar os dados para pesquisas aplicadas em busca de curas para doenças geneticamente relacionadas.

Embora os esforços de pesquisa tanto na ciência básica quanto na ciência aplicada sejam geralmente cuidadosamente planejados, é importante notar que algumas descobertas são feitas por acaso, isto é, por meio de um acidente ou uma surpresa feliz. A penicilina foi descoberta quando o biólogo Alexander Fleming deixou acidentalmente uma placa de Petri de Estafilococo bactérias abertas. Um molde indesejado cresceu, matando as bactérias. O molde acabou por ser Penicillium, e um novo antibiótico foi descoberto. Mesmo no mundo altamente organizado da ciência, a sorte - quando combinada com uma mente observadora e curiosa - pode levar a descobertas inesperadas.

Reportagem de trabalho científico

Quer a pesquisa científica seja ciência básica ou ciência aplicada, os cientistas devem compartilhar suas descobertas para que outros pesquisadores expandam e construam sobre suas descobertas. A comunicação e a colaboração dentro e entre as disciplinas da ciência são fundamentais para o avanço do conhecimento na ciência. Por esse motivo, um aspecto importante do trabalho de um cientista é a disseminação dos resultados e a comunicação com os colegas. Os cientistas podem compartilhar resultados apresentando-os em uma reunião ou conferência científica, mas essa abordagem pode atingir apenas alguns poucos que estão presentes. Em vez disso, a maioria dos cientistas apresenta seus resultados em artigos revisados ​​por pares publicados em revistas científicas. Artigos revisados ​​por pares são artigos científicos que são revisados, geralmente de forma anônima, por colegas de um cientista ou pares. Esses colegas são indivíduos qualificados, muitas vezes especialistas na mesma área de pesquisa, que julgam se o trabalho do cientista é adequado ou não para publicação. O processo de revisão por pares ajuda a garantir que a pesquisa descrita em um artigo científico ou proposta de financiamento seja original, significativa, lógica e completa. As propostas de subvenções, que são solicitações de financiamento de pesquisa, também estão sujeitas à revisão por pares. Os cientistas publicam seus trabalhos para que outros cientistas possam reproduzir seus experimentos em condições semelhantes ou diferentes para expandir as descobertas. Os resultados experimentais devem ser consistentes com as descobertas de outros cientistas.

Existem muitos periódicos e a imprensa popular que não usam um sistema de revisão por pares. Um grande número de periódicos on-line de acesso aberto, periódicos com artigos disponíveis gratuitamente, estão agora disponíveis, muitos dos quais usam sistemas de revisão por pares rigorosos, mas alguns dos quais não. Os resultados de quaisquer estudos publicados nesses fóruns sem revisão por pares não são confiáveis ​​e não devem servir de base para outros trabalhos científicos. Em uma exceção, os periódicos podem permitir que um pesquisador cite uma comunicação pessoal de outro pesquisador sobre resultados não publicados com a permissão do autor citado.

Resumo

Biologia é a ciência que estuda os organismos vivos e suas interações entre si e seus ambientes. A ciência tenta descrever e compreender a natureza do universo no todo ou em parte. A ciência tem muitos campos; aqueles campos relacionados ao mundo físico e seus fenômenos são considerados ciências naturais.

Uma hipótese é uma explicação provisória para uma observação. Uma teoria científica é uma explicação bem testada e consistentemente verificada para um conjunto de observações ou fenômenos. Uma lei científica é uma descrição, freqüentemente na forma de uma fórmula matemática, do comportamento de um aspecto da natureza sob certas circunstâncias. Dois tipos de raciocínio lógico são usados ​​na ciência. O raciocínio indutivo usa resultados para produzir princípios científicos gerais. O raciocínio dedutivo é uma forma de pensamento lógico que prevê resultados aplicando princípios gerais. O fio condutor em toda a pesquisa científica é o uso do método científico. Os cientistas apresentam seus resultados em artigos científicos revisados ​​por pares publicados em revistas científicas.

A ciência pode ser básica ou aplicada. O principal objetivo da ciência básica é expandir o conhecimento sem qualquer expectativa de aplicação prática de curto prazo desse conhecimento. O objetivo principal da pesquisa aplicada, entretanto, é resolver problemas práticos.

Glossário

Ciência aplicada
uma forma de ciência que resolve problemas do mundo real
Ciência básica
ciência que busca expandir o conhecimento, independentemente da aplicação de curto prazo desse conhecimento
ao controle
uma parte de um experimento que não muda durante o experimento
raciocínio dedutivo
uma forma de pensamento lógico que usa uma declaração geral para prever resultados específicos
ciência descritiva
uma forma de ciência que visa observar, explorar e descobrir coisas
falseável
capaz de ser refutada por resultados experimentais
hipótese
uma explicação sugerida para um evento, que pode ser testada
ciência baseada em hipóteses
uma forma de ciência que começa com uma explicação específica que é então testada
raciocínio indutivo
uma forma de pensamento lógico que usa observações relacionadas para chegar a uma conclusão geral
Ciência da vida
um campo da ciência, como a biologia, que estuda coisas vivas
Ciência natural
um campo da ciência que estuda o mundo físico, seus fenômenos e processos
artigo revisado por pares
um relatório científico que é revisado por colegas de um cientista antes da publicação
Ciência física
um campo da ciência, como astronomia, física e química, que estuda matéria inanimada
Ciência
conhecimento que cobre verdades gerais ou o funcionamento de leis gerais, especialmente quando adquirido e testado pelo método científico
lei científica
uma descrição, muitas vezes na forma de uma fórmula matemática, para o comportamento de algum aspecto da natureza sob certas condições específicas
método científico
um método de pesquisa com etapas definidas que incluem experimentos e observação cuidadosa
Teoria científica
uma explicação exaustivamente testada e confirmada para observações ou fenômenos
variável
uma parte de um experimento que pode variar ou mudar

Conteúdo

A automontagem no sentido clássico pode ser definida como a organização espontânea e reversível de unidades moleculares em estruturas ordenadas por interações não covalentes. A primeira propriedade de um sistema automontado que esta definição sugere é a espontaneidade do processo de automontagem: as interações responsáveis ​​pela formação do sistema automontado agem em um nível estritamente local - em outras palavras, a nanoestrutura se constrói.

Embora a automontagem normalmente ocorra entre espécies de interação fraca, essa organização pode ser transferida para sistemas covalentes fortemente ligados. Um exemplo disso pode ser observado na automontagem de polioxometalatos. A evidência sugere que tais moléculas se montam por meio de um mecanismo do tipo de fase densa, pelo qual pequenos íons oxometalato se agrupam primeiro de forma não covalente em solução, seguida por uma reação de condensação que liga covalentemente as unidades montadas. [4] Este processo pode ser auxiliado pela introdução de agentes de modelagem para controlar as espécies formadas. [5] Dessa forma, moléculas covalentes altamente organizadas podem ser formadas de uma maneira específica.

A nanoestrutura automontada é um objeto que surge como resultado da ordenação e agregação de objetos individuais em nanoescala guiados por algum princípio físico.

Um exemplo particularmente contra-intuitivo de um princípio físico que pode impulsionar a automontagem é a maximização da entropia. Embora a entropia seja convencionalmente associada à desordem, sob condições adequadas [6] a entropia pode levar objetos em escala nanométrica a se automontar em estruturas-alvo de uma forma controlável. [7]

Outra classe importante de automontagem é a montagem direcionada ao campo. Um exemplo disso é o fenômeno de aprisionamento eletrostático. Neste caso, um campo elétrico é aplicado entre dois nanoeletrodos metálicos. As partículas presentes no ambiente são polarizadas pelo campo elétrico aplicado. Por causa da interação do dipolo com o gradiente do campo elétrico, as partículas são atraídas para a lacuna entre os eletrodos. [8] Generalizações deste tipo de abordagem envolvendo diferentes tipos de campos, por exemplo, usando campos magnéticos, usando interações capilares para partículas presas em interfaces, interações elásticas para partículas suspensas em cristais líquidos também foram relatadas.

Independentemente do mecanismo que impulsiona a automontagem, as pessoas adotam abordagens de automontagem para a síntese de materiais para evitar o problema de ter que construir materiais um bloco de construção de cada vez. Evitar abordagens um por vez é importante porque a quantidade de tempo necessária para colocar blocos de construção em uma estrutura de destino é proibitivamente difícil para estruturas que têm tamanho macroscópico.

Uma vez que os materiais de tamanho macroscópico podem ser automontados, esses materiais podem ser usados ​​em muitas aplicações. Por exemplo, nanoestruturas como nano lacunas de vácuo são usadas para armazenar energia [9] e conversão de energia nuclear. [10] Materiais sintonizáveis ​​automontados são candidatos promissores para eletrodos de grande área de superfície em baterias e células fotovoltaicas orgânicas, bem como para sensores microfluídicos e filtros. [11]

Características distintivas Editar

Neste ponto, pode-se argumentar que qualquer reação química que conduza átomos e moléculas a se reunir em estruturas maiores, como a precipitação, pode cair na categoria de automontagem. No entanto, existem pelo menos três características distintas que tornam a automontagem um conceito distinto.

Edição de pedido

Em primeiro lugar, a estrutura automontada deve ter uma ordem superior do que os componentes isolados, seja uma forma ou uma tarefa particular que a entidade automontada pode executar. Isso geralmente não é verdade em reações químicas, onde um estado ordenado pode progredir para um estado desordenado dependendo dos parâmetros termodinâmicos.

Edição de interações

O segundo aspecto importante da automontagem é o papel predominante de interações fracas (por exemplo, Van der Waals, capilar, π - π, ligações de hidrogênio ou forças entrópicas) em comparação com ligações covalentes, iônicas ou metálicas mais "tradicionais". Essas interações fracas são importantes na síntese de materiais por duas razões.

Primeiro, as interações fracas ocupam um lugar proeminente nos materiais, especialmente nos sistemas biológicos. Por exemplo, eles determinam as propriedades físicas dos líquidos, a solubilidade dos sólidos e a organização das moléculas nas membranas biológicas. [12]

Em segundo lugar, além da força das interações, as interações com vários graus de especificidade podem controlar a automontagem. A automontagem que é mediada por interações de emparelhamento de DNA constitui as interações de maior especificidade que têm sido usadas para conduzir a automontagem. [13] No outro extremo, as interações menos específicas são possivelmente aquelas fornecidas por forças emergentes que surgem da maximização da entropia. [14]

Editar blocos de construção

A terceira característica distintiva da automontagem é que os blocos de construção não são apenas átomos e moléculas, mas abrangem uma ampla gama de estruturas nano e mesoscópicas, com diferentes composições químicas, funcionalidades [15] e formas. [16] A pesquisa sobre as possíveis formas tridimensionais de micritos de automontagem examina os sólidos platônicos (poliédricos regulares). O termo 'micrite' foi criado pela DARPA para se referir a microrrobôs de tamanho abaixo de um milímetro, cujas habilidades de auto-organização podem ser comparadas às do bolor limoso. [17] [18] Exemplos recentes de novos blocos de construção incluem poliedros e partículas fragmentadas. [19] Os exemplos também incluem micropartículas com geometrias complexas, como hemisféricas, [20] dímeros, [21] discos, [22] bastonetes, moléculas [23], bem como multímeros. Esses blocos de construção em nanoescala podem, por sua vez, ser sintetizados por meio de rotas químicas convencionais ou por outras estratégias de automontagem, como forças entrópicas direcionais. Mais recentemente, surgiram abordagens de design inverso em que é possível corrigir um comportamento de automontagem alvo e determinar um bloco de construção apropriado que realizará esse comportamento. [24]

Editar Termodinâmica e Cinética

A automontagem em sistemas microscópicos geralmente começa na difusão, seguida pela nucleação das sementes, subsequente crescimento das sementes e termina no amadurecimento de Ostwald. A energia livre de condução termodinâmica pode ser entálpica ou entrópica, ou ambas. [25] Tanto no caso entálpico quanto no entrópico, a automontagem procede por meio da formação e quebra de vínculos, [26] possivelmente com formas não tradicionais de mediação. A cinética do processo de automontagem está geralmente relacionada à difusão, para a qual a taxa de absorção / adsorção freqüentemente segue um modelo de adsorção de Langmuir que na concentração controlada por difusão (solução relativamente diluída) pode ser estimada pelas leis de difusão de Fick. A taxa de dessorção é determinada pela força de ligação das moléculas / átomos da superfície com uma barreira de energia de ativação térmica. A taxa de crescimento é a competição entre esses dois processos.

Exemplos Editar

Exemplos importantes de automontagem na ciência dos materiais incluem a formação de cristais moleculares, coloides, bicamadas lipídicas, polímeros de fase separada e monocamadas automontadas. [27] [28] O dobramento de cadeias polipeptídicas em proteínas e o dobramento de ácidos nucleicos em suas formas funcionais são exemplos de estruturas biológicas auto-organizadas. Recentemente, a estrutura macroporosa tridimensional foi preparada via automontagem do derivado difenilalanina sob criocondições, o material obtido pode encontrar aplicação no campo da medicina regenerativa ou sistema de liberação de fármacos. [29] P. Chen et al. demonstraram um método de automontagem em microescala usando a interface ar-líquido estabelecida pela onda de Faraday como modelo. Este método de automontagem pode ser usado para a geração de diversos conjuntos de padrões simétricos e periódicos de materiais em microescala, como hidrogéis, células e esferóides celulares. [30] Yasuga et al. demonstraram como a energia interfacial fluida impulsiona o surgimento de estruturas periódicas tridimensionais em andaimes micropilares. [31] Myllymäki et al. demonstraram a formação de micelas, que sofrem uma mudança na morfologia para fibras e eventualmente para esferas, todas controladas pela mudança de solvente. [32]

Editar propriedades

A automontagem estende o escopo da química com o objetivo de sintetizar produtos com propriedades de ordem e funcionalidade, estendendo ligações químicas a interações fracas e abrangendo a automontagem de blocos de construção em nanoescala em todas as escalas de comprimento. [33] Na síntese covalente e na polimerização, o cientista liga os átomos em qualquer conformação desejada, que não precisa necessariamente ser a posição energeticamente mais favorecida das moléculas de automontagem, por outro lado, adota uma estrutura no mínimo termodinâmico, descobrindo a melhor combinação de interações entre subunidades, mas não formando ligações covalentes entre elas. In self-assembling structures, the scientist must predict this minimum, not merely place the atoms in the location desired.

Another characteristic common to nearly all self-assembled systems is their thermodynamic stability. For self-assembly to take place without intervention of external forces, the process must lead to a lower Gibbs free energy, thus self-assembled structures are thermodynamically more stable than the single, unassembled components. A direct consequence is the general tendency of self-assembled structures to be relatively free of defects. An example is the formation of two-dimensional superlattices composed of an orderly arrangement of micrometre-sized polymethylmethacrylate (PMMA) spheres, starting from a solution containing the microspheres, in which the solvent is allowed to evaporate slowly in suitable conditions. In this case, the driving force is capillary interaction, which originates from the deformation of the surface of a liquid caused by the presence of floating or submerged particles. [34]

These two properties—weak interactions and thermodynamic stability—can be recalled to rationalise another property often found in self-assembled systems: the sensitivity to perturbations exerted by the external environment. These are small fluctuations that alter thermodynamic variables that might lead to marked changes in the structure and even compromise it, either during or after self-assembly. The weak nature of interactions is responsible for the flexibility of the architecture and allows for rearrangements of the structure in the direction determined by thermodynamics. If fluctuations bring the thermodynamic variables back to the starting condition, the structure is likely to go back to its initial configuration. This leads us to identify one more property of self-assembly, which is generally not observed in materials synthesized by other techniques: reversibility.

Self-assembly is a process which is easily influenced by external parameters. This feature can make synthesis rather complex because of the need to control many free parameters. Yet self-assembly has the advantage that a large variety of shapes and functions on many length scales can be obtained. [35]

The fundamental condition needed for nanoscale building blocks to self-assemble into an ordered structure is the simultaneous presence of long-range repulsive and short-range attractive forces. [36]

By choosing precursors with suitable physicochemical properties, it is possible to exert a fine control on the formation processes that produce complex structures. Clearly, the most important tool when it comes to designing a synthesis strategy for a material, is the knowledge of the chemistry of the building units. For example, it was demonstrated that it was possible to use diblock copolymers with different block reactivities in order to selectively embed maghemite nanoparticles and generate periodic materials with potential use as waveguides. [37]

In 2008 it was proposed that every self-assembly process presents a co-assembly, which makes the former term a misnomer. This thesis is built on the concept of mutual ordering of the self-assembling system and its environment. [38]

The most common examples of self-assembly at the macroscopic scale can be seen at interfaces between gases and liquids, where molecules can be confined at the nanoscale in the vertical direction and spread over long distances laterally. Examples of self-assembly at gas-liquid interfaces include breath-figures, self-assembled monolayers and Langmuir–Blodgett films, while crystallization of fullerene whiskers is an example of macroscopic self-assembly in between two liquids. [39] [40] Another remarkable example of macroscopic self-assembly is the formation of thin quasicrystals at an air-liquid interface, which can be built up not only by inorganic, but also by organic molecular units. [41] [42]

Self-assembly processes can also be observed in systems of macroscopic building blocks. These building blocks can be externally propelled [43] or self-propelled. [44] Since the 1950s, scientists have built self-assembly systems exhibiting centimeter-sized components ranging from passive mechanical parts to mobile robots. [45] For systems at this scale, the component design can be precisely controlled. For some systems, the components' interaction preferences are programmable. The self-assembly processes can be easily monitored and analyzed by the components themselves or by external observers. [46]

In April 2014, a 3D printed plastic was combined with a "smart material" that self-assembles in water, [47] resulting in "4D printing". [48]

People regularly use the terms "self-organization" and "self-assembly" interchangeably. As complex system science becomes more popular though, there is a higher need to clearly distinguish the differences between the two mechanisms to understand their significance in physical and biological systems. Both processes explain how collective order develops from "dynamic small-scale interactions". [49] Self-organization is a non-equilibrium process where self-assembly is a spontaneous process that leads toward equilibrium. Self-assembly requires components to remain essentially unchanged throughout the process. Besides the thermodynamic difference between the two, there is also a difference in formation. The first difference is what "encodes the global order of the whole" in self-assembly whereas in self-organization this initial encoding is not necessary. Another slight contrast refers to the minimum number of units needed to make an order. Self-organization appears to have a minimum number of units whereas self-assembly does not. The concepts may have particular application in connection with natural selection. [50] Eventually, these patterns may form one theory of pattern formation in nature. [51]


Imaginary meaning

But what exactly is the significance of the Fibonacci sequence? Other than being a neat teaching tool, it shows up in a few places in nature. However, it's not some secret code that governs the architecture of the universe, Devlin said.

It's true that the Fibonacci sequence is tightly connected to what's now known as the golden ratio (which is not even a true ratio because it's an irrational number). Simply put, the ratio of the numbers in the sequence, as the sequence goes to infinity, approaches the golden ratio, which is 1.6180339887498948482. From there, mathematicians can calculate what's called the golden spiral, or a logarithmic spiral whose growth factor equals the golden ratio. [The 9 Most Massive Numbers in Existence]

The golden ratio does seem to capture some types of plant growth, Devlin said. For instance, the spiral arrangement of leaves or petals on some plants follows the golden ratio. Pinecones exhibit a golden spiral, as do the seeds in a sunflower, according to "Phyllotaxis: A Systemic Study in Plant Morphogenesis" (Cambridge University Press, 1994). But there are just as many plants that do not follow this rule.

"It's not 'God's only rule' for growing things, let's put it that way," Devlin said.

And perhaps the most famous example of all, the seashell known as the nautilus, does not in fact grow new cells according to the Fibonacci sequence, he said.

When people start to draw connections to the human body, art and architecture, links to the Fibonacci sequence go from tenuous to downright fictional.

"It would take a large book to document all the misinformation about the golden ratio, much of which is simply the repetition of the same errors by different authors," George Markowsky, a mathematician who was then at the University of Maine, wrote in a 1992 paper in the College Mathematics Journal.

Much of this misinformation can be attributed to an 1855 book by the German psychologist Adolf Zeising. Zeising claimed the proportions of the human body were based on the golden ratio. The golden ratio sprouted "golden rectangles," "golden triangles" and all sorts of theories about where these iconic dimensions crop up. Since then, people have said the golden ratio can be found in the dimensions of the Pyramid at Giza, the Parthenon, Leonardo da Vinci's "Vitruvian Man" and a bevy of Renaissance buildings. Overarching claims about the ratio being "uniquely pleasing" to the human eye have been stated uncritically, Devlin said.

All these claims, when they're tested, are measurably false, Devlin said.

"We're good pattern recognizers. We can see a pattern regardless of whether it's there or not," Devlin said. "It's all just wishful thinking."


Content Preview

The null hypothesis can be thought of as the opposite of the "guess" the research made (in this example the biologist thinks the plant height will be different for the fertilizers). So the null would be that there will be no difference among the groups of plants. Specifically in more statistical language the null for an ANOVA is that the means are the same. We state the Null hypothesis as:

(H_0 colon mu_1 = mu_2 = ⋯ = mu_k)

para k levels of an experimental treatment.

The reason we state the alternative hypothesis this way is that if the Null is rejected, there are many possibilities.

For example, (mu_1 e mu_2 = ⋯ = mu_k) is one possibility, as is (mu_1=mu_2 emu_3= ⋯ =mu_k). Many people make the mistake of stating the Alternative Hypothesis as: (mu_1 emu_2 e⋯ emu_k) which says that every mean differs from every other mean. This is a possibility, but only one of many possibilities. To cover all alternative outcomes, we resort to a verbal statement of ‘not all equal’ and then follow up with mean comparisons to find out where differences among means exist. In our example, this means that fertilizer 1 may result in plants that are really tall, but fertilizers 2, 3 and the plants with no fertilizers don't differ from one another. A simpler way of thinking about this is that at least one mean is different from all others.

If we look at what can happen in a hypothesis test, we can construct the following contingency table:

Type I Error
(alpha) = probability of Type I Error

You should be familiar with type I and type II errors from your introductory course. It is important to note that we want to set (alpha) before the experiment (a-priori) because the Type I error is the more ‘grevious’ error to make. The typical value of (alpha) is 0.05, establishing a 95% confidence level. For this course we will assume (alpha) =0.05.

Remember the importance of recognizing whether data is collected through experimental design or observational.

For categorical treatment level means, we use an F statistic, named after R.A. Fisher. We will explore the mechanics of computing the F statistic beginning in Lesson 2. The F value we get from the data is labeled (F_< ext>).

As with all other test statistics, a threshold (critical) value of F is established. Esse F value can be obtained from statistical tables and is referred to as (F_< ext>) or (F_alpha). As a reminder, this critical value is the minimum value for the test statistic (in this case the F test) for us to be able to reject the null.

o F distribution, (F_alpha), and the location of Acceptance / Rejection regions are shown in the graph below:


Assista o vídeo: Física Do zero - Parte 1. Prof. Boaro (Novembro 2021).