Em formação

Como exatamente os modelos evolutivos teóricos do jogo são descritos durante a implementação para simulações de computador?


Quando um biólogo ou um leigo tenta raciocinar a explicação evolucionária para algo, eles simplesmente usam o inglês com alguma matemática incluída (para um exemplo aleatório, escolha qualquer explicação de "O gene egoísta" - por exemplo, o raciocínio por quê " discriminar em favor dos próprios ovos ", a estratégia é empregada por Guillemots, no capítulo" Manipulação genética ", página 103. Não vou citá-la por completo, pois é uma página de texto).

Outro exemplo de tal parede de inglês é (inspirada em Dawkins) a pergunta Bio.SE: "Por que 'Grudger' é uma estratégia evolucionária estável?"

Quando um biólogo tenta realmente modelar o desenvolvimento evolutivo para ver quais características ganhariam, ele precisaria de alguma forma ensinar o computador a implementar esse modelo: quais são os fatores ambientais, qual é o genótipo envolvido, como exatamente é expresso em diferentes fenotípicos e estendidos características fenotípicas e como o ambiente afetaria um indivíduo com esse fenótipo.

Minha pergunta é: Existe algum tipo de maneira padrão de construir esse modelo? Um idioma específico de domínio (na terminologia da ciência da computação) que é usado por muitos biólogos diferentes ou alguns pacotes / software de modelagem padrão? Por exemplo. algum tipo de formato XML especial, etc ...

Ou é sempre apenas uma implementação personalizada feita à mão por pesquisadores individuais para seu modelo atual?


Só para esclarecer:

  • NÃO estou perguntando como os modelos se parecem teoricamente. Estou perguntando qual linguagem / formato (se houver um padrão) é usado para codificá-los para executar simulações.

  • Se houver discrepâncias entre o tipo / finalidade dos modelos, os que mais me interessam são os teóricos de jogo.


O campo mais intimamente associado aos modelos da teoria dos jogos em biologia é a teoria dos jogos evolucionária. Se a modelagem for necessária, o paradigma típico é a modelagem baseada em agente, e um bom livro introdutório é:

Yoav Shoham e Kevin Leyton-Brown [2009], "Sistemas multiagentes: fundamentos algorítmicos, teóricos dos jogos e lógicos", Cambridge University press.

Quanto à construção real do modelo, e o que descrever / como, vou guiá-lo pelo meu procedimento usual, pois este é um campo em que me especializo:

  1. Defina que tipo de estratégias você acha que são relevantes para as interações que está modelando. Selecione o que você espera que seja o retorno dessas estratégias. Por exemplo, se você está estudando a evolução da cooperação, pode selecionar 'Cooperar' e 'Defectar' como suas estratégias e o dilema do Prisioneiro como sua matriz de recompensa, mas talvez você escolha algo mais geral. Infelizmente, na maior parte do EGT, não é feita uma distinção clara entre genótipo e fenótipo, e eles geralmente são equacionados. No final desta etapa, você tem uma matriz de jogo G. Às vezes, quando a mutação ou inovação são explicitamente necessárias, mesmo no modelo inviscid, abordagens analíticas adicionais são tomadas neste estágio. Eu recomendo Hofbauer & Sigmund (2003) para um tratamento amplo da etapa 1.
  2. Agora você precisa de uma intuição básica de qual é o comportamento 'padrão' nesta interação, então resolva a dinâmica do replicador de G.
  3. O principal interesse em EGT agora são as populações estruturadas. É aqui que a modelagem computacional é normalmente usada. No entanto, antes de me voltar para a simulação, primeiro tento a melhor abordagem analítica que conheço. Eu uso a transformação de Ohtsuki-Nowak em G para resolver analiticamente a interação para gráficos aleatórios (Ohtsuki & Nowak, 2006).
  4. Se ainda estiver interessado na pergunta e as etapas 2 e 3 não capturarem toda a sutileza do sistema que desejo estudar, começo a construir um modelo computacional multiagente. Certifico-me de que meu modelo tem alguma forma de escalar para o caso completamente invíscido da dinâmica replicativa e o caso simplesmente estruturado da transformada ON. Se meu modelo computacional discorda da abordagem analítica desses regimes, fico preocupado. Caso contrário, continuo com as técnicas de modelagem baseadas em agente padrão. Pessoalmente, eu codifico em Matlab. Nunca vi uma simulação EGT moderna que exigisse o desempenho do C / Fortran. Como sugerido em outra resposta, se você não tem experiência em programação, pode usar o NetLogo. No entanto, minha experiência é que os modelos são geralmente simples de implementar do zero, e os modelos NetLogo geralmente escondem de você algumas sutilezas muito importantes (como qual regra de reprodução usar: morte-nascimento, nascimento-morte, imitação?) E geralmente levam para papéis mais fracos.

Observe o amplo tema. Esses modelos são normalmente descritos como equações diferenciais, e essa abordagem é preferida aos modelos baseados em agente. No entanto, se uma abordagem de equações diferenciais claras não capturar todas as sutilezas do que você está estudando, então um paradigma ABM é adotado.


A linguagem específica que um bioligista usa depende das compensações entre velocidade e facilidade de programação. Muitos modelos são escritos em C ou Fortran se a velocidade for primordial. Por outro lado, as pessoas escreverão modelos em linguagens de nível superior se a velocidade for menos importante. Esses seriam Python, R, MatLab, etc ... Em meus modelos, que são escritos principalmente em Python, eu escrevo todas as classes do zero e, em seguida, todos os componentes de simulação à mão também. Como quase todos os modelos são matemáticos por natureza, a linguagem é irrelevante. Os algoritmos devem se comportar de maneira semelhante em todas as plataformas. Se você está procurando exemplos de maneiras fáceis de codificar modelos teóricos de jogos, considere o NetLogo, eles têm alguns exemplos legais usando teoria de jogos.


Não existe uma maneira única de construir esse modelo. Eles podem variar de uma simples declaração matemática como a regra de Hamilton (rB> C) aos modelos de difusão química usados ​​para descrever os padrões de coloração da pele de animais (como listras de zebra, manchas de leopardo e semelhantes).

Existem esforços para construir modelos moleculares de células inteiras como este modelo de divisão do Mycobacterium genitalium, que integra cerca de 30 modelos matemáticos diferentes para descrever diferentes aspectos do organismo. Existem esforços para construir esse modelo de um cérebro inteiro também.

Outro tipo comum de modelo para a biologia evolutiva é o uso da teoria dos jogos, em que diferentes estratégias podem ser colocadas umas contra as outras, como na competição do dilema do prisioneiro que Dawkins descreve em O gene egoísta.

Isso continua e continua. Basicamente, a modelagem biológica é conduzida pelos tipos de modelos matemáticos que conhecemos. Novos modelos irão revelar novos paradigmas de como a biologia funciona. Eles podem ser altamente matemáticos, mas sua importância relativa e quando se aplicam e o que significam são mais analogia do que prova.

Por exemplo, no dilema do prisioneiro, as primeiras disputas mostraram que Olho por Olho era o modelo mais forte - geralmente ajudando os outros, mas traindo quando há um histórico de traição. As idéias da época se voltaram para a cooperação geral entre as populações. Repetições mais recentes mostraram que, se houver uma equipe de participantes que fazem presentes extraordinários uns aos outros (permitir traição sem retribuição), eles podem competir contra outros modelos muito bem.

Nunca se pode provar que um modelo egoísta para o dilema do prisioneiro não aparecerá, embora os sistemas biológicos pareçam ser altamente cooperativos. Isso é um modelo, não uma prova.


O que é um modelo de simulação?

Muitos relatos filosóficos de modelos científicos falham em distinguir entre um modelo de simulação e outras formas de modelos. Essa falha é lamentável porque existem diferenças importantes em sua metodologia e epistemologia que favorecem sua compreensão filosófica. A principal afirmação apresentada aqui é que os modelos de simulação são unidades ricas e complexas de análise por si mesmas, que se afastam de formas conhecidas de modelos científicos de maneiras significativas e que uma compreensão adequada do tipo de modelo de simulação é fundamental para sua filosofia avaliação. Eu argumento que os modelos de simulação podem ser distinguidos de outras formas de modelos pelas muitas estruturas algorítmicas, relações de representação e novas conexões semânticas envolvidas em sua arquitetura. Neste artigo, eu reconstruo uma arquitetura geral para um modelo de simulação, que captura fielmente as complexidades envolvidas na maioria das pesquisas científicas com simulações de computador. Além disso, proponho que uma nova metodologia capaz de conformar tal arquitetura em uma simulação de computador totalmente funcional e computacionalmente tratável deve estar em vigor. Eu discuto essa metodologia - o que eu chamo de reformulação- e argumentar por sua novidade filosófica. Se esses esforços estão caminhando para a interpretação correta dos modelos de simulação, então pode-se mostrar que as simulações de computador lançam uma nova luz sobre a filosofia da ciência. Para ilustrar o potencial de minha interpretação de modelos de simulação, discuto brevemente as explicações baseadas em simulação como uma nova abordagem para questões sobre explicação científica.


Abordagens da teoria dos jogos para a solução de problemas do sistema de energia: uma revisão abrangente

O aparecimento de desregulamentação e competição em sistemas elétricos de potência e mudanças fundamentais nas estruturas de controle e operação de tais sistemas requerem uma ferramenta forte para lidar com tais questões. A abordagem da teoria dos jogos, que é definida como um conceito analítico para lidar com o processo de tomada de decisão em uma variedade de ciências, é amplamente empregada em problemas de sistemas de potência. Este artigo fornece uma revisão abrangente da aplicação da abordagem da teoria dos jogos à solução de problemas de sistemas elétricos de potência. Os fundamentos básicos da abordagem da teoria dos jogos e os conceitos básicos de tal conceito serão apresentados para familiarizar os leitores com os princípios da teoria dos jogos. Além disso, será estudada a introdução e uma breve definição das principais classificações da teoria dos jogos, incluindo jogo cooperativo, jogo dinâmico, teoria evolutiva dos jogos e jogo estratégico. Além disso, será revisada a implementação de diferentes tipos de abordagem da teoria dos jogos para realizar o processo de tomada de decisão em problemas de sistema de potência. As principais contribuições de pesquisas recentes na área de emprego da teoria dos jogos para problemas de sistemas de potência são estudadas e discutidas em detalhes.

Esta é uma prévia do conteúdo da assinatura, acesso através de sua instituição.


Resultados

A Fig. 2A representa a frequência de cada combinação possível de pedra, papel e tesoura, observada em nosso experimento, por tratamento. Como é facilmente aparente, a distribuição é desviada do centro de tratamento uma = 1,1 em comparação com o tratamento uma = 2 e tratamento uma = 4, conforme previsto por ED, mas não por NE.

A Fig. 4A ilustra que este resultado é estatisticamente significativo para ambos os tratamentos de feedback, encontramos evidências consistentes com a previsão dinâmica, mas não a previsão NE. Especificamente, a distância média do centro é significativamente maior para uma = 1,1 do que uma = 2 e uma = 4, mesmo de acordo com os testes mais conservadores, ou seja, ao tratar cada sessão como uma única observação e não fazer suposições paramétricas (p & lt 0,001 entre uma = 1,1 e uma = 2 e p & lt .001 entre uma = 1,1 e uma = 4 testes U de Mann-Whitney de dois lados com N = 20). Na verdade, descobrimos que 9 em cada 10 sessões para uma = 1,1 caem acima do intervalo de confiança de 95% construído acima. Em contraste, 19 de 20 das sessões em uma = 4 e uma = 2 caem dentro do intervalo de confiança de 95% e 1 caem abaixo. Nas Informações Suplementares, mostramos que esses resultados não são sensíveis à métrica de distância ou aos pressupostos não paramétricos empregados, nem ao tipo de tratamento de feedback.

Distância de 4 pedras, 4 papéis, 4 tesouras.

Conforme previsto por ED, mas não por NE, a distância média é maior quando uma = 1,1 do que uma = 2 e uma = 4. (A): As 6 barras mais à esquerda mostram a distância média observada no experimento por tratamento (as barras de erro indicam ± 1 erro padrão). Para comparação, a barra mais à direita indica a distância média e o erro padrão esperado de acordo com NE. A distância do centro para um determinado período de uma determinada sessão é definida como o número de sujeitos em 12, que teriam que trocar de estratégia para ter 4 pedras, 4 papéis e 4 tesouras. (B): Simulações estocásticas de aprendizagem por reforço fornecem resultados estáticos comparativos semelhantes aos nossos dados experimentais. Como em nossos dados experimentais, as distribuições populacionais mais distantes do centro são mais frequentes quando uma = 1,1 do que quando uma = 2 e uma = 4. Os dados correspondem às distribuições de população de tesouras de papel de pedra observadas em 5 execuções de simulação de duas versões de simulações de aprendizagem por reforço destinadas a seguir a Realimentação de Frequência e a Realimentação de Payoff, respectivamente (consulte as Informações Suplementares para uma descrição da simulação).

Um leitor cético pode se preocupar que a distância média no tratamento uma = 1,1 só é tão grande porque não demos aos nossos sujeitos períodos suficientes para convergir para NE. Se for esse o caso, deve-se esperar que a distância média do centro em tratamento uma = 1,1 estaria alinhado com NE, uma vez que nos concentramos em períodos em que a população atingiu 4 pedras, 4 papéis, 4 tesouras. Para descartar essa explicação alternativa, replicamos nossa análise acima após remover todos os períodos que ocorreram em uma sessão antes de bater 4 pedra 4 papel, 4 tesouras. Encontramos os mesmos resultados (p & lt 0,001 entre uma = 1,1 e uma = 2 ep = 0,002 entre uma = 1,1 e uma = 4 testes U de Mann-Whitney de dois lados com N = 19). Também replicamos nossa análise acima usando apenas as últimas 50 rodadas e encontramos o mesmo resultado (p & lt 0,001 entre uma = 1,1 e uma = 2 ep = 0,001 entre uma = 1,1 e uma = 4 testes U de Mann-Whitney de dois lados com N = 20).

Um leitor cético também pode se preocupar com o fato de que nossos resultados são direcionados por um dos tratamentos de feedback e não generalizam facilmente. Apesar da observação de que esses dois tratamentos de feedback diferentes induzem duas dinâmicas diferentes, que mostramos abaixo, nosso resultado de distância média se mantém dentro de cada tratamento de feedback. Em ambos os tratamentos de feedback, a distância média do centro é significativamente maior no tratamento uma = 1,1 do que uma = 2 e uma = 4 (p = 0,028 entre uma = 1,1 e uma = 2 ep = 0,047 entre uma = 1,1 e uma = 4 na realimentação de frequência p = 0,009 entre uma = 1,1 e uma = 2 ep = 0,009 entre uma = 1,1 e uma = 4 para Payoff Feedback (N = 10 para todos os testes).

ED capta outros aspectos importantes do comportamento de nossos assuntos. Como mencionado acima, uma propriedade importante prevista pela DE é que se espera que os indivíduos permaneçam com suas estratégias se elas se saírem bem. Por exemplo, se um jogador joga rock e obtém um payoff de 8 pontos, enquanto o payoff médio para aquela rodada foi de apenas 7 pontos, espera-se que esse jogador seja mais propenso a jogar rock na rodada subsequente. Esta propriedade-chave é mais aparente no feedback do payoff: os sujeitos têm 14,1 pontos percentuais a mais de probabilidade de permanecer com a mesma estratégia se o payoff da rodada anterior for maior do que o ganho médio do que se o payoff da rodada anterior for menor do que o payoff médio (p & lt .001). Além disso, os indivíduos são significativamente mais propensos a permanecer com a mesma estratégia, quanto maior a diferença entre o seu retorno e a média da população no período anterior (efeito marginal de 0,7%, p = 0,001). Essa dinâmica de aprendizagem faz sentido, porque a única informação que os sujeitos têm no feedback do payoff é como seu payoff se compara ao payoff da população. Além disso, tal dinâmica dá origem a ciclos no sentido anti-horário (ver, por exemplo, a Fig. 3A, para uma versão suave de tal dinâmica), para os quais também encontramos suporte no experimento. Em particular, em Payoff Feedback, o número de indivíduos em uma população escolhendo pedra (papel) [tesoura] no período t está positivamente correlacionado com o número de indivíduos na população escolhendo tesouras (pedra) [papel] no período t - 1 para uma = 1,1, 2 ou 4 (p & lt 0,050). Consulte as Informações Suplementares para obter detalhes sobre as análises estatísticas.

Na realimentação de frequência, a propriedade principal de ED também é evidente, embora menos claramente. Para ver isso, primeiro precisamos ajustar a análise para levar em conta as diferentes informações disponíveis para os sujeitos. Os sujeitos agora sabem a distribuição de escolhas na população da rodada anterior e não apenas sua própria escolha. Consequentemente, parece natural presumir que os sujeitos estão levando em consideração essa distribuição, ou, pelo menos, a escolha modal, ao escolher pedra, papel ou tesoura. Portanto, presumimos que eles escolham entre as seguintes opções: melhor respondendo à escolha mais frequente do período anterior, respondendo melhor à melhor resposta da escolha mais frequente do período anterior, ou respondendo melhor à melhor resposta à melhor resposta (ou seja, imitando a estratégia mais frequente do período anterior). Verificamos novamente se os sujeitos têm maior probabilidade de escolher uma dessas estratégias, dependendo de quão bem essa estratégia se saiu. No entanto, fazemos uma alteração, uma vez que os sujeitos não podem calcular facilmente o retorno médio, presumimos que os sujeitos decidam o quão bem sua estratégia está se saindo, comparando o retorno atual com os resultados anteriores. Se fizermos esses dois ajustes, obteremos resultados semelhantes para Feedback de frequência e para Feedback de payoff: em geral, os sujeitos têm 3,2 pontos percentuais mais probabilidade de permanecer com a mesma estratégia (nível superior) se seu retorno no período anterior aumentou (ou não mudou) do que quando caiu (p = 0,001). A consequência é que também no Feedback de frequência, as estratégias populacionais são correlacionadas com as estratégias do período anterior da maneira prevista. Em particular, os ciclos de estratégia de nível superior são no sentido anti-horário, no sentido de que a população se move de muitos assuntos jogando a melhor resposta para a escolha mais frequente para a melhor resposta para a melhor resposta para a escolha mais frequente para imitar a escolha mais frequente (p & lt 0,050 para uma = 2, 4, não significativo para uma = 1,1).Os detalhes das análises estatísticas encontram-se nas Informações Suplementares.

Por fim, nos voltamos para simulações de aprendizagem in-game para reproduzir nosso principal resultado à distância em vários ED. O objetivo dessas simulações não é maximizar o ajuste com os dados experimentais, mas sim ilustrar que o resultado da distância pode ser reproduzido com modelos ED não determinísticos. Inspirados pela dinâmica de cada tratamento de feedback descrito acima, simulamos duas versões de modelos de aprendizagem por reforço e descobrimos que as distribuições da população mais distantes do centro são mais frequentes quando uma = 1,1 e uma = 2 do que quando uma = 4 (Fig. 3B e 4B). Modelamos o retorno do payoff usando uma versão modificada do aprendizado por reforço padrão 16. No modelo (versão 2 na Fig. 3B e 4B), quanto maior a diferença entre o payoff de um jogador de uma escolha particular e o payoff médio de todos os jogadores no período anterior, mais provável é que o jogador repita esta escolha no futuro . Por exemplo, se um jogador joga rock e obtém um payoff de 8 pontos, enquanto o payoff médio para aquela rodada foi de apenas 7 pontos, esse jogador terá mais probabilidade de jogar rock nos períodos subsequentes. Esta configuração parece razoável para feedback de payoff, uma vez que, lá, os sujeitos não têm informações sobre a frequência de cada escolha da rodada anterior, então seria difícil formar crenças sobre a frequência de cada escolha surgindo, mas os sujeitos podem formar crenças sobre quão bem sua escolha está indo em média. Em contraste, para Feedback de frequência, parece mais razoável supor que os sujeitos estão atualizando suas escolhas usando uma variante do modelo de aprendizagem por reforço padrão (versão 1 nas Fig. 3B e 4B). Em vez de escolher entre pedra, papel ou tesoura, descrevemos os assuntos como escolhendo entre as seguintes opções: melhor respondendo à escolha mais frequente do período anterior, respondendo melhor à melhor resposta da escolha mais frequente do período anterior, ou melhor respondendo à melhor resposta à melhor resposta (ou seja, imitando a estratégia mais frequente do período anterior). Assumimos que os sujeitos são mais propensos a escolher uma dessas estratégias, dependendo de quão bem essa estratégia se saiu 23. No entanto, fazemos uma alteração, uma vez que os sujeitos não podem calcular facilmente o retorno médio, presumimos que os sujeitos decidam o quão bem sua estratégia está se saindo, comparando o retorno atual com os resultados anteriores. Uma descrição detalhada de ambos os modelos dinâmicos está nas Informações Suplementares.

Alguém pode se perguntar por que nossos assuntos se comportam de forma semelhante em uma = 2 e uma = 4. Lembre-se de que o NE é estável para alguns ED, como a dinâmica de melhor resposta perturbada 24. Além disso, em nossas simulações de computador, observamos que, como uma aumenta monotonicamente a distância média diminui, com uma grande diferença para menores uma, mas menos diferença para maiores uma, (consulte as Informações Suplementares), o que é consistente com nossa conclusão de uma = 1,1 sendo muito diferente de uma = 2 mas uma = 2 sendo indistinguível de uma = 4.


Práticas Diversas, Paisagens Interdisciplinares e um Conceito Metamorfo

Os estudos históricos próximos neste volume minam a visão prevalecente de que a simulação teve suas origens no método de Monte Carlo, desenvolvido na década de 1940 como um acessório ao esforço de guerra dos Estados Unidos. Em vez disso, esses artigos sugerem um panorama diversificado e fragmentado de práticas, muitas vezes, mas nem sempre associadas à introdução do computador. Muito parecido com a noção de zonas de comércio de Peter Galison, havia redes em vigor que conectavam atores através de disciplinas, espaço, domínios de pesquisa básica e conhecimento aplicado, experiências e interesses que eram cruciais para apresentar novos aplicativos, formas de programação e usos de simulações computacionais e práticas relacionadas.

Essa reavaliação histórica da suposta paternidade das simulações de computador tem implicações diretas para a nossa compreensão do presente: as simulações de computador não são uma, mas um conjunto de múltiplas práticas, abordagens, usos de práticas computacionais, matemáticas e de modelagem. Eles foram múltiplos no passado e assim permanecem no presente. Em vez de ser uma técnica única e unificada, as simulações, ao contrário, podem ser identificadas por sua natureza multiforme. A atribuição de novidade associada ao uso de simulações parece ser um reflexo da aproximação de esferas até então separadas. Conhecimento, pessoas, pensamento e ação foram agrupados de novas maneiras que alimentaram a disseminação de simulações de computador e foram remodelados por essas novas constelações. As simulações de computador estabelecem conexões que não eram oferecidas por ambientes preexistentes, como universidades e as disciplinas convencionais que elas fomentam, ou as mentalidades predominantes, como ciências teóricas versus ciências aplicadas aculturadas por tais condições. Além do mais, as configurações que a simulação permite não são estáveis, mas estão em andamento em sua reconfiguração, com os agentes se reorganizando constantemente e obtendo combinações novas, talvez até improváveis.

Essa natureza estrutural e combinatória das simulações está no cerne da relevância epistêmica que elas foram capazes de adquirir em um período de tempo relativamente curto. A descoberta mais importante do conjunto discreto de estudos de caso apresentados aqui é que eles podem demonstrar como a introdução da simulação auxiliada por computador transformou conceitos centrais em seus respectivos campos: Arianna Borrelli mostra como os geradores de eventos de Monte Carlo eventualmente mudaram o conceito de “partícula elementar ”Em física, Sibylle Anderl demonstra como um novo tipo de onda de choque surgiu na astrofísica através do emprego de modelos digitais e Nathalie Bredella reconstrói como a compreensão do que constitui o processo de design foi fundamentalmente reformulada modelando edifícios não com caneta e papel, mas digitalmente.

Para terminar com uma nota provocativa: os estudos de caso neste volume sugerem que a "caixa-preta" tão frequentemente associada ao uso de computadores em geral e simulações em particular, pode não (apenas) residir na complexidade da tecnologia, mas em a complexidade das infra-estruturas, das pessoas, das relações de poder, das circunstâncias históricas e culturais que se juntaram num momento histórico contingente, cujas dinâmicas são difíceis e demoradas de traçar. Em outras palavras, olhar para a caixa preta da simulação de computador significa olhar para o mundo.


Opções de acesso

Compre um único artigo

Acesso instantâneo ao artigo completo em PDF.

O cálculo do imposto será finalizado durante o checkout.

Inscrever-se no jornal

Acesso online imediato a todas as edições de 2019. A assinatura será renovada automaticamente anualmente.

O cálculo do imposto será finalizado durante o checkout.


Possíveis objeções

Nesta seção, enumerei várias objeções contra a alegação aqui defendida. Eu afirmo que o computacionalismo é uma tradição de pesquisa progressiva que levou a um desenvolvimento notável na neurociência computacional. As conexões conceituais entre computação e cognição, entendidas de acordo com a abordagem mecanicista da computação física, fornecem importantes insights de pesquisa dentro da pesquisa empírica na modelagem computacional de sistemas nervosos. Todas essas afirmações poderiam ser minadas dizendo que a neurociência computacional não é mecanicista, é empiricamente vazia ou imatura.

Nem toda neurociência computacional é mecanicista

Alguns pesquisadores afirmam que há exemplos de modelos computacionais em neurociência que permanecem em desacordo com a abordagem mecanicista da explicação. Por exemplo, Chirimuuta (2014) afirmou que os chamados cálculos canônicos são entendidos de uma forma fortemente idealizada e não mecanicista.

Mas este artigo não tem como objetivo estabelecer que todas as pesquisas em neurociência computacional procedam de maneira mecanicista. A alegação é, em vez disso, que a pesquisa mecanicista dá mais sentido aos enigmas teóricos e metodológicos enfrentados pelos modeladores e leva mais a sério a questão de conectar a evidência neural com a modelagem computacional. É claro que nem toda modelagem está à altura da tarefa, porque a evidência empírica ou não existe ou permanece meramente consistente com ela. No entanto, os defensores da abordagem mecanicista afirmam que os modeladores devem se esforçar para cumprir as normas mecanicistas de explicação, mesmo que a maioria das pesquisas não consiga fazê-lo por muito tempo. J. Z. Young enfatizou repetidamente que faltam detalhes cruciais e que mais dados experimentais são necessários. Ele estava bem ciente de que não estabeleceu, por exemplo, que o modelo conexionista distribuído de redes recorrentes sustenta a memória de trabalho no polvo. Ao mesmo tempo, sua anatomia funcional apresenta características típicas de explicações mecanicistas. Ele descreve os mecanismos biológicos responsáveis ​​por fenômenos de seu interesse, e esses mecanismos são explicados em termos de suas entidades e operações componentes. A parte que falta em seu trabalho sobre a memória é uma descrição completa do maquinário computacional, bem como mapear essa descrição em mecanismos biológicos, o que é uma exigência de modelos explicativos adequados em neurociência computacional (Kaplan 2011). Este requisito é cumprido, em uma extensão muito maior, por Spaun de Eliasmith (cf. Miłkowski 2016b).

Observe que a visão semântica da computação física por si só não tem posição sobre se os modelos propostos por Young são satisfatórios ou piores do que os de Eliasmith. Simplesmente não tem recursos para lidar com esse problema.

Os problemas de indeterminação ainda não foram resolvidos

Outra objeção à neurociência computacional, às vezes expressa por outros cientistas cognitivos, é que a modelagem é empiricamente irrestrita e, pelo menos até certo ponto, arbitrária, porque há muitas maneiras de relacioná-la com evidências. Pode-se mesmo ir mais longe ao afirmar que qualquer coisa pode tornar qualquer modelo computacional verdadeiro, porque pode-se descrever qualquer coisa como um computador (Putnam 1991 Searle 1992).

Porém, a prática atual mostra que a validação de modelos é muito mais restrita, pois Sect. 4 mostra acima. É simplesmente uma prática inaceitável alterar o destino do modelo ad hoc ao construir uma simulação computacional. Um artigo que começa com a tarefa de simular, digamos, um único dendrito e acaba apenas simulando a dinâmica da água fluindo em um cano (e não um dendrito), seria rejeitado em qualquer jornal respeitável. Além disso, se esse modelo descrevesse não apenas um único dendrito, mas também alguns outros fenômenos, essa coincidência não seria prejudicial. A única situação prejudicial seria aquela em que todos os alvos possíveis se encaixassem no modelo. Em outras palavras, seria um verdadeiro desastre se todos os algoritmos possíveis simultaneamente pudessem ser verdadeiramente atribuídos a qualquer sistema físico. Mas, como muitos teóricos apontaram (Chalmers 2011 Miłkowski 2013 Piccinini 2015), os argumentos para essa conclusão são todos infundados, porque eles assumem que tudo o que existe para a computação física é um mapeamento simples entre uma descrição matemática da computação e alguns aspectos físicos estado de coisas. Essa questão, no entanto, vai além do escopo deste artigo.

A neurociência computacional não é suficientemente madura

Na seção 4.4, foi admitido que a neurociência computacional permanece teoricamente fragmentada. Isso, pode-se argumentar, significa que não é uma ciência madura no sentido de Thomas Kuhn (1962). Ainda está cheio de anomalias. Então, na verdade, a neurociência computacional não progrediu muito.

Essa objeção pressupõe que a noção de ciência madura pode ser usada apropriadamente para avaliar disciplinas científicas. Mas isso não está nada claro. Qualquer campo de pesquisa científica ativa inclui uma boa quantidade de controvérsia, e isso não é um sinal de degeneração. Além disso, como Laudan (1977, p. 151) notou, Kuhn foi incapaz de apontar qualquer ciência importante na qual o monopólio do paradigma tenha sido a regra, ou na qual o debate fundacional estivesse ausente. A ciência não despreza as anomalias.


Métodos

Discutimos três métodos para calcular as probabilidades de fixação, os tempos de fixação e a distribuição estacionária. Esses três métodos principais, que também definem a estrutura subjacente neste artigo, são:

uma solução analítica direta

uma abordagem numérica baseada na matriz de transição das cadeias de Markov associadas

Como nossos resultados estão intimamente ligados aos detalhes de implementação, mais detalhes são fornecidos nas seções de resultados.

As soluções analíticas são geralmente as mais elegantes, mas muitas vezes são complicadas na prática e apenas casos limitantes, por exemplo, decorrentes de pequena intensidade de seleção β, pode ser interpretado facilmente. As implementações ingênuas dos resultados analíticos completos às vezes são ineficientes e podem ser computacionalmente mais caras do que as simulações inteligentes.

Alternativamente, a abordagem numérica baseada na matriz de transição da cadeia de Markov pode ser útil e pode parecer natural ao pensar sobre o processo em termos de probabilidades de transição. No entanto, como o tamanho da matriz de transição cresce quadraticamente com o tamanho da população, esta abordagem computacional torna-se inviável para grandes populações em termos de memória 39 e ainda mais rápida para populações estruturadas em grafo, onde a matriz de transição pode ser de tamanho 2 N × 2 N 40,41. Fazer uso de solucionadores esparsos para matrizes em faixas, no entanto, leva à convergência linear do tempo de cálculo com o tamanho da população no caso sem estrutura populacional.

Para discutir esses métodos, nos concentramos principalmente no processo de Moran, mencionando o processo alternativo de Wright-Fisher ocasionalmente como uma extensão.

O código-fonte e os cadernos de demonstração podem ser baixados em http://bit.ly/finite_computation_ed.


Como exatamente os modelos evolutivos teóricos do jogo são descritos durante a implementação para simulações de computador? - Biologia

Técnicas para compreender as simulações de computador: análise da cadeia de Markov

Jornal de sociedades artificiais e simulação social vol. 12, não. 1 6
& lthttp: //jasss.soc.surrey.ac.uk/12/1/6.html>

Para obter informações sobre como citar este artigo, clique aqui

Recebido: 16-abr-2008 Aceito: 10-set-2008 Publicado: 31-jan-2009

Resumo

  • Modelo de segregação espacial de Schelling (1971)
  • Epstein e Axtell's (1996) Sugarscape
  • Modelo de ovação de pé de Miller e Page (2004)
  • O modelo de Arthur (1989) de tecnologias concorrentes
  • Modelos de metanormas de Axelrod (1986)
  • Modelo de troca generalizada de Takahashi (2000)
  • Modelo de difusão da cultura de Axelrod (1997)
  • Truels de Kinnaird (1946)
  • O modelo de Axelrod e Bennett (1993) de coalizões bimodais concorrentes
  • Modelo de associação condicional de Joyce et al. (2006)

Palavras-chave: Modelagem Computacional, Simulação, Markov, Processos Estocásticos, Análise, Reimplementação

Introdução

  1. Um modelo de computador é uma relação de entrada-saída determinística, ou seja, uma função.
  2. Qualquer modelo de computador pode ser reimplementado em muitos formalismos diferentes (em particular, em qualquer linguagem de programação sofisticada o suficiente), levando a representações alternativas da mesma relação de entrada-saída. Assim, aconselhamos os pesquisadores a focar na análise do modelo formal [1] que seu modelo de computador implementa e abstrair dos detalhes da plataforma de modelagem onde foi implementado.
  3. Geradores de números pseudo-aleatórios nos dão o potencial de simular variáveis ​​aleatórias dentro de nossos modelos de computador e, portanto, usam modelos de computador para simular processos estocásticos.
  4. Qualquer saída obtida a partir de um modelo parametrizado segue uma distribuição de probabilidade específica. Esta distribuição de probabilidade exata pode ser aproximada a um grau arbitrário de precisão executando o modelo.
  5. Os modelos formais que muitos modelos de computador na literatura de simulação social implementam podem ser representados de forma útil como cadeias de Markov homogêneas no tempo.
  6. Analisar um modelo de computador como uma cadeia de Markov pode tornar aparentes muitos recursos do modelo que não eram tão evidentes antes de conduzir tal análise.

1.2 Os primeiros quatro pontos na lista acima se aplicam a qualquer modelo de computador e são explicados em detalhes nas seções 2, 3, 4 e 5, respectivamente. Eles também fornecem a estrutura básica para o resto do artigo, que se dedica a explicar e ilustrar a utilidade da teoria das cadeias de Markov para analisar modelos de computador. Especificamente, as seções 6-10 explicam o que são as cadeias de Markov homogêneas no tempo (seção 6) e como caracterizar sua dinâmica transitória (seção 7), seu comportamento assintótico (seções 8 e 9) e a estabilidade estocástica de seus estados de absorção (seção 10).

1.3 A teoria das cadeias de Markov é uma ferramenta muito poderosa para analisar sistemas estocásticos ao longo do tempo e é regularmente usada para modelar uma variedade impressionante de sistemas práticos, como sequências de filas, sistemas de re-fabricação, Internet, sistemas de estoque, logística reversa, bioinformática, sequências de DNA, redes genéticas e mineração de dados (Ching e Ng 2006). No entanto, seu uso na literatura de simulação social ainda é bastante limitado. Este artigo mostra como a teoria das cadeias de Markov pode ser aplicada de forma útil no domínio das ciências sociais computacionais. Em particular, o apêndice B inclui a análise de 10 modelos bem conhecidos na literatura de simulação social usando os conceitos explicados neste artigo. O código-fonte usado para conduzir todos os experimentos e produzir todas as figuras computacionais neste artigo foi incluído no material de apoio.

Modelos de computador são funções

2.2 Assim, executar um modelo de computador é apenas descobrir as implicações lógicas da aplicação de um conjunto de regras formais definidas de forma inequívoca (que são codificadas no programa e definem a função de entrada-saída ou modelo formal) para um conjunto de entradas (Balzer et al. 2001). Como exemplo, pode-se escrever o programa de computador "y = 4 & middotx" e aplicá-lo à entrada "x = 2" para obter a saída "y = 8". A saída (y = 8), que é total e inequivocamente determinada pela entrada (x = 2) e pelo conjunto de regras codificadas no programa (y = 4 & middotx), pode ser vista como um teorema obtido por dedução pura ( & rArr y = 8). Naturalmente, não há razão para que as entradas ou as saídas devam ser números [4], poderiam igualmente ser, e. cadeias de caracteres.No caso geral, a execução de um computador é um teorema lógico que diz: a saída obtida da execução da simulação de computador segue (com necessidade lógica) da aplicação à entrada das regras algorítmicas que definem o modelo. Assim, independentemente de sua complexidade inerente, uma execução de computador constitui um teorema de suficiência perfeitamente válido (ver, por exemplo, Axtell 2000).

2.3 É útil perceber que sempre poderíamos aplicar as mesmas regras de inferência para obter & mdashby dedução lógica & mdash a mesma saída da entrada fornecida. Embora seja útil como um pensamento, quando se trata de realmente fazer o trabalho, é muito mais conveniente, eficiente e menos sujeito a erros permitir que os computadores gerem a saída para nós. Os computadores são motores de inferência capazes de conduzir muitos processos algorítmicos a uma velocidade que o cérebro humano não consegue atingir.

Diferentes maneiras de representar o mesmo modelo formal

3.2 Assim, ao analisar a dinâmica de um modelo de computador, é útil abstrair dos detalhes da plataforma de modelagem que foi usada para implementar o modelo de computador e focar estritamente no modelo formal que ele representa, que poderia ser reimplementado em algum sofisticado o suficiente [5] plataforma de modelagem. Para ser claro, vamos enfatizar que qualquer modelo de computador implementado em Objective-C (por exemplo, usando Swarm) pode ser reimplementado em Java (por exemplo, usando RePast ou Mason), NetLogo, SDML, Mathematica e cópia ou Matlab e cópia. De forma similar, algum modelo de computador pode ser expresso como uma função matemática bem definida (Leombruni e Richiardi 2005 Epstein 2006 Richiardi et al. 2006).

3.3 Naturalmente, a implementação de um modelo formal específico pode ser mais direta em algumas linguagens de programação do que em outras. As linguagens de programação diferem em onde se posicionam nas conhecidas compensações entre facilidade de programação, funcionalidade e desempenho, portanto, diferentes linguagens de programação levam a implementações mais ou menos naturais e mais ou menos eficientes de qualquer modelo formal dado. No entanto, o ponto importante é o seguinte: embora possamos ter diferentes implementações do mesmo modelo formal, e embora cada uma dessas implementações possa ter características diferentes (em termos de, por exemplo, legibilidade do código), em última análise, são todas apenas representações diferentes do mesmo modelo formal modelo e, portanto, retornarão a mesma saída quando receberem a mesma entrada.

3.4 Da mesma forma que usar um ou outro formalismo para representar um modelo formal particular levará a implementações mais ou menos naturais, diferentes formalismos também tornam mais ou menos aparentes certas propriedades do modelo formal que implementam. Este artigo é dedicado a mostrar que representar um modelo de computador como uma cadeia de Markov, ou seja, olhar para o modelo formal implementado em um modelo de computador através dos óculos de Markov, pode tornar aparentes várias características do modelo de computador que podem não ser tão evidentes sem esses óculos. Por exemplo, como mostraremos mais tarde, a teoria de Markov pode ser usada para descobrir se as condições iniciais de um modelo determinam sua dinâmica de longo prazo ou se são realmente irrelevantes. Além disso, a teoria pode revelar se o modelo mais cedo ou mais tarde ficará preso em um estado absorvente.

Simular variáveis ​​aleatórias para criar um modelo de computador 'estocástico'

4.2 As sequências de números fornecidas pelos atuais geradores de números pseudo-aleatórios disponíveis no mercado se aproximam muito bem da aleatoriedade. O único problema que podemos encontrar aparece quando queremos executar várias simulações (estatisticamente independentes). Conforme mencionado acima, se usássemos a mesma semente aleatória para cada execução, obteríamos a mesma sequência de números pseudo-aleatórios, ou seja, obteríamos exatamente os mesmos resultados. Como podemos nós verdadeiramente aleatoriamente selecionar uma semente aleatória? Felizmente, para a maioria dos aplicativos dessa disciplina, o estado do sistema do computador no momento do início de uma nova execução pode ser considerado uma variável verdadeiramente aleatória. Portanto, a abordagem usual para simular processos estocásticos independentes é deixar o computador escolher a semente aleatória para você. Sementes aleatórias são então geradas a partir do estado do sistema de computador (por exemplo, usando o tempo) e, quando isso é feito, as sequências de números obtidas com geradores de números pseudo-aleatórios prontamente disponíveis aproximam-se da independência estatística notavelmente bem.

4.3 Assim, para a maioria das intenções e propósitos desta disciplina, pode-se deixar o computador gerar a semente aleatória a partir de seu estado e assumir com segurança que os números pseudo-aleatórios obtidos são aleatórios e independentes o suficiente. Dessa forma, ao permitir que o computador gere a semente aleatória para nós, podemos incluir (pseudo) variáveis ​​aleatórias em nossos modelos de computador e, portanto, simular processos estocásticos. Por conveniência, dispensamos o qualificador 'pseudo' de agora em diante.

4.4 Um modelo de computador que inclui variáveis ​​aleatórias como parte da definição de suas regras dedutivas não produz necessariamente a mesma saída quando dada a mesma entrada, a saída gerada em uma determinada execução geralmente dependerá dos valores tomados pelas variáveis ​​aleatórias dentro do modelo, e esses valores podem variar de corrida para corrida. Em qualquer caso, é importante enfatizar que, uma vez que cada variável aleatória no modelo segue uma função de probabilidade específica, o modelo de computador irá de fato gerar uma função de probabilidade particular sobre a faixa de saídas possíveis. Naturalmente, esta função de probabilidade & mdash, que é total e inequivocamente determinada pela entrada & mdash, pode ser aproximada com qualquer grau de precisão executando execuções de simulação suficientes com a mesma entrada (e diferentes sementes aleatórias). Então fica claro que, em geral, uma única simulação fornece tanta informação sobre o modelo estocástico que o gerou quanto o número 2,57 fornece sobre a função de probabilidade de onde veio.

4.5 A capacidade de simular variáveis ​​aleatórias abre mais uma oportunidade: a possibilidade de modelar processos onde a entrada não é certa, mas segue uma função de probabilidade. Em outras palavras, não somos obrigados a especificar um valor particular para cada parâmetro (ou seja, entrada) no modelo, mais podemos estudar o comportamento de um modelo que foi parametrizado com funções de probabilidade em vez de certos valores. Um exemplo seria um modelo em que os agentes começam em um local inicial aleatório. Naturalmente, qualquer execução de simulação específica será conduzida com um determinado valor específico para cada parâmetro (por exemplo, um local inicial específico para cada agente) e produzirá um e apenas um determinado resultado específico. Assim, para inferir a função de probabilidade sobre o conjunto de saídas a que uma função de probabilidade particular sobre o conjunto de entradas leva, será necessário executar o modelo várias vezes (com diferentes sementes aleatórias). Método de Monte Carlo.

4.6 Um importante corolário dos parágrafos anteriores é que qualquer estatística que extraímos de um modelo de computador parametrizado segue uma função de probabilidade específica (mesmo que os valores dos parâmetros de entrada tenham sido expressos como funções de probabilidade). No caso geral, derivar a distribuição de saída analiticamente pode ser inviável, mas podemos sempre extrair quantas amostras quisermos da distribuição executando o modelo parametrizado (estocasticamente) com diferentes sementes aleatórias. Tendo realizado um grande número de execuções de simulação, a pergunta que naturalmente vem à mente é: quão próxima da distribuição exata está aquela obtida pela simulação? A seção a seguir fornece algumas orientações sobre esse problema.

Aproximando a função de probabilidade exata executando o modelo

5.2 Para ilustrar como avaliar a qualidade da aproximação obtida por simulação, apresentamos agora um modelo simples baseado em agente criado para um propósito (Gilbert 2007) que usaremos no restante do artigo: CoolWorld. O Apêndice A fornece um miniaplicativo do CoolWorld, implementado no NetLogo 4.0 (Wilensky 1999). O leitor pode querer seguir a explicação do modelo usando o miniaplicativo ao mesmo tempo.

CoolWorld: o modelo formal

5.3 Esta subseção explica o modelo formal que CoolWorld implementa. As informações fornecidas aqui devem ser suficientes para reimplementar o mesmo modelo formal em qualquer plataforma sofisticada o suficiente [5]. Usamos uma fonte vermelha de largura fixa para denotar parametros (ou seja, variáveis ​​que podem ser definidas pelo usuário). Para maior clareza na explicação, distinguimos dois componentes no CoolWorld: os agentes e o ambiente. Os agentes no CoolWorld vagam pelo ambiente (frio), mostrando uma preferência por locais e casas quentes.

O ambiente
  • Cada patch individual tem uma temperatura específica, que é um número de ponto flutuante no intervalo [0, 100]. Isso define o perfil de temperatura do ambiente.
  • O ambiente também pode conter casas. Cada casa individual fica em um e apenas um canteiro, e cada canteiro pode conter no máximo uma casa.

5.5 A Figura 1 mostra um instantâneo de nossa implementação do CoolWorld (que é fornecido como um miniaplicativo no Apêndice A), com um determinado perfil de temperatura e algumas casas. Nem o perfil de temperatura nem a distribuição das casas mudam durante uma simulação. Finalmente, a vizinhança de um patch é definida como o conjunto de (até 8) outros patches com os quais o patch compartilha uma borda ou canto.

figura 1. Instantâneo de CoolWorld. As manchas são coloridas de acordo com sua temperatura: quanto mais alta a temperatura, mais escuro é o tom de vermelho. As etiquetas brancas em cada patch indicam a parte integrante de seu valor de temperatura. As casas são coloridas em laranja e os caminhantes (representados como uma pessoa) são coloridos em verde.

Os agentes
  • Se o caminhante estiver em um canteiro com uma casa:
    • ela se moverá para um patch vizinho aleatório com probabilidade prob-saindo-de-casa , e
    • ela vai ficar no mesmo patch com probabilidade (1 & mdash prob-saindo-de-casa ).
    • com probabilidade movimento prob-aleatório ela se mudará para um patch vizinho aleatório e,
    • com probabilidade (1 & mdash movimento prob-aleatório ) ela explorará os arredores em busca de calor. Especificamente, o agente irá considerar o patch em que está, junto com os patches vizinhos, como patches em potencial. Ela então se moverá para um dos patches com a temperatura mais alta dentro deste conjunto de patches alvo em potencial (ou seja, ela pode permanecer no mesmo patch). Empates são resolvidos aleatoriamente.

    O valor de prob-saindo-de-casa e movimento prob-aleatório é compartilhado por todos os caminhantes do modelo. Não há restrição quanto ao número de caminhantes que podem permanecer no mesmo adesivo a qualquer momento.

    Agendamento de eventos

    5.7 Os eventos no CoolWorld ocorrem em intervalos de tempo distintos. Em cada passo de tempo, cada caminhante individual tem a oportunidade de se mover uma vez.

    Avaliando a qualidade da distribuição empírica

    • Ambiente: O tamanho do ambiente é 33 patches e tem 33 patches e seu topologia é totalmente limitado (ou seja, não envolve). o perfil de temperatura é concêntrica, ou seja, a temperatura de um patch é inversamente proporcional à sua distância ao patch central. o distribuição de casas é mostrado na Figura 2.
    • Caminhantes: Existem 100 caminhantes e todos eles começam em um localização inicial aleatória . O valor de prob-saindo-de-casa é 0,01 e o valor de movimento prob-aleatório é 0,5.

    5.9 Essas condições iniciais podem ser definidas na implementação do CoolWorld fornecida no Apêndice A clicando no botão "Condições especiais".

    Figura 2. Instantâneo de CoolWorld. As manchas são coloridas de acordo com sua temperatura: quanto mais alta a temperatura, mais escuro é o tom de vermelho. As casas são coloridas em laranja e formam um círculo ao redor do canteiro central. Os caminhantes são coloridos em verde e representados como uma pessoa se estiver em um canteiro sem casa, e como um rosto sorridente se estiver em um canteiro com uma casa. Neste último caso, a etiqueta branca indica o número de caminhantes na mesma casa.

    5.10 Como argumentado antes, dadas as condições iniciais (estocásticas) descritas acima, o número de caminhantes CoolWorld em uma casa após 50 intervalos de tempo seguirá uma função de probabilidade específica que pretendemos aproximar. Para isso, vamos supor que corramos 200 corridas e representemos a frequência relativa do número de caminhantes em um canteiro com uma casa após 50 passos de tempo (veja a Figura 3).

    Figura 3. Distribuição de frequência relativa do número de caminhantes em uma casa após 50 intervalos de tempo, obtida executando o CoolWorld 200 vezes, com as condições iniciais descritas no texto.

    5.11 A Figura 3 não fornece todas as informações que podem ser extraídas dos dados coletados. Em particular, podemos traçar barras de erro mostrando o erro padrão para cada frequência calculada sem quase nenhum esforço [6]. Os erros padrão nos fornecem informações sobre o erro que podemos incorrer ao estimar as probabilidades exatas com as frequências empíricas. Outra tarefa simples que pode ser realizada consiste em particionar o conjunto de corridas em duas baterias de tamanho aproximadamente igual e comparar as duas distribuições. Se as duas distribuições não forem semelhantes, não há porque continuar: não estamos próximos da distribuição exata, por isso é necessário fazer mais simulações. A Figura 4 e a Figura 5 mostram os dados exibidos na Figura 3 particionados em duas baterias de 100 execuções de simulação, incluindo os erros padrão. A Figura 4 e a Figura 5 também mostram a função de probabilidade exata que estamos tentando aproximar, que foi calculada usando métodos que são explicados posteriormente neste artigo.

    Figura 4. Em azul: distribuição de frequência relativa do número de caminhantes em uma casa após 50 intervalos de tempo, obtida rodando o CoolWorld 100 vezes (Bateria A), com as condições iniciais descritas no texto. Em cinza: função de probabilidade exata (calculada usando a análise da cadeia de Markov).

    Figura 5. Em azul: distribuição de frequência relativa do número de caminhantes em uma casa após 50 intervalos de tempo, obtida rodando o CoolWorld 100 vezes (Bateria B), com as condições iniciais descritas no texto. Em cinza: função de probabilidade exata (calculada usando a análise da cadeia de Markov).

    5.12 A Figura 4 e a Figura 5 indicam que 100 execuções de simulação podem não ser suficientes para obter uma aproximação satisfatória para a função de probabilidade exata. Por outro lado, a Figura 6 e a Figura 7 mostram que executar o modelo 50.000 vezes parece nos aproximar da função de probabilidade exata. O erro padrão, que é inversamente proporcional à raiz quadrada do tamanho da amostra (ou seja, o número de execuções), é naturalmente muito menor nestes últimos casos.

    Figura 6. Em azul: distribuição de frequência relativa do número de caminhantes em uma casa após 50 intervalos de tempo, obtida executando o CoolWorld 50.000 vezes (Bateria A), com as condições iniciais descritas no texto. Em cinza: função de probabilidade exata (calculada usando a análise da cadeia de Markov).

    Figura 7. Em azul: distribuição de frequência relativa do número de caminhantes em uma casa após 50 intervalos de tempo, obtidos executando o CoolWorld 50.000 vezes (Bateria B), com as condições iniciais descritas no texto. Em cinza: função de probabilidade exata (calculada usando a análise da cadeia de Markov).

    5.13 Quando, como neste exemplo, o espaço de todos os resultados possíveis na distribuição em análise é finito (o número de caminhantes em uma casa deve ser um número inteiro entre 0 e 100), pode-se ir além e calcular intervalos de confiança para as frequências obtidas . Isso é facilmente realizado quando se percebe que a função de probabilidade exata é multinomial. Genz e Kwong (2000) mostram como calcular esses intervalos de confiança.

    5.14 Para concluir esta seção, vamos enfatizar que tudo o que foi escrito aqui se aplica a algum estatísticas obtidas a partir do modelo e, em particular, aquelas que se referem a vários intervalos de tempo. Por exemplo, pode-se estudar o número total de caminhantes que estavam em uma casa em intervalos de tempo ímpares entre os passos de tempo 50 e 200. Esta estatística, como qualquer outra, seguiria uma função de probabilidade específica que pode ser aproximada correndo o modelo.

    Modelos de computador como cadeias de Markov homogêneas no tempo

    O que é uma cadeia de Markov homogênea no tempo?

    6.2 Considere um sistema que no intervalo de tempo n = <1, 2, 3 & hellip> pode estar em um de um número finito de estados possíveis S = <s1, s2, e diabos, sM>. O conjunto S é chamado de espaço de estado neste artigo, nós apenas consideramos finito espaços estaduais [7]. Deixe a sequência de variáveis ​​aleatórias Xn &é em S representam o estado do sistema em intervalos de tempo n. Como um exemplo, X3 = s9 significa que na hora n = 3 o sistema está no estado s9. O sistema começa em um certo estado inicial X0 e muda de um estado para outro. O sistema é estocástico no sentido de que, dado o estado atual, o sistema pode mover-se para um ou outro estado com uma certa probabilidade (ver Figura 8). A probabilidade de que o sistema saia do estado eu declarar j em uma etapa de tempo, P (Xn+1 = j | Xn = eu), é denotado por peu,j. Por exemplo, na cadeia de Markov representada na Figura 8, p4,6 é igual a 0, pois o sistema não pode ir do estado 4 ao estado 6 em um único intervalo de tempo. O sistema também pode permanecer no mesmo estado eu, e isso ocorre com probabilidade peu,eu. As probabilidades peu,j são chamadas de probabilidades de transição e muitas vezes são organizadas em uma matriz, ou seja, a matriz de transição P.

    Figura 8. Diagrama de transição esquemático de uma cadeia de Markov. Círculos denotam estados e setas direcionadas indicam possíveis transições entre estados. Nesta figura, os círculos e setas coloridas em vermelho representam um caminho possível onde o estado inicial X0 é s8 e o estado final é s2.

    Implicitamente, nossa definição de probabilidades de transição assume duas propriedades importantes sobre o sistema:

      O sistema tem o Propriedade Markov. Isso significa que o estado presente contém todas as informações sobre a evolução futura do sistema que podem ser obtidas de seu passado, ou seja, dado o estado atual do sistema, saber a história passada sobre como o sistema atingiu o estado presente não fornece nenhum informações adicionais sobre a evolução futura do sistema. Formalmente,

    6.3 A etapa crucial no processo de representação de um modelo de computador como uma cadeia de Markov homogênea no tempo (THMC) consiste em identificar um conjunto apropriado de variáveis ​​de estado. Uma combinação particular de valores específicos para essas variáveis ​​de estado definirá um estado particular do sistema. Assim, o desafio consiste em escolher o conjunto de variáveis ​​de estado de forma que o modelo computacional possa ser representado como um THMC. Em outras palavras, o conjunto de variáveis ​​de estado deve ser tal que se possa ver o modelo de computador como uma matriz de transição que determina sem ambigüidade a probabilidade de passar de qualquer estado para qualquer outro estado.

    Um passeio aleatório simples

    6.4 Vamos considerar um modelo de um passeio aleatório unidimensional simples e tentar vê-lo como um THMC. Neste modelo & mdash que foi implementado no Applet 2 & mdash, existem 17 patches em linha, rotulados com os números inteiros entre 1 e 17. Um walker aleatório é inicialmente colocado em um dos patches. A partir de então, o caminhante aleatório se moverá aleatoriamente para um dos trechos espacialmente contíguos em cada passo de tempo (ficar parado não é uma opção). O espaço não envolve, ou seja, o único vizinho do patch 1 é o patch 2.

    6.5 O modelo mostrado no Applet 2 pode ser facilmente representado como um THMC escolhendo a posição do agente (por exemplo, o número do patch em que ele está) como a única variável de estado. Para ter certeza, observe que definindo o estado do sistema dessa forma, é verdade que existe uma probabilidade fixa de ir de qualquer estado para qualquer outro estado, independente do tempo. A Figura 9 mostra o diagrama de transição deste THMC.

    Figura 9. Diagrama de transição do modelo mostrado no miniaplicativo 2. Cada círculo amarelo representa um estado do sistema, com o número dentro denotando o número do patch.As setas entre os estados mostram as possíveis transições entre os estados. Cada seta tem um rótulo azul que indica a probabilidade com que essa transição ocorre.

    6.6 A matriz de transição P = [peu,j] correspondente ao modelo mostrado no miniaplicativo 2 é:

    (1)

    Onde, como explicado acima, peu,j é a probabilidade P (Xn+1 = j | Xn = eu) que o sistema estará no estado j no seguinte intervalo de tempo, sabendo que está atualmente no estado eu.

    CoolWorld como um THMC

    6.7 CoolWorld pode ser representado como um THMC definindo o estado do sistema como um vetor contendo o número de walkers em cada patch. É então claro que, uma vez que o modelo tenha sido parametrizado, e dado um estado particular do sistema, a função de probabilidade sobre os estados do sistema para o intervalo de tempo seguinte é completamente determinada.

    Modelos de simulação na literatura como THMCs

    6.8 O Apêndice B mostra 10 modelos famosos na literatura de simulação social que podem ser utilmente representados como cadeias de Markov homogêneas no tempo. Este apêndice também inclui a análise de cada um desses modelos usando os conceitos que explicamos a seguir.

    Distribuições transitórias de THMCs finitos

    7.2 Esta seção explica como calcular a distribuição transitória de um determinado THMC, ou seja, a distribuição de Xn para um fixo n & ge 0. Em palavras simples, estamos atrás de um vetor uma (n) contendo a probabilidade de encontrar o processo em cada estado possível no intervalo de tempo n. Formalmente, uma (n) = [uma1 (n), e diabos, umaM (n) ] , Onde umaeu (n) = P (Xn = eu), denota a distribuição de Xn para um THMC com M estados possíveis. Em particular, uma (0) denota a distribuição inicial sobre o espaço de estado, ou seja, umaeu (0) = P (X0 = eu) Observe que não há problema em ter condições iniciais incertas, ou seja, funções de probabilidade no espaço de entradas possíveis para o modelo.

    Pode-se mostrar que pode-se calcular facilmente a distribuição transitória em intervalos de tempo n, simplesmente multiplicando as condições iniciais pelo n-ésima potência da matriz de transição P.

    Proposição 1. uma (n) = uma (0) & middot P n .

    Assim, os elementos p (n) eu,j do P n representam a probabilidade de que o sistema esteja no estado j depois de n passos de tempo tendo começado no estado eu, ou seja, p (n) eu,j = P (Xn = j | X0 = eu) Um corolário direto da proposição 1 é que uma (n+m) = uma (n) e middot PM .

    Como exemplo, vamos considerar o passeio aleatório unidimensional implementado no Applet 2. Imagine que o caminhante aleatório começa em um local inicial aleatório, ou seja, uma (0) = [1/17, & hellip, 1/17]. A distribuição exata da posição do caminhante no intervalo de tempo 100 seria então uma (100) = uma (0) & middot P 100 Essa distribuição está representada na Figura 10, juntamente com uma distribuição empírica obtida rodando o modelo 50.000 vezes.

    Figura 10. Função de probabilidade da posição do caminhante aleatório do Applet 2 no intervalo de tempo 100, começando em uma localização inicial aleatória.

    7.3 Vejamos um exemplo mais sofisticado com CoolWorld. Considere um modelo parametrizado conforme descrito no parágrafo 5.8 (ver Figura 2), mas em vez de ter 100 andadores, colocamos um único andador em um dos cantos do ambiente. Com essas configurações, existem 33 e 33 estados possíveis, correspondendo aos 33 e tempos 33 patches onde o andador pode estar. O perfil de temperatura e a distribuição das casas determinam totalmente a matriz de transição. Assim, o estado inicial é uma (0) = [1, 0 & hellip 0], o que denota que o caminhante está no remendo na esquina (este é o estado 1) com certeza. Multiplicando uma (0) pela matriz de transição repetidamente podemos obter a probabilidade exata umaeu (n) = P (Xn = eu) se o andador está em qualquer patch eu a qualquer momento n. Isso é ilustrado na figura 11, que mostra as distribuições transitórias desse modelo com o passar do tempo.

    7.4 Tendo obtido a função de probabilidade sobre os estados do sistema para qualquer n, ou seja, a função de massa de probabilidade de Xn, é fácil calcular a distribuição de algum estatística que pode ser extraída do modelo. Como argumentado nas seções anteriores, o estado do sistema o caracteriza totalmente, então algum estatística que obtemos sobre o modelo de computador no intervalo de tempo n deve ser, em última análise, uma função de <X0, X1, e diabos, Xn>.

    7.5 Por exemplo, para calcular a probabilidade de que o caminhante solitário em CoolWorld esteja em uma casa na etapa de tempo 50, basta adicionar os elementos de uma (50) correspondendo aos estados em que o caminhante se encontra em uma casa. Da mesma forma, se quiséssemos calcular, por exemplo, o tempo médio que o caminhante passa em uma casa da etapa de tempo 0 a etapa de tempo 50, procederíamos de forma análoga, mas usando os 51 vetores uma (t) , t = <0, 1, & hellip, 50>. A análise de modelos com qualquer número de caminhantes não é significativamente mais complexa em particular, as funções de probabilidade exatas mostradas nas Figuras 4, 5, 6 e 7 foram calculadas usando o método explicado nesta seção.

    7.6 É certo que a matriz de transição da maioria dos modelos de computador não pode ser facilmente derivada ou é inviável operar com ela. No entanto, essa aparente desvantagem não é tão importante quanto se poderia esperar. Como veremos a seguir, muitas vezes é possível inferir muitas propriedades de um THMC, mesmo sem saber os valores exatos de sua matriz de transição, e essas propriedades podem fornecer insights úteis sobre a dinâmica do processo associado. Conhecer os valores exatos da matriz de transição nos permite calcular as distribuições transitórias exatas usando a Proposição 1, o que é desejável, mas não crítico, uma vez que sempre podemos aproximar essas distribuições conduzindo muitas simulações, conforme explicado na seção 5.

    Conceitos importantes

    Definição 1: acessibilidade

    8.2 Um Estado j é dito ser acessível a partir do estado eu se começando no estado eu há uma chance de que o sistema possa visitar o estado j em algum momento no futuro. Por convenção, cada estado é acessível a partir de si mesmo. Formalmente, um estado j é dito ser acessível a partir do estado eu se para algum n & ge 0, p (n) eu,j & gt 0.

    Observe que j é acessível a partir de eu & ne j se e somente se houver um caminho direcionado de eu para j no diagrama de transição. Nesse caso, nós escrevemos eu& rarrj. Se eu& rarrj nós também dizemos isso eu leva a j. Por exemplo, no THMC representado na Figura 8, s2 é acessível a partir de s12 mas não de s5. Observe que a definição de acessibilidade não depende da magnitude real de p (n) eu,j , apenas se for exatamente zero ou estritamente positivo.

    Definição 2: Comunicação

    8.3 Um Estado eu diz-se que comunica com o estado j E se eu& rarrj e j& rarreu.

    Se eu se comunica com j nós também dizemos isso eu e j comunicar e escrever eu& harrj. Como exemplo, observe que no passeio aleatório simples apresentado no parágrafo 6.4 (consulte o Applet 2) cada estado se comunica com todos os outros estados. Vale ressaltar que a relação "comunicação" é transitiva, ou seja,

    Definição 3: aula de comunicação

    8.4 Um conjunto de estados C &sub S é considerada uma classe comunicante se:

      Quaisquer dois estados na classe de comunicação se comunicam. Formalmente,

    Como exemplo, observe que no passeio aleatório simples apresentado no parágrafo 6.4, há uma única classe de comunicação que contém todos os estados. Da mesma forma, qualquer modelo CoolWorld onde prob-saindo-de-casa & isin (0, 1) e movimento prob-aleatório & isin (0, 1) tem uma única classe de comunicação contendo todos os estados possíveis. No THMC representado na Figura 8, existem 4 classes de comunicação: <s2>, <s5>, <s10>, <s1, s3, s4, s6, s7, s8, s9, s11, s12>.

    Definição 4: aula fechada de comunicação (ou seja, aula absorvente). Estado absorvente.

    8.5 Uma aula de comunicação C é dito fechado se nenhum estado dentro C leva a qualquer estado fora C. Formalmente, uma aula de comunicação C é dito fechado se eu &é em C e j &não em C implica que j não é acessível de eu.

    Observe que, uma vez que uma cadeia de Markov visita uma classe comunicante fechada, ela não pode mais deixá-la. Conseqüentemente, às vezes nos referiremos às classes comunicantes fechadas como "classes absorventes". Este último termo não é padrão na literatura, mas achamos que é útil aqui para fins explicativos. Observe que se uma cadeia de Markov tiver uma única classe de comunicação, ela deve ser fechada.

    Como exemplo, observe que as classes comunicantes <s10> e <s1, s3, s4, s6, s7, s8, s9, s11, s12> no THMC representado na Figura 8 não são fechados, pois podem ser abandonados. Por outro lado, as classes comunicantes <s2> e <s5> estão realmente fechadas, uma vez que não podem ser abandonadas. Quando uma classe de comunicação fechada consiste em um único estado, esse estado é denominado absorvente. Assim, s2 e s5 são estados absorventes. Formalmente, estado eu é absorvente se e somente se peu,eu = 1 e peu,j = 0 para eu & ne j.

    Proposição 2. Teorema da Decomposição (Chung, 1960)

    8.6 O espaço de estado S de qualquer cadeia de Markov pode ser particionada exclusivamente da seguinte forma:

    S = C1 &xícara C2 &xícara e inferno &xícara Ck &xícara T Onde C1, C2, e diabos, Ck são classes comunicantes fechadas, e T é a união de todas as outras classes comunicantes.

    Observe que não distinguimos entre classes comunicantes não fechadas: agrupamos todos eles em T. Assim, a partição única do THMC representado na Figura 8 é S = <s2> & xícara <s5> & xícara <s1, s3, s4, s6, s7, s8, s9, s10, s11, s12>. Qualquer modelo CoolWorld onde prob-saindo-de-casa & isin (0, 1) e movimento prob-aleatório & isin (0, 1) tem uma única classe de comunicação (fechada) C1 contendo todos os estados possíveis, ou seja, S e equiv C1. Da mesma forma, todos os estados no passeio aleatório simples apresentado no parágrafo 6.4 pertencem à mesma classe comunicante (fechada).

    Definição 5: Irredutibilidade

    8.7 Uma cadeia de Markov é considerada irredutível se todos os seus estados pertencerem a uma única classe de comunicação fechada, caso contrário, ela é chamada de redutível. Assim, o passeio aleatório simples apresentado no parágrafo 6.4 é irredutível, mas o THMC representado na Figura 8 é redutível.

    Definição 6: Estados transitórios e recorrentes

    8.8 Um Estado eu é considerado transitório se, dado que começamos no estado eu, há uma probabilidade diferente de zero de que nunca voltaremos a eu. Caso contrário, o estado é denominado recorrente. Uma cadeia de Markov começando de um estado recorrente irá revisitá-la com probabilidade 1 e, portanto, revisitá-la infinitamente frequentemente. Por outro lado, uma cadeia de Markov começando de um estado transiente tem uma probabilidade estritamente positiva de nunca mais voltar a ele. Assim, uma cadeia de Markov visitará qualquer estado transiente apenas finitamente muitas vezes, eventualmente, os estados transitórios não serão mais revisitados.

    Definição 7: Estados periódicos e aperiódicos. Aulas de comunicação periódica e aperiódica

    8.9 Um Estado eu tem período d se algum retornar ao estado eu deve ocorrer em múltiplos de d passos de tempo. Se d = 1, então o estado é dito ser aperiódico de outra forma (d & gt 1), o estado é considerado periódico com período d. Formalmente, estado euperíodo de d é o maior divisor comum do conjunto de inteiros n & gt 0 tal que p (n) eu,eu & gt 0. Para nossos propósitos, o conceito de periodicidade só é relevante para estados recorrentes.

    Como exemplo, observe que cada estado no passeio aleatório simples apresentado no parágrafo 6.4 é periódico com o período 2. Por outro lado, cada estado em qualquer modelo CoolWorld onde prob-saindo-de-casa & isin (0, 1) e movimento prob-aleatório & isin (0, 1) é aperiódico.

    Um fato interessante e útil é que se eu& harrj , então eu e j deve ter o mesmo período (ver teorema 5.2. em Kulkarni (1995)). Em particular, observe que se peu,eu & gt 0 para qualquer eu, então a classe de comunicação para a qual eu pertence deve ser aperiódico. Assim, faz sentido qualificar as aulas de comunicação como periódicas com período d, ou aperiódico. Uma aula de comunicação fechada com período d pode retornar ao seu estado inicial apenas às vezes d, 2d, 3d, e diabos

    8.10 Os conceitos apresentados nesta seção nos permitirão analisar a dinâmica de qualquer cadeia de Markov finita. Em particular, mostraremos que, dado tempo suficiente, qualquer cadeia de Markov finita necessariamente terminará em uma de suas classes comunicantes fechadas (ou seja, classes absorventes).

    Limitando o comportamento de THMCs

    Dinâmica geral

    9.2 O primeiro passo na análise de qualquer THMC consiste em identificar todas as classes comunicantes fechadas, para que possamos particionar o espaço de estado S conforme indicado pelo teorema da decomposição (ver Proposição 2). A seguinte proposição (Teoremas 3.7 e 3.8 em Kulkarni (1995)) revela o significado desta partição:

    Proposição 3. Dinâmica geral de THMCs finitos.

    9.3 Considere um THMC finito que foi particionado conforme indicado na Proposição 2. Então:

    1. Todos os estados em T (ou seja, não pertencendo a uma classe de comunicação fechada) são transitórios.
    2. Todos os estados em Cv(ou seja, em qualquer classe de comunicação fechada) são recorrentes v & isin <1, 2, & hellip, k>.

    A proposição 3 afirma que mais cedo ou mais tarde o THMC entrará em uma das classes absorventes e permanecerá nela para sempre. Formalmente, para todos eu &é em S e tudo j &é em T: , ou seja, a probabilidade de encontrar o processo em um estado pertencente a uma classe de comunicação não fechada vai para zero quando n vai para o infinito. Naturalmente, se o estado inicial já pertence a uma classe absorvente Cv, então a cadeia nunca abandonará tal classe. Formalmente, para todos eu &é em Cve tudo j &não em Cv: p (n) eu,j = 0 para todos n & ge 0. Fornecemos agora dois exemplos para ilustrar a utilidade da Proposição 3.

    THMC representado na Figura 8

    9.4 Este THMC tem apenas duas classes de absorção: <s2> e <s5>. Assim, a partição do espaço de estado é: S = <s2> & xícara <s5> & xícara <s1, s3, s4, s6, s7, s8, s9, s10, s11, s12>. Portanto, aplicando a proposição 3, podemos afirmar que o processo acabará por terminar em um dos dois estados absorventes, s2 ou s5. A probabilidade de acabar em um ou outro estado absorvente depende das condições iniciais uma (0) (e nos números reais peu,j na matriz de transição, é claro). Um pouco mais formalmente, a distribuição limitante de Xn existe, mas não é único, ou seja, depende das condições iniciais.

    CoolWorld

    9.5 Considere qualquer modelo CoolWorld com pelo menos uma casa, com movimento prob-aleatório estritamente positivo e com prob-saindo-de-casa exatamente igual a 0. Sob tais condições, todo estado em que todos os caminhantes estão em uma casa é absorvente (e não há mais classes absorventes). Assim, qualquer simulação CoolWorld que satisfaça as condições mencionadas terminará necessariamente com todos os caminhantes em uma casa, independentemente do perfil de temperatura ou da distribuição das casas. Em particular, se houver uma única casa, então, mais cedo ou mais tarde, todo caminhante acabará na única casa. O leitor pode querer corroborar esse fato usando o miniaplicativo no Apêndice A.

    Dinâmica dentro de classes absorventes

    9.6 A subseção anterior (ou seja, "General Dynamics") explicou que qualquer execução de simulação necessariamente terminará em uma determinada classe absorvente. Esta subseção caracteriza a dinâmica de um THMC que já está "preso" em uma classe absorvente. Esta é precisamente a análise das cadeias de Markov irredutíveis, uma vez que as cadeias de Markov irredutíveis são, por definição, cadeias de Markov com uma única classe de comunicação fechada (ver Definição 5). Em outras palavras, pode-se ver qualquer THMC como um conjunto de estados transitórios T mais um número finito de subcadeias de Markov irredutíveis.

    9.7 THMCs irredutíveis se comportam significativamente diferentes dependendo se são periódicos ou não. As subseções a seguir caracterizam esses dois casos.

    THMCs irredutíveis e aperiódicos

    9.8 Os THMCs irredutíveis e aperiódicos são freqüentemente chamados de ergódicos. Nestes processos, a função de probabilidade de Xn aproxima-se de um limite quando n tende ao infinito. Este limite é chamado de distribuição limitante, e é denotado aqui por & pi. Formalmente, o seguinte limite existe e é único (ou seja, independente das condições iniciais umaeu (0) ):

    9.9 Assim, em THMCs ergódicos a probabilidade de encontrar o sistema em cada um de seus estados no longo prazo é estritamente positiva e independente das condições iniciais (Teoremas 3.7 e 3.15 em Kulkarni (1995)). Como mencionado anteriormente, o cálculo de tais probabilidades pode ser inviável, mas podemos estimá-las amostrando muitas simulações em um intervalo de tempo suficientemente grande.

    9.10 É importante ressaltar que em THMCs ergódicos a distribuição limite & pi coincide com o distribuição de ocupação & pi *, que é a fração de longo prazo do tempo que o THMC gasta em cada estado [8]. Naturalmente, a distribuição de ocupação & pi * também é independente das condições iniciais. Assim, em THMCs ergódicos, a execução de apenas uma simulação por tempo suficiente (o que nos permite estimar & pi *) também servirá para estimar & pi.

    9.11 A pergunta que vem à mente é: quanto tempo é suficiente? ou seja, quando saberei que a distribuição empírica obtida por simulação se assemelha à distribuição limite & pi? Infelizmente, não há resposta para isso. O lado bom é que saber que o limite e a distribuição de ocupação coincidem, que devem ser estáveis ​​no tempo e que são independentes das condições iniciais, nos permite realizar uma ampla gama de testes que podem nos dizer quando é certo não longo O suficiente. Por exemplo, podemos executar uma bateria de simulações e estudar a distribuição empírica sobre os estados do sistema nas amostras com o passar do tempo. Se a distribuição não for estável, não executamos o modelo por tempo suficiente.Da mesma forma, uma vez que a distribuição de ocupação é independente das condições iniciais, pode-se executar várias simulações com condições iniciais amplamente diferentes e comparar as distribuições de ocupação obtidas. Se as distribuições empíricas de ocupação não forem semelhantes, então não executamos o modelo por tempo suficiente. Muitas outras verificações podem ser realizadas.

    9.12 É certo que, ao analisar um modelo de computador, muitas vezes nos interessa não tanto a distribuição sobre os estados possíveis do sistema, mas sim a distribuição de uma determinada estatística. O ponto crucial é perceber que se a estatística é uma função do estado do sistema (e todas as estatísticas que podem ser extraídas do modelo são), então a limitação e as distribuições de ocupação da estatística existem, coincidem e são independentes de as condições iniciais.

    9.13 Para ilustrar isso, apresentamos alguns resultados com CoolWorld parametrizado conforme descrito no parágrafo 5.8. Um exemplo de uma estatística potencialmente interessante no CoolWorld é o número de caminhantes em cada patch. O primeiro passo é garantir que o THMC seja irredutível e aperiódico. Observe que desde movimento prob-aleatório e prob-saindo-de-casa estão no intervalo (0, 1), cada estado se comunica com todos os outros estados, ou seja, o THMC é irredutível. Identificando um estado eu de tal modo que peu,eu & gt 0 garantirá que o THMC também seja aperiódico (consulte a Definição 7). Um exemplo de tal estado aperiódico é qualquer estado em que todos os caminhantes estejam em uma casa. Assim, o modelo parametrizado tem uma distribuição limite única sobre todos os estados possíveis, independente das condições iniciais (ou seja, independente da localização inicial dos caminhantes), consequentemente, o número de caminhantes em cada uma das manchas também tem uma distribuição limite única que é independente das condições iniciais e coincide com a sua distribuição de ocupação, ou seja, no limite como n vai ao infinito a probabilidade de ter k caminhantes em qualquer patch específico coincide com a proporção do tempo que há k caminhantes no patch.

    9.14 Isso é ilustrado nas Figuras 12 e 13. A Figura 12 mostra o número médio de caminhantes em cada patch ao longo das etapas de tempo de 0 a 10.000, calculado com uma única corrida (ou seja, uma estimativa da média da distribuição de ocupação para cada patch, assumindo 10.000 passos de tempo são suficientes). Por outro lado, a Figura 13 mostra o número médio de caminhantes em cada patch no intervalo de tempo 1000, calculado ao longo de 1000 execuções de simulação (ou seja, uma estimativa da média da distribuição limite para cada patch, assumindo que 1000 passos de tempo são suficientes) . Sem entrar em detalhes, observe que o valor exato do número esperado de caminhantes em cada patch foi mostrado (em termos relativos) na Figura 11 (o quadro marcado com & infin).

    Figura 12. Número médio de caminhantes em cada patch ao longo dos passos de tempo de 0 a 10.000 calculados com uma única corrida (ou seja, uma estimativa da média da distribuição de ocupação para cada patch, assumindo que 10.000 passos de tempo são suficientes) em um modelo CoolWorld parametrizado como descrito no parágrafo 5.8.

    Figura 13. Número médio de caminhantes em cada patch na etapa de tempo 1000, calculado ao longo de 1000 execuções de simulação (ou seja, uma estimativa da média da distribuição limite para cada patch, assumindo que 1000 etapas de tempo são suficientes) em um modelo CoolWorld parametrizado conforme descrito no parágrafo 5,8.

    9.15 Dada a importância dos THMCs irredutíveis e aperiódicos, concluímos esta subseção fornecendo algumas condições suficientes que garantem que um THMC finito é irredutível e aperiódico (ou seja, ergódico):

    Proposição 4. Condições suficientes para irredutibilidade e aperiodicidade.
    1. Se for possível ir de qualquer estado para qualquer outro estado em uma única etapa de tempo (peu,j & gt 0 para todos eu & ne j) e há mais de 2 estados, então o THMC é irredutível e aperiódico.
    2. Se for possível ir de qualquer estado para qualquer outro estado em um número finito de etapas de tempo (eu& harrj para todos eu & ne j), e há pelo menos um estado em que o sistema pode permanecer por dois intervalos de tempo consecutivos (peu,eu & gt 0 para alguns eu), então o THMC é irredutível e aperiódico.
    3. Se existe um número inteiro positivo n de tal modo que p (n) eu,j & gt 0 para todos eu e j, então o THMC é irredutível e aperiódico (Janssen e Manca 2006, p. 107).
    THMCs irredutíveis e periódicos

    9.16 Em contraste com os THMCs aperiódicos, a distribuição de probabilidade de Xn em THMCs periódicos não se aproxima de um limite como n tende ao infinito. Em vez disso, em um THMC irredutível com ponto d, Como n tende ao infinito, Xn irá, em geral, percorrer d funções de probabilidade dependendo da distribuição inicial.

    9.17 Como exemplo, considere o passeio aleatório simples apresentado no parágrafo 6.4 (que é irredutível e periódico, com período 2), e suponha que o caminhante aleatório comece no patch número 1 (ou seja, X0 = 1). Dadas essas configurações, pode-se mostrar que

    9.18 Em particular, os limites acima mostram que o caminhante aleatório não pode estar em um patch com um número par em qualquer intervalo de tempo par, e ele não pode estar em um patch com um número ímpar em qualquer intervalo de tempo ímpar. Em contraste, se o caminhante aleatório começou no patch número 2 (ou seja, X0 = 2), então os limites acima seriam trocados.

    9.19 Felizmente, todo THMC irredutível (periódico ou aperiódico) tem uma distribuição de ocupação única & pi *, independente das condições iniciais (ver Teorema 5.19 em Kulkarni (1999)). Em nosso exemplo particular, isso é:

    9.20 Assim, a fração de longo prazo de tempo que o sistema gasta em cada estado em qualquer THMC irredutível é única (isto é, independente das condições iniciais). Este é um resultado muito útil, uma vez que qualquer estatística que seja função do estado do sistema também terá uma distribuição de ocupação única independente das condições iniciais. Conforme explicado antes, essa distribuição de ocupação pode ser aproximada com uma única simulação, assumindo que dure o tempo suficiente. O leitor pode querer corroborar isso usando o miniaplicativo 2.

    Estados de absorção e estabilidade estocástica

    10.2 Se o modelo tiver apenas um estado de absorção (ou seja, S = <abdômen1> & xícara T), a análise é direta. O sistema acabará por terminar no estado de absorção com probabilidade 1, independentemente das condições iniciais, ou seja,

    10.3 Se, por outro lado, houver vários estados absorventes, então a Proposição 3 afirma que o sistema acabará por atingir um desses estados absorventes (ou seja, o conjunto formado por todos os estados absorventes é alcançado com probabilidade 1). A probabilidade de acabar em qualquer estado absorvente particular depende das condições iniciais. Nesta seção, estudamos a robustez de cada um desses estados absorventes a pequenas perturbações. Em modelos evolutivos, essas perturbações podem derivar de processos de mutação em modelos culturais, podem derivar de experimentação. Em qualquer caso, as perturbações são entendidas aqui como algum tipo de ruído que permite ao sistema fazer movimentos entre estados que não eram possíveis no modelo não perturbado. Em particular, assume-se aqui que o escape de estados previamente absorventes é possível devido a perturbações. Portanto, quando ruído é adicionado a esses modelos, a partição de seu espaço de estado muda significativamente. Na maioria das vezes, a inclusão de ruído torna o THMC irredutível e aperiódico (ou seja, ergódico) ou uni-redutível. THMCs uni-redutíveis têm uma única classe de absorção (ou seja, S = C1 &xícara T) assumimos aqui que esta classe absorvente é aperiódica. Em ambos os casos (THMCs ergódicos e THMCs uni-redutíveis com uma classe de absorção aperiódica), há uma distribuição limitante única independente das condições iniciais. Conforme explicado na seção 9, esta distribuição limite coincide com a distribuição de ocupação.

    10.4 Conseqüentemente, a inclusão de (mesmo níveis minúsculos) de ruído pode alterar drasticamente a dinâmica desses sistemas. Em geral, para níveis de ruído suficientemente baixos, encontramos a distribuição limitante única concentrada nas vizinhanças dos estados previamente absorventes (PAS). Quanto menor o ruído, maior a concentração em torno dos PASs.

    10.5 O ponto interessante é que, quando o ruído é adicionado, é comum que alguns dos estados de absorção que poderiam ser alcançados com probabilidade arbitrariamente grande no modelo não perturbado sejam observados com probabilidade muito baixa no modelo com ruído. Em outras palavras, a distribuição limite do modelo com ruído pode se concentrar em alguns dos PASs muito mais do que em outros. No limite em que o ruído chega a zero, muitas vezes acontece que apenas alguns dos PASs permanecem como pontos de concentração. Esses são chamados de estados estocasticamente estáveis ​​(Foster e Young 1990 Young 1993 Ellison 2000). Os estados estocasticamente estáveis ​​são importantes porque constituem o conjunto de estados onde o sistema levemente perturbado passa uma proporção significativa do tempo no longo prazo. Além disso, o conjunto de estados estocasticamente estáveis ​​é geralmente o mesmo para uma gama surpreendentemente ampla de tipos de ruído estruturalmente diferentes (ver Young, 1993). Young (1993) fornece um método geral para identificar estados estocasticamente estáveis, resolvendo uma série de problemas de caminho mais curto em um gráfico. Ellison (2000) complementa a abordagem de Young com outro método nem sempre conclusivo, mas muitas vezes mais fácil de aplicar e intuitivo. Para uma visão geral desta parte da literatura, consulte Vega-Redondo (2003, seção 12.6), que fornece uma excelente descrição dos conceitos básicos e técnicas para analisar processos de Markov perturbados.

    10.6 O restante desta seção é dedicado a ilustrar o conceito de estabilidade estocástica com um exemplo de um modelo simples onde dois alunos por reforço jogam um jogo 2x2. (Uma versão mais sofisticada deste modelo foi analisada por Macy e Flache (2002), Flache e Macy (2002) e Izquierdo et al. (2007 2008)).

    Um modelo de aprendizagem por reforço em jogos 2x2

    10.7 Os alunos do reforço usam sua experiência para escolher ou evitar certas ações com base nas consequências observadas. As ações que levaram a resultados satisfatórios (ou seja, resultados que atenderam ou excederam as aspirações) no passado tendem a se repetir no futuro, enquanto as escolhas que levaram a experiências insatisfatórias são evitadas.

    O modelo formal

    10.8 No modelo apresentado aqui (e implementado no Applet 3), há dois alunos por reforço jogando um Dilema do Prisioneiro repetidamente. O Dilema do Prisioneiro é um jogo de duas pessoas em que cada jogador pode cooperar (C) ou desertar (D). Para cada jogador r, a recompensa quando ambos cooperam (vocêr(C, C) = Rr, para Recompensa) é maior do que o retorno obtido quando ambos falham (vocêr(D, D) = Pr, para Punição) se um cooperar e o outro defeituar, o cooperador obtém Sr (Otário), enquanto o desertor recebe Tr (Tentação) O dilema vem do fato de que, individualmente, é melhor cada jogador desertar, dadas as escolhas de sua contraparte ( Tr & gt Rr e Pr & gt Sr r = 1, 2), mas ambos obtêm uma recompensa maior quando ambos cooperam do que quando ambos desertam ( Rr & gt Pr r = 1, 2).

    10.9 Neste modelo, cada jogador r tem uma certa propensão a cooperar pr, C e uma certa propensão a desertar pr, D no Applet 3, essas propensões são sempre múltiplos de 1/16. Na ausência de ruído, os jogadores cooperam com a probabilidade pr, C e defeito com probabilidade pr, D, mas eles também podem sofrer de "mãos trêmulas" (Selten 1975), ou seja, depois de decidir qual ação realizar, cada jogador r pode selecionar a ação errada com probabilidade barulho de mãos trêmulas.

    10.10 A revisão das propensões ocorre seguindo uma abordagem de aprendizagem por reforço: os jogadores aumentam sua propensão de realizar uma determinada ação se isso levar a recompensas que pelo menos atendam ao seu nível de aspiração UMAr, e diminuir essa propensão de outra forma. Especificamente, se um jogador r recebe uma recompensa maior ou igual ao seu limite de aspiração UMAr, ela aumenta a propensão de conduzir a ação selecionada em 1/16 (dentro dos limites naturais das probabilidades). Caso contrário, ela diminui essa propensão em 1/16.

    10.11 Matematicamente, após o resultado sobre = <açao1, açao2> no intervalo de tempo n, cada jogador r atualiza sua propensão de realizar a ação selecionada açaor da seguinte forma (dentro dos limites naturais das probabilidades):

    Onde p n r, ação é jogador ra propensão de empreender ações açaor no intervalo de tempo n, e vocêr(sobre ) é o pagamento obtido pelo jogador r no intervalo de tempo n, tendo experimentado resultados sobre . A propensão atualizada para a ação não selecionada deriva da restrição de que as propensões devem somar um. Observe que este modelo pode ser representado como um THMC, definindo o estado do sistema como um vetor contendo a propensão de ambos os jogadores para cooperar, ou seja, [p1, C , p2, C] As subseções a seguir analisam modelos onde Tr & gt Rr & gt Pr & gt UMAr & gt Sr, r = 1, 2.

    Análise do modelo sem ruído

    10.12 O modelo com barulho de mãos trêmulas = 0 tem dois estados de absorção: um em que ambos os jogadores cooperam com a probabilidade 1 (denotado por abdômenC) e outro em que ambos os jogadores desertam com probabilidade 1 (denotado por abdômenD). Assim, S = <abdômenC> & xícara <abdômenD> & xícara T. A partir de qualquer estado não absorvente com pr, C & gt 0 (r = 1, 2), há uma probabilidade estritamente positiva de terminar em cada um dos dois estados absorventes. Naturalmente, essas probabilidades dependem das condições iniciais. Por exemplo, se o estado inicial for [p1, C , p2, C] = [0,875, 0,625], então o sistema vai acabar em abdômenC com probabilidade 0,635 e em abdômenD com probabilidade de 0,365. A Figura 14 mostra as distribuições transitórias desse modelo com o passar do tempo.

    Análise do modelo com ruído

    10.13 Em contraste com o modelo imperturbável, o modelo com barulho de mãos trêmulas & ne 0 é uni-redutível sem estados de absorção. Pode-se mostrar que existe uma única classe de absorção (aperiódica) C1 contendo todos os estados em que as propensões dos jogadores a cooperar são as mesmas, ou seja, p1, C = p2, C. Assim, S = C1 &xícara T, e o modelo tem uma distribuição limite única independente do estado inicial. A Figura 15 mostra as distribuições transitórias deste modelo com barulho de mãos trêmulas = 0,1 com o passar do tempo e a distribuição limite.

    10.14 A distribuição limitante do modelo ruidoso (que é independente das condições iniciais) está concentrada no PAS não cooperativo [p1, C , p2, C] = [0, 0]. Pode-se demonstrar que o PAS não cooperativo é o único estado estocasticamente estável. Assim, mesmo que o modelo imperturbado possa acabar no PAS cooperativo [p1, C , p2, C] = [1, 1] com probabilidade arbitrariamente grande, a fração de longo prazo de tempo que o sistema perturbado gasta no PAS cooperativo tende a 0 enquanto o ruído tende a 0, independentemente das condições iniciais. No limite como o ruído tende a 0, apenas o PAS não cooperativo seria observado.

    10.15 Intuitivamente, observe que quando o sistema está no PAS cooperativo (ou em suas proximidades), uma única deserção (possivelmente equivocada) é suficiente para afastar o sistema dele. Por outro lado, quando o sistema está no PAS não cooperativo em [0, 0] (ou próximo), uma única cooperação (possivelmente equivocada) não fará com que o sistema se afaste do PAS não cooperativo. Somente uma cooperação mútua coordenada (o que é altamente improvável no PAS em [0, 0] e em suas proximidades) fará com que o sistema se afaste deste PAS não cooperativo. Isso torna o PAS não cooperativo em [0, 0] muito mais robusto a erros ocasionais cometidos pelos jogadores ao selecionar suas estratégias do que o PAS cooperativo em [1, 1], conforme ilustrado na Figura 15.

    Resumo

    11.2 O primeiro passo para analisar um modelo como uma cadeia de Markov consiste em encontrar uma definição apropriada do estado do sistema. Essa definição deve ser tal que se possa ver o modelo de computador como uma matriz de transição que determina sem ambigüidade a probabilidade de passar de qualquer estado para qualquer outro estado. A próxima etapa consiste em identificar todas as classes comunicantes fechadas (ou seja, absorventes) no modelo Cv (v & isin <1, 2, & hellip, k>). Isso nos permite particionar o espaço de estado da cadeia de Markov como a união de todas as classes comunicantes fechadas C1, C2, e inferno, Ck no modelo mais outra classe T contendo todos os estados que pertencem a classes comunicantes não fechadas.

    11.3 Após realizar esta partição, a análise da dinâmica do modelo é direta: todos os estados em T (ou seja, em qualquer classe de comunicação finita que não seja fechada) são transitórios, enquanto todos os estados em Cv(ou seja, em qualquer classe de comunicação fechada finita) são recorrentes. Em outras palavras, mais cedo ou mais tarde, qualquer execução de simulação entrará em uma das classes absorventes Cv e ficar nele para sempre. Assim, o passo seguinte consiste em caracterizar a dinâmica do sistema dentro de cada uma dessas classes absorventes.

    11.4 Uma vez que o sistema entrou em uma certa classe absorvente Cv, ele permanecerá nele para sempre exibindo uma distribuição de ocupação condicional única [9] & piv* sobre o conjunto de estados que compõem Cv. Esta distribuição de ocupação condicional & piv* denota a fração de longo prazo (estritamente positiva) do tempo que o sistema passa em cada estado de Cv dado que o sistema entrou Cv. É importante ressaltar que a distribuição de ocupação condicional & piv* é o mesmo, independentemente do estado específico através do qual o sistema entrou Cv.

    11.5 Algumas aulas absorventes são periódicas e outras aperiódicas. As classes de absorção de aperiódica têm uma distribuição de limitação condicional única & piv denotando a probabilidade de longo prazo (estritamente positiva) de encontrar o sistema em cada um dos estados que compõem Cv dado que o sistema entrou Cv. Esta distribuição de limitação condicional & piv coincide com a distribuição de ocupação condicional & piv* e, naturalmente, também é independente do estado específico pelo qual o sistema entrou Cv. Em contraste com as classes de absorção aperiódica, as classes de absorção periódica geralmente não têm uma distribuição limite única, em vez disso, elas percorrem d funções de probabilidade, dependendo do estado específico através do qual o sistema entrou Cv (Onde d denota o período da classe de absorção periódica).

    11.6 O tipo de análise explicado neste documento é útil mesmo se & mdasha na maioria dos casos & mdash as funções de probabilidade descritas acima não podem ser derivadas analiticamente. Essas funções de probabilidade podem sempre ser aproximadas com qualquer grau de precisão executando o modelo de computador várias vezes. O ponto importante é que perceber que tais funções de probabilidade existem, e saber quando e como elas dependem das condições iniciais, pode fornecer insights úteis sobre a dinâmica de muitos modelos de computador. Esse fato foi ilustrado neste artigo por meio da análise de 10 modelos bem conhecidos na literatura de simulação social.

    Reconhecimentos

    Notas

    2 Observe que as simulações de modelos estocásticos estão, na verdade, usando geradores de números pseudo-aleatórios, que são algoritmos determinísticos que requerem uma semente como entrada.

    3 O simples fato de o modelo ter sido implementado e poder ser executado em um computador é uma prova de que o modelo é formal (Suber 2007).

    4 Na verdade, estritamente falando, entradas e saídas em um modelo de computador são nuncanúmeros. Podemos interpretar cadeias de bits como números, mas podemos interpretar igualmente bem as mesmas cadeias de bits como, por exemplo, cartas. Mais importante, um bit em si já é uma abstração, uma interpretação que fazemos de um pulso elétrico que pode estar acima ou abaixo de um limite crítico de voltagem.

    • Sequência (ou seja, execução de um subprograma e, em seguida, outro subprograma),
    • Seleção (ou seja, executar um dos dois subprogramas de acordo com o valor de uma variável booleana, por exemplo, IF [boolean = true] -THEN [subprogram1] -ELSE [subprogram2]), e
    • Iteração (ou seja, executar um subprograma até que uma variável booleana se torne falsa, por exemplo, WHILE [boolean = true] -DO [subprograma]).

    6 A frequência do evento "há eu caminhantes em um canteiro com uma casa na etapa de tempo 50 "calculada sobre n execuções de simulação podem ser vistas como a média de uma amostra de n i.i.d. Variáveis ​​aleatórias de Bernouilli em que sucesso denota que o evento ocorreu e falha denota que não ocorreu. Assim, a frequência f é o estimador de máxima verossimilhança (imparcial) da probabilidade exata com a qual o evento ocorre. O erro padrão da frequência calculada f é o desvio padrão da amostra dividido pela raiz quadrada do tamanho da amostra. Nesse caso específico, a fórmula é:

    Padrão erro (f, n) = (f (1 & mdash f) / (n & mdash 1)) 1/2

    Onde f é a frequência do evento, n é o número de amostras, e o desvio padrão da amostra foi calculado dividindo por (n & mdash 1).

    7 O termo 'cadeia de Markov' permite espaços de estados contáveis ​​infinitos também (Karr 1990).

    8 Formalmente, a ocupação do estado eu é definido como:

    Onde Neu(n) denota o número de vezes que o THMC visita estado eu ao longo do intervalo de tempo <0, 1, & hellip, n>.

    9 Dado que o sistema entrou na classe absorvente Cv.

    Apêndice A

    Apêndice B

    Análise de 10 modelos famosos na literatura de simulação social como cadeias de Markov homogêneas no tempo
    Tabela 1: Modelos na literatura de simulação social que podem ser utilmente representados como cadeias de Markov. A análise de cada um desses modelos pode ser acessada clicando no nome do modelo
    Modelo Papel original Referências usadas
    Segregação espacialSchelling (1971)Schelling 1969 Sakoda 1971 Schelling 1971 Schelling 1978 Hegselmann e Flache 1998 Wilensky 1999 Flache e Hegselmann 2001 Benenson e Torrens 2004 Edmonds e Hales 2005 Aydinonat 2007
    Sugarscape Epstein e Axtell (1996)Epstein e Axtell 1996 Epstein 1999 Flentge et al. 2001 Buzing et al. 2005
    Aplaudido de péMiller e Page (2004)Wilensky 1999 Miller e Página 2004 de Marchi 2005 Miller e Página 2007
    Tecnologias concorrentesArthur (1989)Arthur 1989 Axelrod 1997 Leydesdorff 2001
    MetanormesAxelrod (1986)Axelrod 1986 Galan e Izquierdo 2005
    Troca generalizadaTakahashi (2000)Dawes 1980 Axelrod 1986 Nowak e maio de 1992 Nowak e Sigmund 1998 Cohen et al. 1999 Takahashi 2000 Gotts et al. 2003 Hauert e Doebeli 2004 Doebeli e Hauert 2005 Edmonds e Hales 2005 Fort e P & eacuterez 2005 De Jong 2006 N & eacutemeth e Tak & aacutecs 2007
    Disseminação de culturaAxelrod (1997)Axelrod 1997 Castellano et al. 2000 Leydesdorff 2001 Coletor 2002 Bhavnani 2003 Klemm et al. 2003a Klemm et al. 2003c Klemm et al. 2003b Klemm et al. 2005 Centola et al. 2007 Gonz & aacutelez-Avella et al. 2007
    TruelsKinnaird (1946) Kinnaird 1946 Kilgour 1971 Kilgour 1975 Kilgour 1977 Colman 1995 Toral e Amengual 2005 Amengual e Toral 2006
    Coalizões bimodais concorrentesAxelrod e Bennett (1993)Axelrod e Bennett 1993 Axelrod et al. 1995 Galam 1996
    Associação condicionalJoyce et al. (2006)Axelrod e Hamilton 1981 Eshel e Cavalli-Sforza 1982 Axelrod 1984 Joyce et al. 2006

    Referências

    ARTHUR, W B (1989) Tecnologias concorrentes, retornos crescentes e aprisionamento por eventos históricos. Economic Journal 99 (394), pp. 116-131.

    AXELROD, R (1984). A evolução da cooperação. Nova York, Basic Books USA.

    AXELROD, R (1986) An Evolutionary Approach to Norms. American Political Science Review 80 (4), pp. 1095-1111.

    AXELROD, R (1997) A disseminação da cultura: Um modelo com convergência local e polarização global. Journal of Conflict Resolution 41 (2), pp. 203-226.

    AXELROD, R e Bennett, D S (1993) A Landscape Theory of Aggregation. British Journal of Political Science 23 (2), pp. 211-233.

    AXELROD, R e Hamilton, W D (1981) A evolução da cooperação. Ciência 211 (4489), pp. 1390-1396.

    AXELROD, R M, Mitchell, W, Thomas, R E, Bennett, D S e Bruderer, E (1995) Coalition Formation in Standard-Setting Alliances. Ciência de Gestão 41 (9), pp. 1493-1508.

    AXTELL, R (2000). Por que agentes? Sobre as motivações variadas para a computação de agentes nas ciências sociais. Em Macal, C M e Sallach, D (eds.), Procedimentos do Workshop sobre Simulação de Agente: Aplicativos, Modelos e Ferramentas: 3-24. Argonne, IL, Laboratório Nacional de Argonne.

    AYDINONAT, N E (2007) Modelos, conjecturas e exploração: Uma análise do modelo xadrez de Schelling de segregação residencial. Journal of Economic Methodology 14 (4), pp. 429-454.

    BALZER, W, Brendel, K R e Hofmann S (2001) Bad Arguments in the Comparison of Game Theory and Simulation in Social Studies. Jornal de sociedades artificiais e simulação social 4 (2) 1. http://jasss.soc.surreyac.uk/4/2/1.html

    BENENSON, I e Torrens, P M (2004). Geossimulação: modelagem de fenômenos urbanos baseada em autômatos. Chichester, Reino Unido, John Wiley and Sons.

    BHAVNANI, R (2003) Agentes adaptativos, instituições políticas e tradições cívicas na Itália moderna. Jornal de sociedades artificiais e simulação social 6 (4) 1. http://jasss.soc.surreyac.uk/6/4/1.html

    B & OumlHM, C e Jacopini, G (1966) Diagramas de fluxo, máquinas de rotação e linguagens com apenas duas regras de formação. Comunicações do ACM 9 (5), pp. 366-371.

    BUZING, P, Eiben, A e Schut, M (2005) Comunicação e cooperação emergentes em sociedades de agentes em evolução. Jornal de sociedades artificiais e simulação social 8 (1) 2. http://jasss.soc.surreyac.uk/8/1/2.html

    CASTELLANO, C, Marsili, M e Vespignani, A (2000) Transição de fase de nenhum equilíbrio em um modelo de influência social. Cartas de revisão física 85 (16), pp. 3536-3539.

    CENTOLA, D, Gonz & aacutelez-Avella, J C, Egu & iacuteluz, V M e San Miguel, M (2007) Homophily, Cultural Drift, and the Co-Evolution of Cultural Groups. Journal of Conflict Resolution 51 (6), pp. 905-929.

    COHEN, M D, Riolo, RL e Axelrod, R (1999). "O surgimento da organização social no dilema dos prisioneiros: como a preservação do contexto e outros fatores promovem a cooperação." Documento de Trabalho do Santa Fe Institute 99-01-002.

    COLMAN, A M (1995). Teoria dos jogos e suas aplicações nas ciências sociais e biológicas. Oxford, Reino Unido, Butterworth-Heinemann.

    CUTLAND, N (1980). Computabilidade: Uma Introdução à Teoria da Função Recursiva. Cambridge University Press.

    CHING, W-K e Ng, M (2006). Cadeias de Markov: Modelos, Algoritmos e Aplicações. Nova York, Springer.

    DAWES, R M (1980) Social Dilemmas. Revisão Anual de Psicologia 31, pp. 169-193.

    DE JONG, K. A (2006). Computação evolutiva. Uma abordagem unificada. Cambridge, Mass., MIT Press.

    DE MARCHI, S (2005). Modelagem Computacional e Matemática nas Ciências Sociais. Cambridge University Press.

    DOEBELI, M e Hauert, C (2005) Modelos de cooperação baseados no Dilema do Prisioneiro e no jogo Snowdrift. Cartas de Ecologia 8, pp. 748-766.

    EDMONDS, B e Hales, D (2005) Simulação computacional como experimento teórico. Journal of Mathematical Sociology 29 (3), pp. 209-232.

    ELLISON, G (2000) Basins of Attraction, Long Run Equilibria, and the Speed ​​of Step-by-Step Evolution. Revisão de estudos econômicos 67, pp. 17-45.

    EPSTEIN, J M (1999) Modelos computacionais baseados em agentes e ciências sociais geradoras. Complexidade 4 (5), pp. 41-60.

    EPSTEIN, J M (2006). Observações sobre os fundamentos das ciências sociais geradoras baseadas em agentes. Em Amman, H M, Kendrick, D A and Rust, J (eds.), Handbook of Computational Economics 2: 1585-1604. Holanda do Norte.

    EPSTEIN, J M e Axtell, R L (1996). Crescendo Sociedades Artificiais: Ciências Sociais de Baixo para Cima. The MIT Press.

    ESHEL, I e Cavalli-Sforza, L L (1982) Assortment of Encounters and Evolution of Cooperativeness. Anais da Academia Nacional de Ciências dos Estados Unidos da América 79 (4), pp. 1331-1335.

    FLACHE, A e Hegselmann, R (2001) Do Irregular Grids make a Difference? Relaxando a hipótese de regularidade espacial em modelos celulares de dinâmica social. Jornal de sociedades artificiais e simulação social 4 (4) 6. http://jasss.soc.surreyac.uk/4/4/6.html

    FLACHE, A e Macy, M W (2002) Conluio estocástico e a lei de potência da aprendizagem: Um modelo geral de cooperação por reforço de aprendizagem. Journal of Conflict Resolution 46 (5), pp. 629-653.

    FLENTGE, F, Polani, D e Uthmann, T (2001) Modelando a emergência de normas de posse usando memes. Jornal de sociedades artificiais e simulação social 4 (4) 3. http://jasss.soc.surreyac.uk/4/4/3.html

    FORT, H e P & eacuterez, N (2005) The Fate of Spatial Dilemmas with Different Fuzzy Measures of Success. Jornal de sociedades artificiais e simulação social 8 (3) 1. http://jasss.soc.surreyac.uk/8/3/1.html

    FOSTER e Young (1990) Stochastic evolutionary game dynamics. Biologia Teórica da População 38, pp. 219-232.

    GALAM, S (1996) Fragmentation versus stable in bimodal coalitions. Physica A: Mecânica Estatística e suas Aplicações 230 (1-2), pp. 174-188.

    GALAN, J M e Izquierdo, L R (2005) As aparências podem enganar: Lições aprendidas reimplementando a 'abordagem evolucionária das normas' de Axelrod. Jornal de sociedades artificiais e simulação social 8 (3) 2. http://jasss.soc.surreyac.uk/8/3/2.html

    GATHERER, D (2002) Identificando casos de contágio social usando isolamento memético: Comparação da dinâmica de uma simulação multissociedade com um conjunto de dados etnográficos. Jornal de sociedades artificiais e simulação social 5 (4) 5. http://jasss.soc.surreyac.uk/5/4/5.html

    GENZ, A e Kwong, K-S (2000) Avaliação numérica de distribuições normais multivariadas singulares. Journal of Statistical Computation and Simulation 68 (1), pp. 1-21.

    GILBERT, N (2007) Modelos baseados em agente. Série: Aplicações Quantitativas nas Ciências Sociais. Publicações Sage: Londres.

    GONZ & AacuteLEZ-AVELLA, J, Cosenza, M G, Klemm, K, Egu & iacuteluz, V M e San Miguel, M (2007) Feedback de informação e efeitos dos meios de comunicação de massa na dinâmica cultural. Jornal de sociedades artificiais e simulação social 10 (3) 9. http://jasss.soc.surrey.ac.uk/10/3/9.html

    GOTTS, N M, Polhill, J G e Law, a N R (2003) Simulação baseada em agentes no estudo de dilemas sociais. Análise de inteligência artificial 19 (1), pp. 3-92.

    HAREL, D (1980) On folk teoreems. Comunicações do ACM 23 (7), pp. 379-389.

    HAUERT, C e Doebeli, M (2004) A estrutura espacial muitas vezes inibe a evolução da cooperação no jogo snowdrift. Natureza 428 (6983), pp. 643-646.

    HEGSELMANN, R e Flache, A (1998) Understanding Complex Social Dynamics: A Plea For Cellular Automata Based Modeling. Jornal de sociedades artificiais e simulação social 1 (3) 1. http://jasss.soc.surreyac.uk/1/3/1.html

    IZQUIERDO, L R, Izquierdo, S S, Gotts, N M e Polhill, J G (2007) Dinâmica transiente e assintótica de aprendizagem por reforço em jogos. Jogos e comportamento econômico 61 (2), pp. 259-276.

    IZQUIERDO, S S, Izquierdo, L R e Gotts, N M (2008) Dinâmica de aprendizagem por reforço em dilemas sociais. Jornal de sociedades artificiais e simulação social 11 (2) 1. http://jasss.soc.surrey.ac.uk/11/2/1.html

    JANSSEN, J e Manca, R (2006). Processos de Semi-Markov Aplicados. New York, NY, USA, Springer.

    JOYCE, D, Kennison, J, Densmore, O, Guerin, S, Barr, S, Charles, E e Thompson, N S (2006) My Way or the Highway: a More Naturalistic Model of Altruism Tested in an Iterative Prisoners 'Dilemma. Jornal de sociedades artificiais e simulação social 9 (2) 4. http://jasss.soc.surreyac.uk/9/2/4.html

    KARR, A F (1990). Processos de Markov. Em Heyman, D P e Sobel, M J (eds.), Modelos estocásticos. Manuais em Pesquisa Operacional e Ciência de Gestão 2: 95-123. Elsevier Science Publishers B.V. (Norte da Holanda).

    KILGOUR, D M (1971) The simultaneous truel. International Journal of Game Theory 1 (1), pp. 229-242.

    KILGOUR, D M (1975) The Sequential Truel. International Journal of Game Theory 4 (3), pp. 151-174.

    KILGOUR, D M (1977) Equilibrium points of Infinite Sequential Truels. International Journal of Game Theory 6 (3), pp. 167-180.

    KINNAIRD, C (1946). Enciclopédia de quebra-cabeças e passatempos. Secaucus, NJ, Citadel.

    KLEMM, K, Egu & iacuteluz, V M, Toral, R e San Miguel, M (2003a) Cultura global: Uma transição induzida por ruído em sistemas finitos. Revisão Física E 67 (4), Artigo 045101.

    KLEMM, K, Egu & iacuteluz, V M, Toral, R e San Miguel, M (2003b) Transições de nenhum equilíbrio em redes complexas: Um modelo de interação social. Revisão Física E 67 (2), Artigo 026120.

    KLEMM, K, Egu & iacuteluz, V M, Toral, R e San Miguel, M (2003c) Papel da dimensionalidade no modelo de Axelrod para a disseminação da cultura. Physica A 327, pp. 1-5.

    KLEMM, K, Egu & iacuteluz, V M, Toral, R e San Miguel, M (2005) Globalization, polarization and cultural drift. Journal of Economic Dynamics and Control 29 (1-2), pp. 321-334.

    KULKARNI, V G (1995). Modelagem e Análise de Sistemas Estocásticos. Chapman e Hall / CRC.

    KULKARNI, V G (1999). Modelagem, Análise, Projeto e Controle de Sistemas Estocásticos. Nova York, Springer-Verlag.

    LEOMBRUNI, R e Richiardi, M (2005) Por que os economistas são céticos sobre as simulações baseadas em agentes? Physica A: Mecânica Estatística e suas Aplicações 355 (1), pp. 103-109.

    LEYDESDORFF, L (2001) Tecnologia e cultura: A disseminação e o potencial 'lock-in' de novas tecnologias. Jornal de sociedades artificiais e simulação social 4 (3) 5. http://jasss.soc.surreyac.uk/4/3/5.html

    MACY, M W e Flache, A (2002) Learning dynamics in social dilemas. Anais da Academia Nacional de Ciências dos Estados Unidos da América 99, pp. 7229-7236.

    MILLER, J H e Page, S E (2007). Sistemas Adaptativos Complexos: Uma Introdução aos Modelos Computacionais de Vida Social. Princeton University Press.

    MILLER, J H e Page, S E (2004) O problema da ovação em pé. Complexidade 9 (5), pp. 8-16.

    N & EacuteMETH, A e Tak & aacutecs, K (2007) The Evolution of Altruism in Spatially Structured Populations. Jornal de sociedades artificiais e simulação social 10 (3) 4. http://jasss.soc.surrey.ac.uk/10/3/4.html

    NOWAK, M A e May, R M (1992) Evolutionary games and spatial caos. Natureza 359 (6398), pp. 826-829.

    NOWAK, M A e Sigmund, K (1998) Evolução da reciprocidade indireta por pontuação de imagem. Natureza 393 (6685), pp. 573-577.

    RICHIARDI, M, Leombruni, R, Saam, N e Sonnessa, M (2006) Um protocolo comum para simulação social baseada em agente. Jornal de sociedades artificiais e simulação social 9 (1) 15. http://jasss.soc.surrey.ac.uk/9/1/15.html

    SAKODA, J M (1971) The Checkerboard Model of Social Interaction. The Journal of Mathematical Sociology 1 (1), pp. 119-132.

    SCHELLING, T C (1969) Modelos de segregação. American Economic Review 59 (2), pp. 488-493.

    SCHELLING, T C (1971) Modelos Dinâmicos de Segregação. The Journal of Mathematical Sociology 1 (2), pp. 143-186.

    SCHELLING, T C (1978). Micromotivos e macrocomportamento. Nova York, Norton.

    SELTEN, R (1975) Reexame do conceito de perfeição para pontos de equilíbrio em jogos extensos. International Journal of Game Theory 4 (1), pp. 25-55.

    SUBER, P (2007) Sistemas e máquinas formais: um isomorfismo. Apostila para "Sistemas Lógicos". Earlham College.

    TAKAHASHI, N (2000) A emergência da troca generalizada. American Journal of Sociology 10 (4), pp. 1105-1134.

    TORAL, R e Amengual, P (2005). Distribuição dos vencedores em jogos verdadeiros. Em Garrido, P L, Marro, J e Mu & ntildeoz, M A (eds.), Modelagem de comportamento cooperativo nas ciências sociais Vol. 779 da AIP Conf. Proc .: 128-141. Instituto Americano de Física.

    VEGA-REDONDO, F (2003) Economia e Teoria dos Jogos. Cambridge University Press.

    WILENSKY, U (1999). NetLogo. Evanston, IL Center for Connected Learning and Computer-Based Modeling, Northwestern University. http://ccl.northwestern.edu/netlogo/.

    YOUNG, H P (1993) The Evolution of Conventions. Econometrica 61 (1), pp. 57-84.


    Conclusões

    Neste artigo, discutimos a ciência da aprendizagem e instrução e teorias de aprendizagem relacionadas, com exemplos de modelos de design instrucional. As informações apresentadas tornam óbvio que o planejamento de uma experiência educacional está longe de ser simplesmente apresentações PPT por especialistas no assunto transmitindo conhecimento disciplinar para alunos novatos. A omissão de princípios de design instrucional devido à falta de competências em design instrucional leva a resultados de aprendizagem imprevistos e inexplicáveis. A teoria educacional informa o design da instrução e os modelos de design instrucional fornecem uma estrutura de orientação para o desenvolvimento de uma instrução eficaz, atraente, consistente e confiável. A eficácia da abordagem sistemática no projeto de instrução fornece um processo empírico e replicável para uma avaliação confiável para melhorar contínua e empiricamente a experiência de aprendizagem desenvolvida. Os membros do corpo docente interessados ​​em promover a educação de suas disciplinas por meio da realização de pesquisas pedagógicas de intervenção devem ter desenvolvido competência e compreensão das teorias educacionais e da ciência da instrução.


    Assista o vídeo: 19 Jogos Leves Para PC FRACO Que Nunca ENJOAM! (Dezembro 2021).