Em formação

Exemplos interessantes de modelos


Estou estudando o uso geral de modelos em biologia em termos de metodologia, aplicações, utilidade, etc., e gostaria muito de receber recomendações de alguns exemplos específicos de modelos de qualquer área da biologia. Alguns exemplos são o modelo de crescimento logístico ou o modelo de predador de presas Lotka-Volterra.

Seria bom se você pudesse explicar brevemente para que o modelo é usado e por que você acha que é um caso interessante, e fornecer uma referência para um estudo mais aprofundado.

Além disso, qualquer recomendação de livros sobre desenvolvimento de modelos e outras questões de metamodelo em biologia é muito bem-vinda. Obrigada.


A biologia é um grande campo do conhecimento! Ao dar exemplos extraídos da biologia populacional (crescimento logístico da população e modelos de Lotka-Voltera), presumo que esteja interessado principalmente em ecologia e evolução.

Para modelos analíticos usados ​​em ecologia e evolução, recomendo fortemente o livro A Biologist's Guide to Mathematical Modeling in Ecology and Evolution de Otto and Day. O livro assume um nível relativamente baixo de conhecimento em matemática do leitor e conduz o leitor pela maioria dos modelos mais icônicos em ecologia e evolução, sua análise e interpretação. As ferramentas matemáticas usadas neste livro incluem álgebra linear, análise de equilíbrio, análise de comportamento cíclico, cadeia de Markov e esp. processos de nascimento-morte, equações de difusão, teoria da probabilidade e modelos estocásticos, teoria da aproximação, modelos de estrutura de classe (matriz de Leslie e mais) e separação de escalas de tempo, entre outros.

Para livros, principalmente teóricos, em genética populacional, dê uma olhada no post Livros sobre genética populacional ou evolutiva ?.

Ao falar sobre o modelo Lotka-Voltera, você encontrará uma introdução a ele no post O que evita a superpopulação de predadores ?.


Um bom modelo para usar como exemplo o modelo Hodgking-Huxley que descreve a corrente através de uma fibra nervosa dada uma certa voltagem de membrana. Este modelo descreve as correntes de sódio e potássio que são a base do potencial de ação.

Algumas características deste modelo são:

Esse modelo explica as correntes de membrana por meio da ativação de "partículas carregadas" na membrana que permitem a passagem de íons (K + e Na +). Foi descoberto posteriormente que na membrana existem canais de Na + e K + que transportam essas correntes (no modelo original não havia evidência dos componentes moleculares desses canais).

O modelo pode reproduzir o potencial de ação dos neurônios.

O modelo prevê a existência de "partículas carregadas" na membrana que devem se mover antes da abertura do canal, chamadas de cargas de passagem. Como essas partículas se movem de um lado a outro da membrana, elas geram uma pequena corrente transitória ("correntes de passagem"). Estas foram medidas 20 anos após a proposição deste modelo.

Este é um ótimo modelo porque descreveu matematicamente e fisicamente o comportamento dos neurônios e também previu várias propriedades que mais tarde foram fundadas.

Você pode ler mais aqui:

Modelo HH


Modelo Descritivo

Sanford Friedenthal,. Rick Steiner, em A Practical Guide to SysML (segunda edição), 2012

Modelos Descritivos

UMA modelo descritivo descreve o domínio que representa de uma maneira que pode ser interpretada por humanos e também por computadores. Ele pode ser usado para muitos propósitos, como os descritos no Capítulo 2, Seção 2.2.2. Pode incluir descrições comportamentais, estruturais e outras que estabelecem relacionamentos lógicos sobre o sistema, como seu relacionamento todo-parte, a interconexão entre suas partes e a alocação de seus elementos comportamentais a elementos estruturais. Modelos descritivos são geralmente não construído de uma maneira que suporta diretamente simulação, animação ou execução, mas eles posso ser verificada quanto à consistência e aderência às regras do idioma, e as relações lógicas podem ser fundamentadas.

o modelo de sistema é um modelo descritivo que captura os requisitos, estrutura, comportamento e restrições paramétricas associadas a um sistema e seu ambiente. O modelo de sistema também captura inter-relacionamentos entre elementos que representam seus requisitos, estrutura, comportamento e restrições paramétricas. Como sua linguagem de modelagem oferece suporte a várias técnicas de abstração, o modelo de sistema também oferece a capacidade de representar muitas outras visualizações do sistema, como uma visualização de caixa preta, uma visualização de caixa branca ou uma visualização de segurança do sistema. O modelo do sistema também pode ser consultado e analisado quanto à consistência e serve como uma estrutura de integração, conforme descrito na Seção 18.1.1.


Modelos Animais

Conclusão

Os modelos animais melhoraram muito a nossa compreensão da fisiopatologia da ICH e forneceram uma plataforma valiosa para testar potenciais estratégias terapêuticas. No entanto, como acontece com outros modelos de doença pré-clínica, nenhum modelo animal pode imitar todas as características clínicas da HIC. Para contornar esta desvantagem, os investigadores que realizam estudos translacionais usam cada vez mais mais de um modelo ICH em seu trabalho [8]. A estratégia mais comumente usada é usar uma combinação de colagenase e os modelos de injeção de sangue para confirmar os principais achados.

Em nossos esforços para desenvolver terapias eficazes para ICH que podem ser verificadas em estudos pré-clínicos, bem como em ensaios clínicos, devemos estar cientes das armadilhas dos modelos animais de ICH. (1) A maioria das HIC clínicas ocorre em indivíduos de meia-idade e idosos e naqueles com hipertensão. Portanto, o uso de animais de meia-idade ou idosos ou animais hipertensos espontâneos fornece um modelo clinicamente mais relevante, mas a maioria dos estudos translacionais ainda são realizados em animais jovens e saudáveis. (2) Considerando a natureza espontânea da HIC, um modelo melhor para mimetizar a HIC clínica implicaria em ruptura arterial espontânea ou sangramento e ressangramento. (3) A anestesia, a cirurgia, a inserção da agulha e o tipo de colagenase podem afetar os resultados finais. (4) Nenhum índice de teste histológico padrão se correlaciona com resultados funcionais, como testes comportamentais. Portanto, é muito difícil avaliar o efeito terapêutico total e os efeitos colaterais de um medicamento potencial. (5) A recuperação dos pacientes após HIC pode levar vários meses, mas a maioria dos estudos pré-clínicos enfoca apenas a fase aguda. Mais estudos pré-clínicos devem examinar os estágios posteriores ou o estágio de recuperação de ICH para reunir informações sobre resultados histológicos e funcionais de longo prazo.

Para progredir no tratamento de ICH, são necessários novos modelos animais que reflitam melhor a patologia de ICH humana. Para tanto, os pesquisadores devem utilizar diferentes idades, gêneros ou espécies de animais e testar diferentes materiais de injeção em estudos pré-clínicos. Além disso, mais comunicação entre pesquisadores básicos, pesquisadores translacionais e médicos pode ajudar a selecionar / gerar os melhores modelos de ICH, melhorar os procedimentos cirúrgicos e otimizar os resultados.


2. Epidemiologia e Coronavírus

Epidemiologia é o estudo de como as doenças se propagam nas populações. Agora que estamos em uma das maiores pandemias da história recente, é fácil ver por que este é um tópico tão interessante. Encontrar uma vacina e maneiras de prevenir a disseminação de COVID-19 se tornou o maior esforço de nosso tempo.

Mesmo antes do surto do coronavírus, a epidemiologia intrigava os cientistas. Os epidemiologistas costumam ser considerados um Indiana Jones moderno porque trabalham em selvas remotas e perseguem doenças perigosas e aterrorizantes como o ebola em todo o mundo.


Exemplos de modelos científicos

Os modelos analógicos são uma ótima maneira de descrever algo para os alunos que eles não conseguem ver. Os professores os usam o tempo todo quando comparam um sistema a algo com o qual os alunos estão mais familiarizados. Quanto mais semelhanças o modelo de analogia tiver com o sistema de destino, melhor. As representações visuais desses modelos ajudam os alunos a fazer links de conceitos com mais facilidade. Pode ser ainda mais eficaz fazer com que os alunos criem seus próprios modelos de analogia no Storyboard That! As discussões sobre as semelhanças e diferenças entre as analogias são essenciais depois de criadas. Elas podem ser conduzidas pelo professor em um ambiente de classe inteira ou discussões menores conduzidas por alunos. Os modelos analógicos podem ser úteis quando os alunos estão aprendendo sobre uma ampla variedade de tópicos em ciências, especialmente tópicos com partes abstratas de difícil visualização, como circuitos elétricos.


O que é a inteligência artificial usada hoje?

Diversos exemplos de inteligência artificial impactar nossas vidas hoje. Esses incluem FaceID sobre iPhones, a algoritmo de busca no Google, e o recomendação algoritmo sobre Netflix. Você também encontrará outros exemplos de como AI está em uso hoje em mídia social, assistentes digitais gostar Alexa, e aplicativos de saudação tal como Uber.

1. Tecnologia de detecção e reconhecimento de rosto

Filtros virtuais ativados Snapchat e o desbloqueio do FaceID em iPhones são dois exemplos do Aplicações de IA hoje. Enquanto o primeiro usa tecnologia de detecção de rosto para identificar qualquer rosto, este último conta com reconhecimento de rosto.

o Câmera TrueDepth nos dispositivos Apple, projeta mais de 30.000 pontos invisíveis para criar um mapa de profundidade do seu rosto. Ele também captura uma imagem infravermelha do rosto do usuário.

A tecnologia FaceID da Apple e # 8217s ajuda a proteger as informações que os usuários armazenam em seu iPhone e iPad Pro. O Face ID usa a câmera TrueDepth e o aprendizado de máquina para uma solução de autenticação segura. | Foto do lançamento do iPhone X em 2017. | maçã

Depois disso, um algoritmo de aprendizado de máquina compara a varredura de seu rosto com o que um previamente cadastrado dados faciais. Dessa forma, ele pode determinar se o dispositivo deve ser desbloqueado ou não.

De acordo com maçã, FaceID se adapta automaticamente às mudanças na aparência do usuário. Isso inclui o uso de maquiagem cosmética, o crescimento de pelos faciais ou o uso de chapéus, óculos ou lentes de contato.

O gigante da tecnologia com base em Cupertino também afirmou que a chance de enganar o FaceID é de uma em um milhão.

2. Editor de Texto

Diversos editores de texto hoje confie em inteligência artificial para fornecer a melhor experiência de escrita.

Por exemplo, editores de documentos usam um Algoritmo de PNL para identificar o uso incorreto da gramática e sugerir correções. Além da correção automática, algumas ferramentas de escrita também fornecem notas de legibilidade e plágio.

INK é alimentado por uma tecnologia de processamento de linguagem natural que permite fazer recomendações inteligentes de SEO, ajudando escritores e profissionais de marketing a tornar seu conteúdo mais relevante para seu público-alvo. | INK | inkforall.com

No entanto, editores como TINTA tomou AI use um pouco mais para fornecer funções especializadas. Usa inteligência artificial para oferecer recomendações inteligentes de otimização de conteúdo da web.

Recentemente, a INK lançou um estudo mostrando como sua plataforma de escrita baseada em IA pode melhorar a relevância do conteúdo e ajudar a direcionar o tráfego para os sites. Você pode ler o estudo completo aqui.

3. Redes Sociais

Plataformas de mídia social tal como Facebook, Twitter, e Instagram dependem fortemente de inteligência artificial para várias tarefas.

Atualmente, essas plataformas de mídia social usam AI para personalizar o que você vê em seus feeds. O modelo identifica os usuários & # 8217 interesses e recomenda conteúdo semelhante para mantê-los engajados.

As redes de mídia social usam algoritmos de inteligência artificial para personalizar os feeds do usuário e filtrar informações desnecessárias, como discurso de ódio e postagens incitando violência e discriminação. | 200degrees / Pixabay.com

Além disso, os pesquisadores treinaram AI modelos para reconhecer palavras-chave, frases e símbolos de ódio em diferentes idiomas. Assim, o algoritmo pode derrubar rapidamente postagens de mídia social que contêm incitação ao ódio.

De outros exemplos de inteligência artificial nas redes sociais incluem:

  • Emoji como parte da previsão de texto
  • Reconhecimento facial para marcar amigos automaticamente nas fotos
  • Filtro inteligente para identificar e remover mensagens de spam
  • Respostas inteligentes para responder rapidamente às mensagens

Planos para plataforma de mídia social envolve o uso inteligência artificial para identificar problemas de saúde mental. Por exemplo, um algoritmo poderia analisar o conteúdo postado e consumido para detectar tendências suicidas.

4. Chatbots

Receber consultas diretamente de um representante do cliente pode ser muito demorado. É onde inteligência artificial entra.

Cientistas da computação treinam robôs de bate-papo ou chatbots para personificar os estilos de conversação dos representantes do cliente usando processamento de linguagem natural.

Os chatbots estão sendo usados ​​por muitas empresas para auxiliar clientes em potencial com suas dúvidas. | 200degrees / Pixabay.com

Os chatbots agora podem responder a perguntas que exigem uma resposta detalhada no lugar de uma resposta específica sim ou não. Além do mais, os bots podem aprender com as avaliações ruins anteriores para garantir a máxima satisfação do cliente.

Como resultado, as máquinas agora realizam tarefas básicas, como responder perguntas frequentes ou receber e rastrear pedidos.

5. Algoritmo de recomendação

Plataformas de streaming de mídia, como Netflix, Youtube, e Spotify confiar em um sistema de recomendação inteligente que & # 8217s alimentado por AI.

Primeiro, o sistema coleta dados sobre os interesses e comportamento dos usuários, usando várias atividades online. Depois disso, aprendizado de máquina e algoritmos de aprendizagem profunda analise os dados para prever preferências.

É por isso que você sempre encontrará filmes que provavelmente assistirá por recomendação da Netflix. E você não terá que pesquisar mais.

6. Algoritmo de pesquisa

Algoritmos de busca garantir que os melhores resultados no página de resultados do mecanismo de pesquisa (SERP) tem as respostas às nossas perguntas. Mas como isso acontece?

As empresas de pesquisa geralmente incluem algum tipo de algoritmo de controle de qualidade para reconhecer conteúdo de alta qualidade. Em seguida, ele fornece uma lista de resultados de pesquisa que melhor respondem à consulta e oferece a melhor experiência do usuário.

Mecanismos de busca como o Google são movidos por vários algoritmos que ajudam a combinar as perguntas das pessoas com as melhores respostas disponíveis online. | Google

Como os mecanismos de pesquisa são feitos inteiramente de códigos, eles dependem de processamento de linguagem natural (PNL) tecnologia para entender as consultas.

No ano passado, o Google anunciou Representações de codificador bidirecional de transformadores (BERT), um PNL técnica de pré-treinamento. Agora, a tecnologia capacita quase todas as consultas baseadas em inglês sobre Pesquisa do Google.

7. Assistentes digitais

Em outubro de 2011, Apple & # 8217s Siri tornou-se o primeiro assistente digital para ser padrão em um smartphone. Contudo, assistentes de voz percorreu um longo caminho desde então.

Hoje, Google Assistant incorpora PNL e ML avançados para se tornar um especialista em linguagem humana. Ele não apenas entende comandos complexos, mas também fornece resultados satisfatórios.

O Google Assistant é um dos assistentes digitais mais populares disponíveis hoje. | Kaufdex / Pixabay.com

Além disso, os assistentes digitais agora têm recursos adaptáveis ​​para analisar as preferências, hábitos e agendas do usuário. Dessa forma, eles podem organizar e planejar ações como lembretes, prompts e programações.

8. Dispositivos domésticos inteligentes

Vários dispositivos domésticos inteligentes agora usa AI formulários para conservar energia.

Por exemplo, termostatos inteligentes tal como Ninho use nossos hábitos diários e preferências de aquecimento / resfriamento para ajustar as temperaturas da casa. Da mesma forma, geladeiras inteligentes pode criar listas de compras com base no que está ausente nas prateleiras da geladeira.

A forma como usamos inteligência artificial em casa ainda está evoluindo. Mais AI soluções agora analise o comportamento humano e funcione de acordo.


Modelos e exemplos

Esta seção contém informações importantes para auxiliar o processo de pesquisa-ação. Primeiro, apresentamos três modelos ou paradigmas para a pesquisa-ação. Em segundo lugar, fornecemos alguns exemplos de uma série de projetos de pesquisa educacional que empregaram o modelo 2: Pesquisa-ação prática.

Os exemplos do Modelo 3 são principalmente pesquisas sociais e comunitárias e os exemplos não estão incluídos aqui. O Modelo 1 não é amplamente usado na pesquisa-ação e está incluído aqui apenas para referência histórica.

Cada exemplo é descrito brevemente com referência aos estágios de um ciclo de um projeto de pesquisa-ação: Pergunta = & gt Plano = & gt Agir = & gt Observe = & gt Refletir = & gt

Na verdade, a diferença entre os modelos é o grau em que um pesquisador externo influencia o projeto de pesquisa-ação em termos de enquadrar a questão de pesquisa e determinar a direção que a pesquisa tomará. No Modelo 1, essa influência é considerável, enquanto no Modelo 3 os profissionais trabalham de forma colaborativa para definir seus próprios problemas e identificar possíveis soluções.

Observe também que os títulos normalmente dados a esses modelos ("Técnico", "Prático" e "Emancipatório") são um tanto obscuros e não dão uma ideia clara de como o modelo é praticado. Empregamos esses rótulos porque são de uso comum entre os pesquisadores-ação, mas as descrições que os acompanham fornecem uma imagem mais clara.

Prevemos que dentro deste amplo quadro, os instrutores irão conceber seus próprios modelos e métodos de pesquisa, consistentes com as restrições impostas por seus alunos, disponibilidade de apoio e recursos de ensino.

Três modelos de pesquisa-ação

Pesquisa de ação técnica

O praticante, embora colaborador da pesquisa, não é o pesquisador principal.

O pesquisador principal identifica o problema da pesquisa-ação e propõe uma intervenção.

O profissional está envolvido na implementação de quaisquer intervenções.

Pesquisa de ação prática

Aqui, o pesquisador e o médico identificam o problema de pesquisa juntos e discutem as causas subjacentes e as possíveis intervenções.

Pesquisa-ação emancipatória

Os praticantes trabalham juntos como um grupo e identificam coletivamente os problemas e as soluções possíveis.

As soluções são tanto políticas e conscientizadoras quanto práticas.

Há um forte elemento social aqui também, em que se espera que os participantes surjam com uma nova visão ou teoria da sociedade.

Exemplo para pesquisa de ação prática


    Pesquisadores de ação: Grace Au, Ivan Choi, Patrick Chau, Kar Yan Tam, Ben Petrazzini, Tung Bui, ISMT, Escola de Negócios e Gestão, Universidade de Ciência e Tecnologia de Hong Kong
    Pesquisadores de ação: M. J. Davidson, Departamento de Engenharia Civil, Universidade de Ciência e Tecnologia de Hong Kong
    Pesquisadores de ação: Anna Yu, Pionie Foo, Irene Ng e Lillian Law, Centro de Línguas, Universidade de Ciência e Tecnologia de Hong Kong

Exemplo 1

O Projeto de Pesquisa-Ação:

Usando multimídia interativa para apoiar o treinamento de sistemas de informação: projeto de sistema e questões de aprendizagem.

Pesquisadores de ação: Grace Au, Ivan Choi, Patrick Chau, Kar Yan Tam, Ben Petrazzini, Tung Bui, ISMT, Escola de Negócios e Gestão, Universidade de Ciência e Tecnologia de Hong Kong.

Embora a multimídia interativa já seja usada na educação há algum tempo, pouco se sabe sobre sua eficácia em aumentar a capacidade de aprendizagem dos alunos. O objetivo do projeto foi investigar o valor da multimídia no apoio aos processos de ensino e aprendizagem para a formação de sistemas de informação.

O sistema multimídia utilizado foi a primeira geração do Information Systems Explorer (ISEI), um slide show eletrônico multimídia. O objetivo do sistema era estimular o interesse dos alunos adicionando recursos audiovisuais à apresentação da aula. O plano era usar o ISEI como um sistema piloto para investigar as atitudes de aprendizagem dos alunos e os resultados da aprendizagem em resposta a tais sistemas.

O sistema foi utilizado em palestras, substituindo o uso de transparências e retroprojetores.

Para avaliar a eficácia do sistema, foi obtido feedback dos alunos sobre sua preferência em aprender com o sistema. O efeito na aprendizagem dos alunos também foi avaliado.

O feedback dos alunos indicou que a maioria preferiu aprender em ambiente expositivo acompanhado do ISEI, apresentação audiovisual. O sistema os ajudou a digerir as informações, aumentando seu interesse pelos tópicos abordados e eles conseguiram visualizar alguns conceitos de uma maneira mais vívida.

Por outro lado, a qualidade do display, a necessidade de pouca iluminação na sala de aula e as interrupções técnicas interferiam na concentração dos alunos.

A maioria dos alunos queria ter acesso à apresentação de slides para fins de revisão. Além disso, embora os alunos preferissem a apresentação à aprendizagem em livros, o sistema não os ajudava necessariamente a compreender como os sistemas de informação se relacionavam com os processos de negócios na prática.

Reveja a questão

Uma revisão da literatura revelou que os problemas específicos do tema dos sistemas de informação eram que os alunos têm dificuldade em visualizar como funciona o mundo dos negócios e também têm dificuldade em integrar conceitos de sistemas de informação e aplicar o conhecimento que adquirem para responder a perguntas do tipo estudo de caso.

A equipe perguntou se uma interface visual poderia ser melhor projetada usando um storyboard dinâmico para facilitar a formação do modelo mental dos alunos.

As lições aprendidas com o ISEI, juntamente com os resultados da revisão da literatura, forneceram insights na criação do ISEII, uma nova versão do sistema, que incorporou conceitos inovadores na entrega de conhecimento aos alunos. A filosofia de design do ISEII era fazer uso de multimídia interativa para fornecer um ambiente de realidade virtual onde os alunos pudessem aprender sobre os conceitos básicos dos sistemas de informação navegando por um escritório simulado. O sistema permite que os alunos interajam com objetos dentro do escritório virtual, revisem as informações associadas àquele objeto e respondam às perguntas feitas.

O novo sistema foi pensado para ser usado tanto como um auxílio às aulas, quanto pelos alunos como uma ferramenta de autoaprendizagem durante as revisões.

O sistema foi integrado com palestras ao longo de um semestre.

Em cada série de apresentações do ISEII, os alunos receberam tarefas em diferentes situações de caso, com foco em como aplicar os conceitos de sistemas de informação na resolução de problemas de negócios em uma empresa simulada.

Para avaliar a eficácia do projeto, foram coletados dados objetivos e subjetivos ao final de cada sessão de treinamento, por meio de questionários e entrevistas.

Antes da avaliação, os alunos foram submetidos a um conjunto de testes cognitivos e classificados de acordo com seus estilos cognitivos e suas habilidades técnicas, analíticas e de gestão.

Os resultados da avaliação indicaram que o sistema ISEII aumentou o incentivo para aprender e o interesse pelos alunos em aprender. Uma lição importante aprendida foi que ele aumentará muito a eficácia do sistema se o usuário tiver objetivos claros e um nível apropriado de interatividade.

Verificou-se que os alunos tendiam a perder a concentração e o interesse quando a versão anterior do sistema não contava com perguntas embutidas para obter feedback instantâneo sobre o assunto. A avaliação também revelou que o processo de aprendizagem será muito melhorado se o projeto do sistema for centrado no aluno, ou seja, ele é projetado em torno dos modelos mentais dos usuários finais com base nas necessidades individuais.

Exemplo 2

O Projeto de Pesquisa-Ação:

Ministrando palestras com ferramentas multimídia no ensino de Engenharia

Pesquisadores de ação: M. J. Davidson, Departamento de Engenharia Civil, Universidade de Ciência e Tecnologia de Hong Kong

Inicialmente, o curso de mecânica dos fluidos era típico da maioria dos cursos de engenharia, pois continha cerca de 30% a mais de materiais do que deveria ser ensinado no período de tempo especificado. Pesquisas com alunos indicaram que eles acharam o curso difícil e a carga horária pesada. Os instrutores estavam preocupados com a capacidade dos alunos de reter o material que estava sendo ensinado no formato atual.

O plano era modificar o currículo dividindo o curso em dois cursos a serem ministrados em semestres consecutivos, reduzindo assim a quantidade de material ministrado em cada curso. Isso permitiu que uma maior ênfase fosse colocada em tutoriais e menos ênfase em palestras.

No final de cada tutorial, os alunos seriam solicitados a fazer uma série de coisas: um questionário formal sem comunicação e sem ajuda, ou os alunos podiam fazer perguntas ao instrutor, ou os alunos podiam trabalhar em grupos.

A nova estrutura do curso foi implementada ao longo de um semestre para o primeiro dos dois cursos.

O segundo formato pós-tutorial, que envolvia os alunos fazendo perguntas, foi muito benéfico para encorajar os alunos a fazerem perguntas: havia um número maior de perguntas durante as aulas do que no formato anterior e muitos mais alunos vinham ao escritório do instrutor para fazer perguntas fora das aulas .

Melhorias foram observadas no curso, mas o instrutor achou que havia coisas adicionais que poderiam ser feitas no futuro para melhorar ainda mais o curso.

Reveja a questão

As questões revisadas se concentraram em:

  • Como melhorar a compreensão dos alunos sobre as derivações matemáticas necessárias na mecânica dos fluidos.
  • Como tornar os exemplos de aplicativos mais interessantes.
  • Como demonstrar a natureza dinâmica dos problemas do curso.

Três novas iniciativas foram planejadas:

  • Em vez de desenvolver tópicos em mecânica dos fluidos por meio de derivações matemáticas seguidas de discussão, as notas de aula foram reorganizadas para que as equações e aplicações finais fossem apresentadas e discutidas primeiro. Isso foi feito para ajudar na compreensão dos alunos que não eram matematicamente sofisticados e para ajudar os alunos a distinguir entre os conceitos-chave que devem ser memorizados e outros materiais que precisam ser compreendidos, mas não memorizados.
  • Mais aplicativos locais e regionais foram introduzidos para melhorar a motivação dos alunos e aumentar o interesse. Esse processo pode ser auxiliado por vídeos e fotografias no auditório.
  • Diagramas animados e vídeos de experimentos laboratoriais relevantes e exemplos locais deveriam ser usados ​​para demonstrar a natureza dinâmica dos problemas considerados. Isso foi feito para aumentar o interesse e melhorar a compreensão física dos alunos sobre o problema.

Um único pacote de software de multimídia foi planejado para apresentar todas as três iniciativas de forma mais eficiente e eficaz.

Antes do desenvolvimento do pacote de software de multimídia, os dados dos alunos foram coletados para definir uma linha de base para avaliar melhorias futuras e contribuir para o desenvolvimento do próprio pacote.

Vários métodos de observação foram usados.

A avaliação do curso da universidade foi usada para medir a eficácia geral do curso.

O Questionário do Processo de Estudo (SPQ) foi usado para fornecer uma visão sobre as abordagens dos alunos para aprender o material.

Foi elaborada uma pesquisa de diagnóstico semelhante em formato ao SPQ, mas com perguntas específicas para o curso. A pesquisa teve como objetivo refletir o que havia sido alcançado até o momento e identificar problemas que ainda precisavam ser resolvidos.

O questionário conceitual foi projetado para explorar mal-entendidos sobre o material ensinado na parte anterior do curso.

As informações fornecidas pelas observações fornecem dados valiosos para o desenvolvimento do pacote de software de multimídia e, uma vez implementados, pesquisas e questionários conceituais serão usados ​​para monitorar sua eficácia.

Exemplo 3

O Projeto de Pesquisa-Ação:

Treinamento de redatores eficazes de inglês para negócios por meio de feedback interativo

Pesquisadores de ação: Anna Yu, Pionie Foo, Irene Ng e Lillian Law, Centro de Línguas, Universidade de Ciência e Tecnologia de Hong Kong

Em seus anos como consultores de redação, os instrutores encontraram numerosos problemas nas redações de negócios dos alunos porque eles não atendiam com frequência aos seus propósitos de redação, faltavam informações essenciais, tom inadequado e frases definidas inseridas inadequadamente.

Além disso, erros tipográficos e de superfície mostram que os alunos não parecem editar seu próprio trabalho.

Elaborar um curso intensivo de redação de cartas comerciais de quatro semanas para ajudar os alunos a superar os problemas das cartas comerciais.

O curso apresentou uma série de inovações em dois testes:

Lista de verificação de análise de situação: projetada para ajudar os alunos a pensar em profundidade sobre as múltiplas facetas da situação da escrita.

Centralização do leitor na edição: o leitor foi trazido para a situação de edição por uma simulação de audiência em que outro aluno foi convidado a fazer o papel do leitor e a expor suas próprias expectativas em relação à carta.

Feedback interativo: os alunos obtinham feedback uns dos outros no estágio de planejamento, enquanto em outros estágios os alunos e consultores interagiam.

A eficácia do curso foi medida em termos de atitude e desempenho dos alunos antes e depois do curso. O desempenho também foi monitorado por um longo período.

Os resultados dos testes foram positivos e encorajadores: os alunos mostraram uma melhora significativa no conteúdo e no tom das cartas que produziram.


Projetos de ciência de dados

1. “Eat, Rate, Love” - Uma exploração de R, Yelp e a busca por boa comida indiana (Principiante)

Quando chega a hora de escolher um restaurante, muitas pessoas recorrem ao Yelp para determinar qual é a melhor opção para o tipo de comida que procuram. Mas o que acontece se você estiver procurando por um tipo específico de culinária e houver muitos restaurantes com a mesma classificação em um pequeno raio? Qual você escolhe? Robert Chen fez o curso de introdução à ciência de dados do Springboard e escolheu como projeto principal uma forma de avaliar melhor os revisores do Yelp para determinar se suas avaliações levaram aos melhores restaurantes indianos.

Ao pesquisar no Yelp, Chen descobriu que havia muitos restaurantes indianos recomendados com quase a mesma pontuação. Certamente nem todos os revisores tinham o mesmo conhecimento dessa culinária, certo? Com isso em mente, ele levou em consideração o seguinte:

  • O número de avaliações de restaurantes por uma única pessoa sobre uma culinária específica (neste caso, comida indiana). Ele conseguiu justificar esse parâmetro examinando críticos de outras culinárias, como a comida chinesa.
  • A aparente etnia do revisor em questão. Se o revisor tivesse um nome indiano, ele poderia inferir que eles poderiam ser de etnia indiana e, portanto, mais familiarizados com o que constituía uma boa comida indiana.
  • Ele usou as linguagens de programação Python e R.

Sua modificação nos dados e nas variáveis ​​mostrou que aqueles com nomes indianos tendiam a dar boas críticas a apenas um restaurante por cidade das 11 cidades que ele analisou, fornecendo assim uma escolha clara por cidade para clientes de restaurantes.

Os dados do Yelp se tornaram populares entre os novatos na ciência de dados. Você pode acessá-lo aqui . Descubra mais sobre o projeto de Robert aqui.

2. Comportamento do terceiro e objetivo da NFL (Intermediário)

A interseção de esportes e dados está cheia de oportunidades para aspirantes a cientistas de dados. Amante de ambos, Divya Parmar decidiu se concentrar na NFL para seu projeto final durante o curso de Introdução à Ciência de Dados da Springboard.

Objetivo de Divya: determinar a eficiência de várias jogadas ofensivas em diferentes situações táticas. Aqui está um exemplo da redação do projeto de Divya.

Para concluir seu projeto de ciência de dados sobre o comportamento 3rd down da NFL & # 8217s, Divya seguiu estas etapas:

  1. Para investigar o comportamento da 3ª descida, ele obteve dados jogada a jogada da Armchair Analysis - o conjunto de dados era todas as jogadas das primeiras oito semanas desta temporada da NFL. Como o conjunto de dados estava limpo e sabemos que 80 por cento do processo de análise de dados é limpo, ele foi capaz de se concentrar na manipulação de dados essenciais para criar os quadros de dados e gráficos para minha análise.
  2. Ele usou R como sua linguagem de programação preferida para análise, já que é um código aberto e tem milhares de bibliotecas que permitem uma vasta funcionalidade.
  3. Ele carregou seu arquivo Csv no RStudio (seu software para análise). First, he wanted to look at offensive drives themselves, so he generated a drive number for each drive and attached it to individual plays dataset. With that, he could see the length of each drive based on the count of each drive number.
  4. Then, he moved on to his main analysis of 3rd down plays. He created a new data frame, which only included 3rd down plays which were a run or pass (excluding field goals, penalties, etc). He added a new categorical column named “Distance,” which signified how many yards a team had to go to convert the first down.
  5. Using conventional NFL definitions, he decided on this:

This hands-on project work was the most challenging part of the course for Divya, he said, but it allowed him to practice the different steps in the data science process:

  1. Assessing the problem
  2. Manipulating the data
  3. Delivering actionable insights to stakeholders

You can access the data set Divya used here .

3. Who’s a Good Dog? Identifying Dog Breeds Using Neural Networks (Intermediário)

Garrick Chu, another Springboard alum, chose to work on an image classification project for his final year, identifying dog breeds using neural networks. This project primarily leveraged Keras through Jupyter notebooks and tested the wide variety of skills commonly associated with neural networks and image data:

  • Working with large data sets
  • Effective processing of images (rather than traditional data structures)
  • Network design and tuning
  • Avoiding over-fitting
  • Transfer learning (combining neural nets trained on different data sets)
  • Performing exploratory data analysis to understand model outputs that people can’t directly interpret

One of Garrick’s goals was to determine whether he could build a model that would be better than humans at identifying a dog’s breed from an image. Because this was a learning task with no benchmark for human accuracy, once Garrick optimized the network to his satisfaction, he went on to conduct original survey research in order to make a meaningful comparison.

See more of Garrick’s work here . You can access the data set he used here .

4. Amazon vs. eBay Analysis (Avançado)

Ever pulled the trigger on a purchase only to discover shortly afterward that the item was significantly cheaper at another outlet?

In support of a Chrome extension he was building, Chase Roberts decided to compare the prices of 3,500 products on eBay and Amazon. With his biases acknowledged, Chase walks readers of this blog post through his project, starting with how he gathered the data and documenting the challenges he faced during this process.

The results showed the potential for substantial savings. For his project, Chase built a shopping cart with 3.5k products to compare prices on eBay vs Amazon. Here’s what he found:

  1. The shopping cart has 3,520 unique items.
  2. If you chose the wrong platform to buy each of these items (by always shopping at whichever site has a more expensive price), this cart would cost you $193,498.45. (Or you could pay off your mortgage.)
  3. This is the worst-case scenario for the shopping cart.
  4. The best-case scenario for our shopping cart, assuming you found the lowest price between eBay and Amazon on every item, is $149,650.94.
  5. This is a $44,000 difference — or 23%!

Find out more about the project here .

5. Fake News! (Avançado)

Another great idea for a data science project is looking at the common forms of fake news. These days, it’s hard enough for the average social media user to determine when an article is made up with an intention to deceive. So is it possible to build a model that can discern whether a news piece is credible? That’s the question a four-person team from the University of California at Berkeley attempted to answer with this project.

First, the team identified two common forms of fake news to focus on: clickbait (“shocking headlines meant to generate clicks to increase ad revenue”) and propaganda (“intentionally misleading or deceptive articles meant to promote the author’s agenda”).

To develop a classifier that would be able to detect clickbait and propaganda articles, these steps were followed:

  1. The foursome scraped data from news sources listed on OpenSources
  2. Preprocessed articles for content-based classification using natural language processing
  3. Trained different machine learning models to classify the news articles
  4. Created a web application to serve as the front end for their classifier

Find out more and try it out here .

6. Audio Snowflake (Avançado)

When you think about data science projects, chances are you think about how to solve a particular problem, as seen in the examples above. But what about creating a project for the sheer beauty of the data? That’s exactly what Wendy Dherin did.

The purpose of her Hackbright Academy project was to create a stunning visual representation of music as it played, capturing a number of components, such as tempo, duration, key, and mood. The web application Wendy created uses an embedded Spotify web player, an API to scrape detailed song data, and trigonometry to move a series of colorful shapes around the screen. Audio Snowflake maps both quantitative and qualitative characteristics of songs to visual traits such as color, saturation, rotation speed, and the shapes of figures it generates.

She explains a bit about how it works:

Each line forms a geometric shape called a hypotrochoid (pronounced hai-po-tro-koid).

Hypotrochoids are mathematical roulettes traced by a point P that is attached to a circle which rolls around the interior of a larger circle. If you have played with Spirograph, you may be familiar with the concept.

The shape of any hypotrochoid is determined by the radius a of the large circle, the radius b of the small circle, and the distance h between the center of the smaller circle and point P.

For Audio Snowflake, these values are determined as follows:

  • a: song duration
  • b: section duration
  • h: song duration minus section duration

Bonus Data Sets for Data Science Projects

Here are a few more data sets to consider as you ponder data science project ideas:

    : an audio-visual data set consisting of short clips of human speech, extracted from interviews uploaded to YouTube. : a classic data set appropriate for data science projects for beginners. : a fairly small data set based on U.S. Census Bureau data that’s focused on a regression problem. : a retail industry data set that can be used to predict store sales. : Nate Silver’s publication shares the data and code behind some of its articles and graphics so admirers can create stories and visualizations of their own.

Tips for Creating Cool Data Science Projects

Getting started on your own data science project may seem daunting at first, which is why at Springboard, we pair students with one-on-one mentors and student advisors who help guide them through the process.

When you start your data science project, you need to come up with a problem that you can use data to help solve. It could be a simple problem or a complex one, depending on how much data you have, how many variables you must consider, and how complicated the programming is.

Choose the Right Problem

If you’re a data science beginner, it’s best to consider problems that have limited data and variables. Otherwise, your project may get too complex too quickly, potentially deterring you from moving forward. Choose one of the data sets in this post, or look for something in real life that has a limited data set. Data wrangling can be tedious work, so it’s key, especially when starting out, to make sure the data you’re manipulating and the larger topic is interesting to you. These are challenging projects, but they should be fun!

Breaking Up the Project Into Manageable Pieces

Your next task is to outline the steps you’ll need to take to create your data science project. Once you have your outline, you can tackle the problem and come up with a model that may prove your hypothesis. You can do this in six steps:

  1. Generate your hypotheses
  2. Study the data
  3. Clean the data
  4. Engineer the features
  5. Create predictive models
  6. Communicate your results

Generate Your Hypotheses

After you have your problem, you need to create at least one hypothesis that will help solve the problem. The hypothesis is your belief about how the data reacts to certain variables. For example, if you are working with the Big Mart data set that we included among the bonus options above, you may make the hypothesis that stores located in affluent neighborhoods are more likely to see higher sales of expensive coffee than those stores in less affluent neighborhoods.

This is, of courses, dependent on you obtaining general demographics of certain neighborhoods. You will need to create as many hypotheses as you need to solve the problem.

Study the Data

Your hypotheses need to have data that will allow you to prove or disprove them. This is where you need to look in the data set for variables that affect the problem. In the Big Mart example, you’ll be looking for data that will lead to variables. In the coffee hypothesis, you need to be able to identify brands of coffee, prices, sales, and the surrounding neighborhood demographics of each store. If you do not have the data, you either have to dig deeper or change your hypothesis.

Clean the Data

As much as data scientists prefer to have clean, ready-to-go data, the reality is seldom neat or orderly. You may have outlier data that you can’t readily explain, like a sudden large, one-time purchase of expensive coffee in a store that is in a lower-income neighborhood or a dip in coffee purchases that you wouldn’t expect during a random two-week period (using the Big Mart scenario). Or maybe one store didn’t report data for a week.

These are all problems with the data that isn’t the norm. In these cases, it’s up to you as a data scientist to remove those outliers and add missing data so that the data is more or less consistent. Without these changes, your results will become skewed and the outlier data will affect the results, sometimes drastically.

With the problem you’re trying to solve, you aren’t looking for exceptions, but rather you’re looking for trends. Those trends are what will help predict profits at the Big Mart stores.

Engineer the Features

At this stage, you need to start assigning variables to your data. You need to factor in what will affect your data. Does a heatwave during the summer cause coffee sales to drop? Does the holiday season affect sales of high-end coffee in all stores and not just middle-to-high-income neighborhoods? Things like seasonal purchases become variables you need to account for.

You may have to modify certain variables you created in order to have a better prediction of sales. For example, maybe the sales of high-end coffee isn’t an indicator of profits, but whether the store sells a lot of holiday merchandise is. You’d have to examine and tweak the variables that make the most sense to solve your problem.

Create Your Predictive Models

At some point, you’ll have to come up with predictive models to support your hypotheses. For example, you’ll have to design code that will show that when certain variables occur, you have a flux in sales. For Big Mart, your predictive models might include holidays and other times of the year when retail sales spike. You may explore whether an after-Christmas sale increases profits and if so, by how much. You may find that a certain percentage of sales earn more money than other sales, given the volume and overall profit.

Communicate Your Results

In the real world, all the analysis and technical results that you come up with are of little value unless you can explain to your stakeholders what they mean in a way that’s comprehensible and compelling. Data storytelling is a critical and underrated skill that you must develop. To finish your project, you’ll want to create a data visualization or a presentation that explains your results to non-technical folks.

Bonus: How Many Projects Should Be in a Data Science Portfolio?

Data scientist and Springboard mentor David Yakobovitch recently shared expertise on how to optimize a data science portfolio with our data science student community. Among the advice he shared were these tips:

For the Data Science Career Track, we have two capstones that students work on, so I like to say a minimum of two projects in your portfolio. Often when I work with students and they’ve finished the capstones and they’re starting the job search, I say, “Why not start a third project?” That could be using data sets on popular sites such as Kaggle or using a passion project you’re interested in or partnering with a non-profit.

When you’re doing these interviews, you want to have multiple projects you can talk about. If you’re just talking about one project for a 30- to 60-minute interview, it doesn’t give you enough material. So that’s why it’s great to have two or three, because you could talk about the whole workflow—and ideally, these projects work on different components of data science.

Learning the theory behind data science is an important part of the process. But project-based learning is the key to fully understanding the data science process . Springboard emphasizes data science projects in all three data science courses. The Data Science Career Track features 14 real-world projects, including two industry-worthy capstone projects.

Interested in a project-based learning program that comes with the support of a mentor? Check out our Data Science Career Track—you’ll learn the skills and get the personalized guidance you need to land the job you want.


A Lesson on Modern Classification Models

In machine learning, classification problems are one of the most fundamentally exciting and yet challenging existing problems. The implications of a competent classification model are enormous — these models are leveraged for natural language processing text classification, image recognition, data prediction, reinforcement training, and a countless number of further applications.

However, the present implementation of classificat i on algorithms are terrible. During my time at Facebook, I found that the generic solution to any machine learning classification problem was to “throw a gradient descent boosting tree at it and hope for the best”. But this should not be the case — research is being put into modern classification algorithms and improvements that allow significantly more accurate models with considerable less training data required.

Here, we explore some particularly interesting examples of modern classification algorithms. This article assumes some level of familiarity with machine learning, however, the majority of the post should still be accessible without.

Deep Neural Decision Trees

Deep neural networks have been proven powerful at processing perceptual data, such as images and audio. However, for tabular data, tree-based models are more popular for a couple reasons — one significant one being that they offer natural interpretability.

For example, consider a business that is attempting to determine why a system is failing. You would make a predictive model with several parameters — some examples are network speed, uptime, threads processing, and type of system. With a decision tree, we can additionally get a sense of porque a system is failing.

Deep neural decision trees combine the utility of a decision tree with the impact developed by neural nets. Because it is implemented with a neural network, DNDT supports out of the box GPU acceleration and min-batch learning of datasets that do not fit in memory, thanks to modern deep learning frameworks. They have thus shown to be more accurate than traditional decisions on many datasets. Furthermore, they are easy to use — an implementation involves about 20 lines of code in TensorFlow or PyTorch.

We can explore the concepts behind the core math of the model. First, we need a way to make the split decisions (i.e. how we decide which path of the tree to take). Then, we need to combine together our split decisions to build the decision tree.

We make the split decision via a binning function. A binning function takes an input and produces an index of the bins that the input belongs. In our model, each of the bins represents a feature — for example, uptime, network speed, or system type.

We bin each feature via its own one-layer neural network (the “deep neural” part of our model) with the following activation function.

We then multiply our bins with each other via a Kronecker product to construct our decision tree.


What Are Some Examples of Physical Models?

Scientists use many kinds of physical models to predict and understand that which they cannot observe directly. Physical models range from the Bohr model of the atom to models of the universe, which illustrate planets' orbits around the sun. Usually, models make something very small larger or something large smaller.

While the Bohr model of the atom is not accurate in its portrayal of the nature of the orbits of the electrons, it was the first physical model that incorporated quantum theory and provided an understanding of electron behavior, according to Encyclopedia Britannica. Each physical model has its own limitations and does not always provide a complete representation of what occurs in nature.

The double-helix is a physical model of DNA that aids scientists in visualizing the structures of DNA and its function in gene reproduction. The creation of this model, like many others, was dependent on the use of experimental data.

Scientists often use computer generated models in conjunction with physical models. Although there are limitations, computer generated models can provide greater detail than physical models. For example, a computer model of the universe, described by The Atlantic, is rendered as a cube with 350 million light years on each side, built from 12 billion three-dimensional pixels. Attempting to capture the universe's size with a physical model would yield a much less impressive result.