Content uploaded by Raphael Pereira
Author content
All content in this area was uploaded by Raphael Pereira on May 30, 2022
Content may be subject to copyright.
Universidade de São Paulo
Pós-Graduação em Modelagem de Sistemas Complexos
Sistemas Complexos (SCX-5002)
Descrevendo regras de agregação de
informação e emergência de
comportamento coletivo inteligente: um
trabalho de investigação sobre a inteligência
coletiva em sistemas complexos.
Raphael Cardoso Mota Pereira; São Paulo, 2020.
Resumo
Este trabalho de conclusão da disciplina de Sistemas Complexos
, do Programa de
Pós-graduação em Modelagem de Sistemas Complexos
,
é um exercício descritivo
sobre o uso de regras de agregação de informação e da emergência de
comportamento coletivo inteligente. É baseado no artigo de Luís M. A.
Bettencourt, The Rules of Information Aggregation and Emergence of Collective
Intelligent Behavior
, e tem como objetivo descrever as regras de agregação de
informação, através de um exercício de simulação utilizando os modelos
matemáticos citados no artigo.
Introdução
Problemática explorada
O ser humano é um ser social, e parte do sucesso como espécie no planeta terra
está relacionado a capacidade de se organizar em grupos. Essa capacidade
permitiu ao homem se adaptar e evoluir continuamente ao longo dos séculos,
aperfeiçoando habilidades coletivas para a caça de animais grandes na
pré-história, agricultura, revoluções industriais, até o desenvolvimento
científico e tecnológico mais avançado neste momento da história.
(BETTENCOURT, 2009; MALONE, 2018; MULGAN, 2018).
A inteligência coletiva é uma propriedade emergente de grupos de indivíduos
que agem de forma coordenada para alcançar resultados. E a necessidade de
entender esses grupos levou à descoberta de teorias quantitativas da tomada de
decisão, que motivou o nascimento da ciência estatística moderna, um dos
principais motores da teoria econômica e social (BETTENCOURT, 2009 apud
BERNOULLI, 1738, LUCE & RAIFFA, 1957, ROSS, 2007; MALONE, 2018;
MULGAN, 2018).
Malone (2018), define esses grupos como Super Minds
, uma metáfora para a
reunião de muitos cérebros trabalhando em conjunto. E justifica que os
indivíduos se agrupam pelas seguintes razões: a tomada de decisão em grupo
cria muitos benefícios; o custo da tomada de decisões em grupo é baixo; e os
benefícios líquidos da tomada de decisão em grupo são efetivamente
distribuídos.
De acordo com Mulgan (2018), a disponibilidade computacional e de dados tem
impulsionado a humanidade, e consequentemente os grupos de indivíduos,
para uma sociedade orientada por algoritmos e estatísticas.
“Meio século de avanço nas capacidades de computação seguiu
aproximadamente a previsão da lei de Moore. Eles nos deram melhores
maneiras de detectar, procurar, combinar, calcular, brincar e matar. Eles
incluem ferramentas para gerenciamento logístico, diagnóstico médico,
reservas de companhias aéreas, recomendações sobre quais músicas ou
livros comprar, navegação para motoristas ou caminhantes,
reconhecimento de fala, controle de estoque, avaliação de crédito,
negociação de alta frequência, eliminação de ruído, direcionamento de
mísseis e uma infinidade de outras opções (MULGAN, 2018, pág. 19).”
Contudo, diante da grande disponibilidade tecnológica os problemas da
sociedade se tornam cada vez mais complexos, e exigem respostas cada vez
mais eficientes e ágeis. Por exemplo, problemas relacionados aos mercados,
democracia, trânsito, pandemias, entre outros desafios para uma sociedade
complexa (BETTENCOURT, 2009; MALONE, 2018; MULGAN, 2018).
Justificativas do trabalho
Nesse cenário, os indivíduos precisam tomar as melhores decisões disponíveis,
com a expectativa de que a emergência da inteligência coletiva traga o maior
benefício possível para o grupo. E a agregação das informações de todos os
indivíduos é uma forma de entender se o comportamento do grupo está sendo
sinérgico, ou gerando mais informações do que a soma das partes.
(BETTENCOURT, 2009).
De acordo com Bettencourt (2009) a “informação é uma quantidade peculiar,
pois a agregação de muitas fontes não é linear, e pode produzir mais
informação (sinergia) ou menor (redundância) do que a soma das partes”. E esse
recurso pode munir os grupos de estratégias de solução de problemas que são
superiores entre indivíduos que não interagem (BETTENCOURT, 2009).
Estrutura teórica e revisão da literatura
Bettencourt (2009) em seu artigo tem como objetivos responder às seguintes
questões: a) como a informação é formalmente agregada; b) quais as classes de
problemas que as pessoas comuns com informações incompletas podem ter
uma solução melhor do que os peritos ou organizações. c) quais são as
estruturas de decisões e compartilhamento de informação que podem permitir
um coletivo convergir para uma solução melhor do que as partes? E para isso
utiliza a estrutura teórica a seguir.
A Teoria da Decisão e a Teoria dos Jogos tem sido amplamente utilizadas para
modelar o comportamento dos indivíduos. O que possibilita a partir do
comportamento do indivíduo simular o comportamento do grupo, ou seja, a
partir de uma perspectiva micro obter uma visão macro ((BETTENCOURT,
2009; MELO et al., 2016); TERANO et al., 2003).
Contudo, ainda que os indivíduos busquem otimizar suas escolhas para
maximizar a utilidade, sabemos que a sua racionalidade é limitada. Pois o
indivíduo busca tomar a melhor decisão a partir da disponibilidade de
informação (BETTENCOURT, 2009; MELO et al., 2016).
Bettencourt (2009) propõe a Teoria da Informação como forma de mensurar a
entrada sensorial e a saída comportamental nos indivíduos, apesar da teoria
possuir pouca aplicação no campo da psicologia ((BETTENCOURT, 2009;
MELO et al., 2016); MILLER, 1956, LUCE, 2003).
Dessa forma, o comportamento inteligente é medido através da informação que
é gerada dentro do sistema. E o uso da teoria de Shannon é uma forma de
compreender como a previsibilidade aumenta conforme existe a redução de
incerteza (BETTENCOURT, 2009).
Objetivos
O objetivo geral deste trabalho é descrever as regras de agregação utilizadas por
Bettencourt (2009) em um exercício de simulação utilizando os modelos
matemáticos citados no artigo The Rules of Information Aggregation and Emergence
of Collective Intelligent Behavior. E os objetivos específicos são: realizar um
exercício que utiliza uma base de dados hipotética gerada aleatoriamente, com a
finalidade de simular as decisões de um coletivo e a aplicação das regras de
agregação; e discutir o resultado na aplicação de pesquisas espaciais coletivas e
forrageamento.
Desenvolvimento
O desenvolvimento deste trabalho começa pela fundamentação teórica, e
baseia-se nos objetivos do artigo, The Rules of Information Aggregation and
Emergence of Collective Intelligent Behavior
, para determinar uma linha de
desenvolvimento descritiva do trabalho de Bettencourt (2009). São os principais
objetivos do artigo responder: a) como a informação é formalmente agregada?
b) quais as classes de problemas que as pessoas comuns com informações
incompletas podem ter uma solução melhor do que os peritos ou organizações?
c) quais são as estruturas de decisões e compartilhamento de informação que
podem permitir um coletivo convergir para uma solução melhor do que as
partes?
Em seguida, é abordada a metodologia adotada por este trabalho para o
desenvolvimento descritivo das regras de agregação de informação propostas
por Bettencourt (2009), e onde é abordada os limites do exercício descritivo
realizado neste trabalho em relação a aplicação de pesquisas espaciais coletivas e
forrageamento.
Finalmente, em resultados é feito o desenvolvimento do objetivo de realizar um
exercício que utiliza uma base de dados hipotética gerada aleatoriamente, com a
finalidade de simular as decisões de um coletivo e a aplicação das regras de
agregação. E em discussão é apresentado o objetivo de discutir o resultado
como forma de aplicação de pesquisas espaciais coletivas e forrageamento.
Fundamentação Teórica
Como a informação é formalmente agregada?
Bettencourt (2009) utiliza a Teoria da Informação de Shannon para realizar a
agregação formal da informação, e entender como um agrupamento ideal dessa
informação pode produzir um comportamento coletivo coordenado. Para isso,
utiliza a entropia de Shannon para medir o nível de incerteza de uma
determinada informação, atribuindo-a uma probabilidade (p(x)
).
(1)
Dessa forma, a probabilidade de uma determinada informação é transformada
em entropia, permitindo medir o seu nível de incerteza. De acordo com
Bettencourt (2009):
“Um dos fatos mais importantes a ter em mente é que a informação é
uma quantidade relativa, uma espécie de diferencial entre dois níveis de
incerteza. Especificamente, informações se referem à redução na
incerteza (ou ganho na previsibilidade) de uma dada variável-alvo, dado o
conhecimento do estado de outra" (Bettencourt, 2009 apud Cover &
Thomas, 1991).”
Nesse sentido, o conhecimento preciso do estado de X se traduz em uma
medida probabilística, em que o valor de p=0 resulta em X=1, entropia (perda de
informação), e o valor de p=1 resulta em X=0, sinergia (ganho de informação).
Portanto, quando as variáveis são distribuídas de forma estocástica, é possível
determinar os vários estados de X, possibilitando quantificar a sua incerteza.
Quais as classes de problemas que as pessoas comuns com informações incompletas podem
ter uma solução melhor do que os peritos ou organizações?
De acordo com Bettencourt (2009) a classes de problemas em que existam
variáveis correlacionadas, possibilita um ganho de previsibilidade do estado de
X. Sendo que o ganho de previsibilidade do estado de X está em função de
determinada variável Y.
“Por exemplo, se soubéssemos a opinião de vários traders sobre o preço
de um ativo, quanto poderíamos dizer sobre o preço real de mercado? Em
outras palavras, como o pool do Yinos informa sobre o estado de X? O
ganho de informação no estado de X, dada a observação de qualquer Yi,
também é uma quantidade familiar na teoria da informação (Cover &
Thomas, 1991), conhecida como informação individual entre as duas
variáveis:
(2)
onde a primeira relação expressa a mudança na incerteza de X, dado o
conhecimento sobre Yi e a segunda é uma definição, que nos lembra que
a informação é uma quantidade diferencial, uma mudança na incerteza
(entropia) (Bettencourt, 2009).”
Na teoria da informação de Shannon são propostas as seguintes estruturas
lógicas de informações: conjuntas, condicionais e mútuas. E de acordo com
Bettencourt (2009), as informações mútuas entre duas variáveis permite
explicar as reduções de entropia na medição da variável Y (ZENIL; KIANI,
[s.d.]).
A redução de entropia (ganho de informação) possibilita interpretar a utilidade
da informação gerada a partir de cada variável Y em função de X. Bettencourt
(2009) destaca que a entropia de Shannon e a informação mútua entre X e as
variáveis {Y} k têm propriedades importantes, a saber:
(3)
“Essas relações expressam o fato de que a medição de variáveis sucessivas
Yi podem apenas aumenta (ou pelo menos deixa inalterada) as
informações sobre X. Veremos abaixo que, embora sejam uma
propriedade natural da informação, essas condições ajudam a definir
classes de problemas bem colocados, em que a busca de mais informações
sobre o X pode ser otimizada em termos da combinação de {Y} k
(Bettencourt, 2009).”
Bettencourt (2009) conclui que a dependência condicional das variáveis {Y} k é
uma condição necessária para que a agregação de informações seja sinérgica.
Mas também, é essencial que as variáveis do conjunto {Y} sejam
“suficientemente” independentes, para que seja possível produzir sinergia.
Quais são as estruturas de decisões e compartilhamento de informação que podem
permitir um coletivo convergir para uma solução melhor do que as partes?
De acordo com Bettencourt (2009) a Teoria da Decisão modela de forma mais
adequada o indivíduo, e logo, reflete de forma mais realista a noção de
coletividade. E em oposição aos modelos de jogos de soma não zero iterado e
outras estruturas de decisão, a Teoria da Decisão reflete de forma mais realista
os incentivos à coordenação, Bettencout (2009) explica:
“...em situações da vida real, as pessoas geralmente encontram novas
maneiras de cooperar na solução coletiva de problemas, mesmo na
ausência de regras explícitas de interação ou recompensas tangíveis
(Bettencourt, 2009).”
Nesse sentido, Bettencourt (2009) conclui que o modelo de agregação de
informações e as vantagens derivadas, são uma consideração importante na
determinação do objetivo da seleção em um sistema em evolução.
Metodologia
Este trabalho é de natureza aplicada e sua abordagem é quantitativa. E possui
um objetivo descritivo sobre o trabalho realizado por Bettencourt (2009) no
artigo The Rules of Information Aggregation and Emergence of Collective Intelligent
Behavior
.
Para descrever as regras de agregação utilizadas por Bettencourt (2009) foi
realizado um exercício que utiliza uma base de dados hipotética gerada
aleatoriamente, com a finalidade de simular as decisões de indivíduos em um
coletivo e possibilitar a aplicação das regras de agregação.
A base de dados simula quinze indivíduos e três variáveis, e foi geradas
aleatoriamente através da fórmula =ALEATÓRIO(), disponível na ferramenta de
planilha do Google Docs. A base de dados utiliza uma heurística que não tem a
intenção de representar o comportamento de um coletivo real, como no caso
das formigas e abelhas. Mas tem como princípio os indivíduos que possuem o
objetivo de escolher o melhor caminho para encontrar comida se baseando em
algumas variáveis.
O exercício tem como objetivo descrever o uso de regras de agregação de
informações, através de variáveis mútuas para que o resultado seja sinérgico.
Dessa forma, evidenciando como a Teoria da Informação demonstra quando a
soma é maior que as partes, e a resolução coletiva de problemas possa ser
medida através dessas regras.
Portanto, o trabalho descritivo se limita a evidenciar o ganho de informação
proporcionado pela Teoria da Informação, e não tem com objetivo descrever o
modelo proposto por Dorigo & Stutzle (2004) ―Ant Colony Optimization ―mas
de apenas fazer um discussão sobre o aprendizado do exercício das regras de
agregação, no uso de um modelo canônico como o de pesquisas espaciais
coletivas e forrageamento.
Resultados
O exercício descreve um dilema que envolve a busca de alimentos por um
grupo de 15 (indivíduos), e que precisam tomar a decisão de escolher uma rota
entre quatro opções para garantir a alimentação do grupo. Contudo, o processo
de investigação dessas rotas em busca de alimentos é muito arriscado, de forma
que os perigos existentes nas rotas só podem ser superados com a presença do
grupo inteiro.
1
1 Planilha disponível no anexos e no link.
Para chegar a uma decisão coletiva ótima sobre seguir determinada rota, cada
indivíduo precisa tomar uma decisão, contribuindo com sua experiência
passada sobre informações (variáveis) para cada rota. E para decidir se deve
seguir por determinada rota, cada indivíduo deve responder três questões: a) já
conhece a rota? b) já encontrou comida nessa rota? c) acha a rota segura?
A escolha de seguir por determinada rota é o resultado do processo de resposta
das três variáveis, seguindo uma lógica em que as variáveis são independentes,
mas possuem alguma relação. Por exemplo, para o indivíduo já ter encontrado
comida em determinada rota, é necessário que já tenha passado por essa rota
anteriormente. Contudo, o fato dele já conhecer a rota, não o obriga de já ter
encontrado comida nessa rota.
Figura 1. Heurística
Para simular a aleatoriedade na tabela de dados foi utilizado a função
=ALEATÓRIO.ENTRE(0,1), além de funções condicionais, ex.:
=SE(CONDICIONAL; ALEATÓRIO.ENTRE(0,1); “0”). Dessa forma, a base de
dados para a simulação possui a aleatoriedade para gerar entropia, mas não
deixa de incorporar elementos condicionais para uma realidade lógica para as
decisões dos indivíduos.
Segue exemplo da base de dados simulada para a Rota 1 na Tabela 1, e outras
três tabelas foram geradas para as outras três rotas, disponíveis no anexos.
Tabela 1. Dados da Rota 1
INDIVÍDUOS
Conhece a rota?
Já encontrou comida nesta rota?
Acha a rota segura?
Decide pela
rota?
Ind1
CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind2
NÃO CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind3
NÃO CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind4
NÃO CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind5
NÃO CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind6
NÃO CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind7
CONHECE A ROTA
NÃO ENCONTROU COMIDA
ACHA SEGURA
SIM
Ind8
NÃO CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind9
CONHECE A ROTA
JÁ ENCONTROU COMIDA
NÃO SABE AFIRMAR
SIM
Ind10
CONHECE A ROTA
NÃO ENCONTROU COMIDA
ACHA SEGURA
SIM
Ind11
CONHECE A ROTA
NÃO ENCONTROU COMIDA
ACHA SEGURA
SIM
Ind12
NÃO CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind13
NÃO CONHECE A ROTA
NÃO ENCONTROU COMIDA
NÃO SABE AFIRMAR
NÃO
Ind14
CONHECE A ROTA
NÃO ENCONTROU COMIDA
ACHA SEGURA
SIM
Ind15
CONHECE A ROTA
JÁ ENCONTROU COMIDA
NÃO SABE AFIRMAR
SIM
Para agregar as informações foi utilizado uma tabela auxiliar que permitiu
estratificar de forma estruturada todas as variáveis para aplicação da Entropia
de Shannon. E também, possibilitou organizar o trabalho de investigação das
entropias de forma compartimentada, facilitando a visualização do ganho de
informação para cada variável. O método de agregação em excel utilizado nesta
planilha foi baseado no trabalho sobre aprendizado de máquina de Paula
Guilfoyle, do site The Excel Club (GUILFOYLE, 2020).
Tabela 2. Agregação das informações sobre a Rota 1
Decide pela rota 1?
Sim
Não
P(sim)
P(não)
- p(sim)
log2
p(sim)
- p(não)
log2
p(não)
Entropi
a
Entropia
proporcion
al
Entropi
a Total
Ganho de
Informação
6
9
0,4
0,6
0,529
0,442
0,971
0,971
0,971
Conhece a rota?
CONHECE A
ROTA
6
1
0,9
0,1
0,191
0,401
0,592
0,276
0,276
0,695
NÃO CONHECE A
ROTA
0
8
0,0
1,0
0
0,000
0,000
0,000
Já encontrou
comida nesta rota?
0,772
JÁ ENCONTROU
COMIDA
2
0
1,0
0,0
0,000
0
0,000
0,000
0,772
0,199
NÃO ENCONTROU
COMIDA
4
9
0,3
0,7
0,523
0,367
0,890
0,772
Acha a rota segura?
0,502
ACHA SEGURA
4
0
1,0
0,0
0,000
0
0,000
0,000
0,502
0,469
NÃO SABE
AFIRMAR
2
9
0,2
0,8
0,447
0,237
0,684
0,502
2,520
De acordo com Bettencourt (2009), para que as regras de agregação de
informações possam gerar mais discernimento do que a soma das informações
em suas partes, é fundamental que as partes atendam a uma proporcionalidade,
de forma que nenhuma das variáveis podem ser independentes
estatisticamente. Acredito, que com esse propósito é necessário realizar uma
proporcionalidade das entropias para que possam refletir o todo.
“Especificamente, queremos quantificar como o conhecimento de muitas
variáveis {Y} k pode informar o estado do alvo X.... Para fazer isso de
maneira geral, escrevemos as informações obtidas ao medir um conjunto
{Y} k, que é (Bettencourt, Gintautas, & Ham, 2008)
onde as segundas e maiores variações são obtidas a partir da primeira
através de uma regra de cadeia, análoga à obtenção de derivadas
ordinárias sucessivas, por exemplo,
e assim por diante.
Observe que o efeito da variação é condicionar as informações sobre a
nova variável e subtrair o elemento não variado dela. A expansão (5 e 6)
nos permite quantificar como as informações são agregadas à medida que
mais Yi está disponível e, dependendo de sua instanciação, pode ser
mapeado para muitas classes de problemas. É uma decomposição útil de
pelo menos duas maneiras. Primeiro, cada termo na expansão refere-se à
contribuição irredutível de informações da medição de um conjunto
exclusivo de {Y} i <k. Essa contribuição desaparecerá se alguma das
variáveis do conjunto for estatisticamente independente e, portanto, não
formar um multipleto irredutível genuíno. Segundo, o sinal de cada
termo indica como o conjunto das variáveis {Y} i está relacionado entre si
(e com o X). Eles podem revelar mais informações (se o seu sinal for
negativo) ou menos informações (se positivo) do que quando organizadas
em ordens inferiores. É nesse sentido muito específico que podemos
dizer que o conhecimento de um conjunto de variáveis pode gerar mais
discernimento do que a soma das informações em suas partes. Essa é a
base quantitativa na qual a '' inteligência coletiva '' pode ser medida,
conforme explicamos em detalhes na próxima seção (Bettencourt, 2009).”
Com base nos resultados gerados, verificamos que a decisão de adotar qualquer
uma das rotas apresentam uma alta taxa de incerteza, onde a entropia está
muito próxima de 1. Tendo em vista que o objetivo do grupo é encontrar
comida, a Rota 3 apresentou um maior ganho de informação na variável “Já
encontrou comida nessa rota?” (0,658). Por outro lado, a rota Rota 4 apresentou
o maior ganho de informação na variável “Acha a rota segura?”, com uma
entropia 0, tornando essa rota a mais confiável. E, ainda apresenta o segundo
maior ganho de informação sobre a variável “Já encontrou comida nessa rota?”
(0,242).
Discussão
De acordo com Bettencourt (2009) o modelo proposto por Dorigo & Stutzle
(2004) ―Ant Colony Optimization ―possui dois aspectos, um está relacionado à
exploração e outro à explotação, que significa que as formigas ou realizam um
trabalho de busca por alimento, ou estão explotando uma fonte de alimentos.
Nesses dois casos, o uso do feromônio é a chave central para a tomada de
decisão individual das formigas, que é utilizado como uma forma de mapear
temporariamente o território, evidenciando as principais rotas.
O exercício proposto não passa perto reproduzir o modelo de Dorigo & Stutzle
(2004), mas utiliza o mesmo princípio de agregação da informação para que a
tomada de decisão seja baseada no maior ganho de informação. Método que
pode reproduz de forma muito eficiente o processo de tomada de decisão, e se
utilizado com os Algoritmos Genéticos, de John von Neumann, possibilita uma
grande capacidade de processamento de informação de forma eficiente.
As regras de agregação se mostram como a base para aprendizado de máquina,
e são parte fundamental na busca da inteligência artificial. Possibilitando,
através de uma perspectiva do micro para o macro, entender o comportamento
coletivo inteligente que busca maximizar o “bem estar” de todos.
Conclusões
A capacidade de síntese de Bettencourt (2009) faz o artigo The Rules of
Information Aggregation and Emergence of Collective Intelligent Behavior parecer
mais simples do que aparenta. Na verdade, o volume de informações que pode
ser extraído de cada parágrafo, faz da sua leitura um grande desafio, e obriga ao
leitor buscar um volume de informação considerável.
Apesar de ser excepcionalmente referenciado, o trabalho de Bettencourt (2009)
é pouco ilustrativo. Ao mesmo tempo em que consegue descrever os processos
de forma clara, em nenhum momento ilustra de forma prática os princípios
apresentados sobre as regras de agregação.
O volume de conhecimento obtido para superar a jornada de desenvolvimento
deste trabalho, principalmente no aspecto prático das técnicas das regras de
agregação, abriu um caminho novo e cheio de possibilidades para explorar os
Sistemas Complexos.
Referências
BETTENCOURT, L. M. A. The Rules of Information Aggregation and
Emergence of Collective Intelligent Behavior. Topics in Cognitive Science, v. 1,
n. 4, p. 598–620, out. 2009.
____Bernoulli, D. (1738). Specimen theoriae novae de mensura sortis
(Exposition of a New Theory on the Measurement of Risk). Econometrica, 22,
23–36.
____Luce, R. D., & Raiffa, H. (1957). Games and decisions: Introduction and
critical survey. New York: Wiley.
____Ross, D. (2007). Economic theory and cognitive science:
Microexplanation. Cambridge, MA: MIT Press.
____Simon, H. (1982). Models of bounded rationality, Vols. 1–3. Cambridge,
MA: MIT Press
____Terano, T., Deguchi, H., & Takadama, K. (2003). Meeting the challenge of
social problems via agent-based simulation. Heidelberg, Germany: Springer.
____Miller, G. A. (1956). The magical number seven. Psychological Review, 63,
81–97.
____Shannon, C. E. (1951). Prediction and entropy of printed English. The Bell
System Technical Journal, 30, 50–64
____Luce, R. D. (2003). Whatever happened to information theory in
psychology? Review of General Psychology, 7, 183–188.
GUILFOYLE, P. Simple Explanation of Machine Learning shown with Excel -
Part 1 - The Excel Club. Disponível em:
<https://theexcelclub.com/simple-explanation-of-machine-learning-shown-wit
h-excel-part-1/>. Acesso em: 30 jul. 2020.
MALONE, T. W. Superminds: The Surprising Power of People and
Computers Thinking Together. [s.l.] Little, Brown Spark, 2018.
MELO, T. M. et al. Racionalidade limitada e a tomada de decisão em sistemas
complexos. Brazilian Journal of Political Economy, v. 36, n. 3, p. 622–645, set.
2016.
MULGAN, G. Big mind: how collective intelligence can change our world.
Princeton: Princeton University Press, 2018.
ZENIL, H.; KIANI, N. A. (1) 3.4 Joint, Conditional, & Mutual Information & A
Case Study - YouTube. Disponível em:
<https://www.youtube.com/watch?v=jkgKWmCb5AE>. Acesso em: 28 jul. 2020.
Anexos
https://docs.google.com/spreadsheets/d/13mGGeas86jcedLfqFgg_SbpRM3afH
Lhf5NgnjqL0sjo/edit?usp=sharing
Rota 1
Rota 2
Rota 3
Rota 4