Content uploaded by Alfredo Pereira Junior
Author content
All content in this area was uploaded by Alfredo Pereira Junior on Jul 15, 2016
Content may be subject to copyright.
!
1!
Monismo de Triplo Aspecto: Uma Filosofia Interdisciplinar para o Século XXI
Autor: Alfredo Pereira Jr.
Índice:
Introdução.......................................................................................... 2
Cap. 1 - Método Filosófico-Interdisciplinar.................................... 6
Cap. 2 - Conceitos Científicos Relevantes........................................ 16
Cap. 3 - Modelando a Realidade....................................................... 24
Cap. 4 - O Primeiro Aspecto............................................................. 38
Cap. 5 - O Segundo Aspecto............................................................... 54
Cap. 6 - O Terceiro Aspecto............................................................... 66
Cap. 7 – A Unidade dos Aspectos....................................................... 81
Cap. 8 – Do Ser ao Dever Ser............................................................. 96
Comentários Finais: A Epistemologia e a Ontologia do MTA....... 104
Referências.......................................................................................... 108
Anexo: Debate do MTA na revista Kinesis........................................ 123
Referências do anexo.............................................................. 168
!
2!
Introdução
A redação de um livro apresentando uma concepção filosófica compatível com o
quadro conceitual das ciências contemporâneas é um projeto ambicioso, motivado pela
insatisfação com as posições metafísicas atualmente prevalentes nas comunidades de
filósofos e cientistas.
O desenvolvimento das ciências e tecnologias contemporâneas tem propiciado
desafios e oportunidades para a elaboração de uma nova ontologia. As duas principais
correntes tradicionais, o Materialismo e o Idealismo, não parecem ser suficientes para
abranger os conceitos utilizados na prática científica e na vida cotidiana. Abordagens
materialistas, como o atomismo e o reducionismo mecanicista, e as variedades do
idealismo, subjetivo e objetivo, não parecem ser suficientes para acomodar os quadros
conceituais utilizados em diversas áreas científicas, dos fundamentos da física à
psicologia.
O problema da consciência emerge, neste contexto, como um desafio para as
filosofias existentes: como acomodar nossa experiência consciente no mundo natural?
Para o Idealismo essa questão se coloca de modo invertido, pois, ao assumir a
consciência como fundamento da realidade, o que precisaria ser explicado é o mundo
físico: como acomodá-lo no âmbito da Idéia Absoluta (Hegel), ou de uma "consciência
universal" de cunho teológico? Sabe-se que Hegel resolveu este problema de modo
artificioso, postulando que a reflexividade da Idéia (sua transformação em Auto-
Consciência no Espírito Absoluto, ou seja, na Idéia consciente de si mesma) requer que
a Idéia Absoluta se negue, aparecendo como Natureza, a qual, por sua vez, novamente
se nega (negação da negação) para ressurgir como Espírito (vide discussão em Pereira
Jr., 1996).
Filósofos materialistas, ao assumirem a realidade da consciência (que foi
inicialmente negada, pela vertente eliminativista), se deparam com a "Lacuna
Explicativa" apontada por Levine (1983), que consiste na impossibilidade de se deduzir
conceitos referentes à atividade consciente (como 'qualia', sentimentos) de conceitos
consagrados nas ciências físicas e biológicas, em particular a impossibilidade de reduzir
dedutivamente a Psicologia à Neurociência.
!
3!
A filosofia Dualista Interacionista, de origem cartesiana, que postula duas
realidades disjuntas, a corpórea e a mental, tem sido uma solução de compromisso para
quem deseja afirmar tanto a realidade da consciência quanto do mundo físico-químico-
biológico, porém apresenta dificuldades sérias no que diz respeito às possíveis relações
entre os dois domínios da realidade (vide discussão em Velmans, 2009). Sua versão
atenuada, no Dualismo de Propriedades de Chalmers (1996), se restringe a uma
separação semântica entre propriedades físicas e mentais, que seriam incompatíveis
entre si, mas poderiam ser alternativamente predicadas dos mesmos sistemas (o que é
conhecido como Monismo Substancial). A proposta desenvolvida neste livro não se
reduz ao plano semântico, mas avança no sentido da construção de uma ontologia
monista que considera tanto o aspecto físico como o mental como igualmente reais e
complementares. Ao invés de postular um duplo aspecto da informação, como fez
Chalmers (1995, 1996), julgamos apropriado desdobrar os processos mentais em
processos informacionais não conscientes e processos meta-informacionais conscientes
(para os quais o processamento de informação seria necessário, mas não suficiente).
O objetivo do trabalho filosófico que resultou no livro que o leitor tem em mãos
não foi o de realizar uma revisão, muito menos fazer críticas contundentes ãs
abordagens filosóficas tradicionais, mas formular uma nova síntese, incorporando
contribuições das ciências contemporâneas. Tal motivação se concretiza na proposta do
Monismo de Triplo Aspecto (MTA), em que se reconhece a importância dos aspectos
físicos, informacionais e conscientes para a construção de uma concepção unitária da
realidade. Deste modo, esperamos contemplar as verdades parciais que se encontram no
Materialismo, no Idealismo e no Dualismo Interacionista, sem manter compromissos
com estas posições em todas as suas implicações, e evitando possíveis inconsistências
decorrentes da adoção parcial de abordagens contraditórias entre si.
O Monismo Neutro (vide Stubenberg, 2013) constitui uma das principais
tentativas contemporâneas de se superar o dualismo típico da filosofia moderna. Há três
maneiras básicas de interpretar tal “neutralidade”. A primeira, presente na filosofia de
Russell (1921), consiste em se procurar um substrato epistêmico comum para o
entendimento dos processos físicos e mentais, como os "dados dos sentidos". Neste tipo
da abordagem, assim como na de Chalmers, não se desenvolve uma ontologia
sistemática capaz de dar conta da riqueza da realidade que experienciamos.
!
4!
A segunda consiste em se postular a existência de uma substância e/ou modo de
atividade primitivos, a partir dos quais se derivaram tanto a realidade física quanto a
realidade mental. Aqui se enquadram diferentes abordagens, desde o monismo de
Anaximandro (a respeito do ápeiron, substância primitiva qualitativamente
indeterminada e quantitativamente infinita) e Lucrécio (a respeito da partícula de luz,
que se diferencia por meio de desvios imprevisíveis), passando pela Natureza (entendida
como totalidade do real) de Espinosa , e vindo até a “experiência pura” proposta por
James (1904) e a contemporânea Teoria das Cordas (a respeito de modos de atividade
subatômica, que seriam matrizes tanto dos processos materiais/energéticos quanto dos
estados informacionais qualitativos). O raciocínio subjacente a estas teorias seria que
uma vez que há uma substância ou modo de percepção primitivo dos quais se deriva
tudo que existe, ou todo o conhecimento que possamos ter, então é possível explicar os
estados de coisas atuais como modificações desta substância e/ou modo de atividade.
Na concepção de reducionismo proposta por Nagel (1961), as propriedades desta
substância ou modo primitivo constituiriam o estado inicial do universo, ao qual as leis
e princípios físicos se aplicam, gerando um processo dinâmico que gera passo a passo as
propriedades físicas do mundo conhecido; portanto, este tipo de ontologia é compatível
com o reducionismo ontológico e epistemológico, podendo ainda vir acompanhada de
suposições deterministas para as quais a aparente contingência dos fatos se derivaria de
um conhecimento insuficiente dos processos pelos quais são gerados.
A terceira interpretação do Monismo Neutro consiste em se postular aspectos
complementares da realidade, basicamente o “físico” e o “mental”. No Monismo de
Duplo Aspecto de Velmans (2008, 2009), estes aspectos estão relacionados com
modalidades do conhecer, a saber, o aspecto físico é aquele que aparece na perspectiva
de terceira pessoa, enquanto o aspecto mental é aquele que aparece na perspectiva de
primeira pessoa. Estas perspectivas seriam irredutíveis, porém seu critério de
demarcação não é claro; não se trata de critério naturalista (ou seja, diferentes tipos de
estruturas e/ou processos físicos, químicos e/ou biológicos, ou mesmo sócio-culturais)
nem de um dualismo ontológico, no qual se postulasse, além do mundo natural, uma
realidade transcendente ou super-natural. Possivelmente, seriam dois modos de
apreensão de uma mesma realidade psicofísica, que decorreriam de critério
epistemológico, mas não ontológico. Em uma abordagem naturalista, como a aqui
proposta, em que se considera a Natureza como totalidade do real, tal posição precisaria
!
5!
ser melhor desenvolvida, pois a existência de critérios epistemológicos sem base
ontológica remete a uma filosofia transcendental que conflita com o pressuposto de que
a Natureza constitui a totalidade do real.
Para o Monismo de Duplo Aspecto (ou Monismo Dual, ou Monismo Reflexivo)
de Velmans (2009) as propriedades de um determinado sistema poderiam ser físicas e
mentais ao mesmo tempo, dependendo da perspectiva em que são enfocadas: por
exemplo, os potenciais de ação dos neurônios seriam simultaneamente físicos (na
perspectiva da terceira pessoa), e mentais (na perspectiva da primeira pessoa).
Entratento, o Monismo Dual tem duas limitações, a saber:
a) Indistinção categorial entre processos mentais inconscientes e conscientes, e
b) Falta de uma distinção propriamente ontológica entre os dois aspectos. A distinção
entre as perspectivas de primeira e terceira pessoas parece implicitamente assumir uma
perspectiva transcendental neo-kantiana.
Essas duas limitações são resolvidas pelo MTA, da seguinte maneira:
a) Ampliação dos aspectos fundamentais da Natureza para três, deste modo distinguindo
entre os processos puramente informacionais (que correspondem a processos mentais
não conscientes) e processos mentais conscientes (aqueles caracterizados pela presença
de um sentimento a respeito da informação sendo processada). Dedicamos neste livro
três capítulos para o respectivo detalhamento dos três aspectos.
b) Embasamento em conceitos científicos interdisciplinares, superando-se deste modo o
transcendentalismo neo-kantiano em prol de uma abordagem cognitiva na qual se
considera sistemas corpóreos e situados em um ambiente multidimensional. As formas
cognitivas apriori são aqui concebidas como padrões de informação instanciados no
corpo do agente cognitivo; em particular, no caso de sistemas vivos, em padrões de
conexão e de atividade ondulatória de redes neurais.
As abordagens monistas são apropriadas para uma discussão das ciências do
cérebro, pois permitem um entendimento da relação cérebro-mente-consciência em
termos de isomorfismos parciais ou homeomorfismos, como discutido no penúltimo
deste livro. Tais correspondências dinâmicas entre os aspectos dão conta da unidade na
diversidade: os três aspectos estão entrelaçados na atividade dos agentes cognitivos.
!
6!
Portanto, esperamos mostrar que embora os aspectos sejam emergentes no sentido forte,
e portanto irredutíveis uns aos outros, são aspectos da dinâmica de um mesmo sistema,
deste modo fazendo justiça ao uso do termo Monismo.
No MTA, a distinção entre perspectivas de primeira e terceira pessoas é
relativizada e deixa de ser critério de distinção entre processos não conscientes e
conscientes. A perspectiva de primeira pessoa é a do agente cognitivo que tem uma
experiência vivencial do mundo, e constitui a base da perspectiva de terceira pessoa,
que é entendida como processo inter-subjetivo, instrumental e experimental, na qual se
constrói o conhecimento científico (por exemplo, o observador científico que analisa
um registro de eletroencefalograma). Ambas as perspectivas pertencem ao mesmo
sistema, concebido como um agente natural cujas capacidades cognitivas emergem de
estruturas e funções biológicas – e não como "sujeito transcendental" cujas capacidades
cognitivas (formas apriori, categorias do entendimento) se situariam fora do plano da
Natureza. Este assunto é discutido no último capítulo do livro, completando assim um
círculo argumentativo, pelo qual os resultados teóricos obtidos justificam os
pressupostos epistemológicos adotados.
Cap. 1 - Método Filosófico-Interdisciplinar
Com o espetacular progresso científico e tecnológico dos séculos XX e XXI,
abre-se para a filosofia um novo campo, a análise de conceitos implícitos na ciência e
tecnologia, e a busca de vínculos interdisciplinares, no intuito de compreender os
princípios que regem a realidade abordada pelas ciências e pelas tecnologias que delas
resultam. O cientista desenvolve conceitos e o tecnólogo os aplica para o
desenvolvimento de novos produtos para uso humano, mas estes profissionais não se
dedicam a uma análise sistemática dos mesmos. Esta tarefa cabe ao filósofo
interdisciplinar.
A origem do monismo multiaspecto, enquanto investigação sistemática dos
princípios da Natureza, pode ser atribuída a Aristóteles. Com o Hilemorfismo, a ideia de
que todos os seres da natureza (ou seja, o “mundo sublunar”) seriam compostos de
forma e matéria, Aristóteles introduz o princípio monista de duplo aspecto, que lhe
possibilitava superar o dilema entre o materialismo dos pré-socráticos e o idealismo de
!
7!
Sócrates-Platão. Para conceber o movimento e a transformação na natureza em uma
lógica que assume o Princípio da Identidade, Aristóteles sintetizou as principais - e
opostas – ideias centrais de Parmênides e Heráclito, em sua teoria da Potência e do Ato.
A tese central do estagirita, a este respeito, seria a de que os estados potenciais da
natureza são tão reais quanto os estados atuais, e constituem pressuposto necessário para
se entender o movimento e as transformações dos seres da natureza.
Entretanto, como apontado por Aubenque (1960), para Aristóteles os estados
potenciais constituem um repertório fixo, e, além disso, inexoravelmente se atualizam.
Tal concepção de fechamento causal dos processos naturais, que chegaria a seu extremo
no determinismo laplaciano, começa a ser criticada em Hume (vide Pereira Jr., 1993).
Em Leibniz (conforme Aubenque, 1960) se explicitaria uma visão alternativa, de que
existem mundos possíveis que não se atualizam – uma vez que o mundo que
vivenciamos corresponderia ao melhor dentre os possíveis.
Encontramos no físico-filósofo Boltzmann (1896; vide discussão em Pereira Jr.,
1997) um aprofundamento da noção de devir probabilístico da realidade, inclusive se
traçando um cenário de mundos possíveis, conceito que veio a se tornar mais conhecido
na filosofia da física a partir de uma vertente de interpretação da teoria quântica (vide
Seligman et al., 1973). As múltiplas possibilidades de atualização da realidade podem
ocorrer no espaço (mundos paralelos) ou no tempo (diferentes fases temporais no
mesmo espaço).
Encontramos em Descartes um inequívoco dualismo de res cogitans e res
extensa, que são concebidas como domínios disjuntos e - em princípio - separáveis,
embora de fato interajam por meio de dispositivos como a sugerida glândula pineal.
Esta solução dualista para o problema fundamental da ontologia - a relação mente-
matéria - inspirou toda uma tradição, na qual o dualismo foi trazido também para o
plano metodológico e epistemológico, dando origem à separação entre ciências naturais
e ciências humanas, que marcou profundamente o panorama acadêmico do século XX.
Em Espinosa (vide Lima e Pereira Jr., 2008), o cartesianismo em certo sentido
reflui para o monismo hilemórfico aristotélico, ao se conceber mente e corpo como
modos de uma mesma substância. O conceito de Natureza adotado por Espinosa é
suficientemente amplo para conter não só o domínio físico, mas também o mental e o
divino. Podemos considerar a filosofia de Espinosa uma antecipação da proposta aqui
!
8!
sistematizada; porém, sem o detalhamento necessário para seu uso contemporâneo, o
que requer uma interpretação e integração de resultados de teorias científicas, abarcando
ramos da física, ciências do cérebro e da mente.
Em Kant, a inspiração dualista adquire formas bastante sutis, na distinção entre
formas ‘a priori’ transcendentais, como o espaço e o tempo, ou as categorias do
entendimento (entidades mentais no sentido cartesiano) e a “matéria” oriunda da
experiência sensível, que viria a preencher tais formas no ato cognitivo. Surge neste
momento a Filosofia Transcendental, que viria a inspirar a - e ser superada pela -
fenomenologia da consciência de Husserl (1913; vide uma revisão da teoria da
percepção do tempo em Pereira Jr., 1996), que desemboca na filosofia existencial de
Heidegger (1926) e Merleau-Ponty (1999), em que as dicotomias sujeito-mundo e
mente-corpo são, respectivamente, superadas.
Antes da filosofia existencial, uma crítica à filosofia transcendental já havia sido
operada no Idealismo Alemão por, entre outros, Hegel (vide Pereira Jr., 1994). Na
Fenomenologia do Espírito ele parte de uma reconstrução dos caminhos da mente na
história ocidental e desenvolve em seguida uma concepção sistemática na qual a Idéia, a
Natureza e o Espírito constituem um processo dialético unitário. O processo dialético,
na Enciclopédia, segue uma ordem condizente com os pressupostos idealistas do
filósofo, se iniciando com as Idéias, possivelmente situadas em um mundo platônico,
que se exteriorizam na Natureza, e em seguida, por “negação da negação” (em um
processo que pode ser comparado às ideias de autopoiese e auto-organização)
constituem o Espírito, momento em que se instaura a auto-consciência.
Tal progressão a partir das Idéias foi objetada por Marx e Engels, que
reinterpretaram a dialética hegeliana de modo materialista, identificando os processos
naturais e históricos como determinantes das idéias (formas de consciência)
desenvolvidas pelos indivíduos e classes sociais (Marx e Engels, 2007). A concepção
marxista da dialética, ao assumir a continuidade entre natureza e história, se colocaria
em posição semelhante à proposta do MTA, porém é sabido que os esforços neste
sentido, por Engels (1978), devido a diversos fatores limitantes da época, não fez justiça
à complexidade da temática, permanecendo como indicador do trabalho ainda a ser
feito, como apontado por Prigogine e Stengers (1979).
!
9!
A teoria evolucionista de Darwin inspirou um conceito biológico da mente
humana, desenvolvido pelo autor em seu livro sobre as emoções. Baldwin (1896) se
destacou por integrar o evolucionismo darwiniano com pesquisas empíricas em
psicologia do desenvolvimento, possibilitando um melhor entendimento das inter-
relações dos processos filogenético e ontogenético (a filogenia determina a ontogenia,
que por sua vez se constitui como processo auto-regulado e influencia a filogenia, por
meio do “Efeito Baldwiniano” – vide Deacon, 1997). Ao analisar o universo mental,
desenvolveu a teoria do Pancalismo, na qual entende que a integração máxima das
experiências conscientes se daria no âmbito da experiência estética.
Whitehead (1929) tratou de importantes questões pertinentes a uma ontologia de
base científica, procurando englobar conceitos da Teoria da Relatividade e da Teoria
Quântica. Ele concebia a realidade como um processo composto por “ocasiões de
experiência” singulares, das quais emergem “sentimentos” (feelings).
O maior saldo da filosofia moderna, incorporado pela filosofia contemporânea,
foi mostrar que todo conhecimento é relativo a um agente cognitivo. Podemos tomar os
conteúdos do conhecimento como imagens da estrutura cognitiva do agente (o que é
assumido pela filosofia transcendental), mas podemos também considerar tais
conteúdos como janelas transparentes que nos revelam a estrutura e dinâmica do mundo
em que vivemos (como nas filosofias realistas críticas). Além desta relação epistêmica
entre o conhecedor e o conhecido, também se estabelece uma relação pragmática, na
qual os conteúdos cognitivos embasam ferramentas tecnológicas, as quais – juntamente
com o trabalho humano - transformam o mundo conhecido, propiciando a formação de
novos conteúdos cognitivos, em um processo dinâmico. Neste sentido, o conceito que
temos de Natureza já não mais se refere a um estado de coisas definitivamente
determinado, mas como a conjunto de possibilidades que se combinam à medida que
são atualizadas, constituindo uma progressão que pode ser comparada a um “processo
estatístico com memória” (no qual um resultado obtido em um momento define uma
nova distribuição de probabilidades para o momento seguinte).
Tendo em vista os resultados das abordagens clássicas da ontologia, como
recuperá-los no contexto contemporâneo, no qual a ciência e a tecnologia fornecem
novos subsídios para se repensar as teorias filosóficas? A tese de Quine a respeito da
subdeterminação das teorias pelos dados empíricos (vide discussão em Pereira Jr e
!
10!
French, 1990) implica que de uma determinada teoria científica não se pode inferir uma
única ontologia. Entretanto, o mesmo filósofo (Quine, 1948) apontava no sentido de
compromissos ontológicos assumidos pelos cientistas em seu uso da linguagem (natural
e/ou formal) na formulação de suas teorias. Esta dupla condição (subdeterminação das
teorias e compromisso ontológico decorrente do uso da linguagem) demanda um
trabalho filosófico no sentido da identificação dos elementos úteis para uma ontologia,
presentes nas diversas teorias científicas, e tessitura de uma rede conceitual que conduza
a uma ontologia sistemática.
É importante ainda distinguir o tipo de ontologia aqui desenvolvida da
metafísica tradicional, que partia de doutrinas pré-estabelecidas (muitas vezes de
natureza religiosa), para construir uma concepção de realidade com elas compatível,
concepção que não raramente era usada para justificar filosoficamente a doutrina
assumida. No caso de uma ontologia de base científica e/ou para uso computacional, tal
base dogmática está ausente, sendo substituída por um processo de ‘bootstrapping’
(como em Glymour, 1990), no qual os próprios conceitos detectados no contexto
científico e/ou tecnológico são entrelaçados, formando redes que se justificam tanto por
sua coerência interna (que possibilita uma certa relação de continuidade entre as
especialidades) quanto pela força pragmática (isto é, pela sua capacidade de propiciar
melhor entendimento dos processos constituintes da realidade, no contexto científico-
tecnológico).
Epistemologicamente, o MTA se posiciona na vertente do Realismo Crítico
(como em Velmans, 2009), para a qual a experiência fenomênica nos revela traços da
estrutura do mundo. Teorias científicas e filosóficas são elaborações desta experiência,
com o uso da linguagem para representar características atribuídas à realidade. A
qualificação do Realismo como Crítico decorre de que, mesmo quando corretamente
direcionadas (conforme avaliações dos próprios pesquisadores), as teorias não deixam
de ser falíveis, contendo erros e equívocos, que podem ser evidenciados e
eventualmente corrigidos.
O processo intersubjetivo de construção do conhecimento filosófico e científico
é intencionalmente voltado para uma aproximação àqueles que julgamos ser os
princípios constituintes da realidade. Não podemos conhecer todos os detalhes do real,
mas podemos oferecer conjecturas a respeito de seus princípios fundamentais; podemos
!
11!
ainda relacionar tais conjecturas com ações práticas bem sucedidas, que nos sugerem a
utilidade dos princípios para orientar a própria experiência. A construção do
conhecimento filosófico e científico pode ser considerada como um processo de auto-
organização da experiência fenomênica.
Não há possibilidade de se situar em perspectiva superior à experiência e
analisá-la tomando um referencial absoluto; a construção do conhecimento se faz por
ciclos reflexivos no domínio da experiência. O conceito de consciência aqui defendido
implica, novamente com Velmans (2009), uma reflexividade do real, pela qual
determinados sistemas percebem e reelaboram os elementos dos quais são constituídos.
A experiência consciente seria o processo da realidade refletido em si mesmo, na
perspectiva de um determinado sistema que faz parte desta mesma realidade e interage
com outros sistemas que também fazem parte da realidade. As teorias filosóficas e
científicas são elaborações desta experiência, em sistemas linguísticos voltados para a
captura das regularidades do real, por meio de descrições das estruturas e formulação de
princípios e leis que possibilitem o entendimento dos processos experimentados.
Todo aspecto da realidade vivenciada aqui e agora (por exemplo, aparelhos sem
fio propiciando “informação à distância”, de modo semelhante à “ação à distância”
atribuída à força gravitacional) deve ser considerado como possível desdobramento dos
princípios fundamentais da realidade. Embora não tenhamos condições de conhecer
todas as possíveis combinações, podemos inferir, a partir da realidade vivenciada, quais
seriam os princípios mínimos necessários para que estas vivências ocorram
(parafraseando Kant, podemos investigar as “condições de possibilidade” da realidade
vivenciada; porém, diferentemente de Kant, adotamos uma abordagem naturalista destas
condições).
É nesta perspectiva que – contrariando um uso indiscriminado da “navalha de
Ockham” – são postulados três aspectos fundamentais da realidade. O que se está
sustentando é que sem um destes três aspectos a nossa existência não seria possível do
modo como ela acontece. Feita esta afirmação, cabe provar, ou argumentar de modo
convincente, em prol da necessidade destes aspectos, na composição da realidade
vivenciada.
O raciocínio que desenvolvemos em seguida se baseia no que podemos chamar
de método filosófico-interdisciplinar. Não se trata de uma abordagem metafísica, em
!
12!
busca de princípios explanatórios absolutos (isto é, independentes da experiência), mas
de uma abordagem pragmática na linha de Browning (1990), que distingue três
acepções da Teoria do Ser:
a) A metafísica convencional, que busca por princípios não-físicos da realidade,
ou seja, por fundamentos absolutos (independentes de toda a experiência
humana) capazes de justificar a razão de ser da realidade;
b) A “ciência universal” dos positivistas, e
c) Uma ontologia de orientação pragmática.
Na elaboração do conceito de realidade em uma ontologia pragmática, além de
se usar - com bom senso - o senso comum, julgamos ser necessário levar em conta os
resultados de testes empíricos e demonstrações teóricas considerados adequados pela
comunidade científica, assim como as terminologias científicas especializadas, os
conceitos a ela subjacentes e as tecnologias que nos possibilitam investigar e
transformar a realidade estudada. Neste tipo de projeto, pode-se restringir a investigação
aos fundamentos conceituais das ciências (como no título de Ehrenfest and Ehrenfest,
1912), deixando de lado a busca por fundamentos absolutos situados em um plano
supernatural ou a assunção de fundamentos absolutos cuja natureza não é
suficientemente explicitada (como o sujeito transcendental kantiano, que não é
transcendente nem natural). Nesta perspectiva, os argumentos filosóficos sobre a
realidade devem estar aterrados em modelos científicos e devem ser compatíveis com as
proezas da tecnologia. Não devemos elaborar hipóteses sobre a realidade apenas por
meio de princípios ‘a priori’ – nem mesmo sobre nossas próprias capacidades
cognitivas: a Teoria do Conhecimento filosófica deveria, nesta abordagem, estabelecer
diálogo com as ciências da cognição.
Se os filósofos dependem das atividades dos cientistas e tecnólogos para
investigar os princípios fundamentais da realidade, os cientistas também dependem dos
filósofos para discutir os conceitos utilizados. Todas as teorias científicas contêm
conceitos básicos, cujo significado é passível de discussão filosófica. Os cientistas não
têm a formação para tal discussão filosófica, por exemplo, de conceitos como
consciência, mente, entropia, forma, tempo, espaço, complexidade, etc. Sabemos que
!
13!
uma elucidação de tais conceitos não se faz pela pesquisa empírica; a mera adição de
novos resultados empíricos não clarifica conceitos teórico-filosóficos.
Devemos ainda atentar para uma diferença importante entre os métodos
filosóficos e científicos. Hipóteses filosóficas não podem ser diretamente testadas por
meio de métodos científicos. As teorias filosóficas e os conceitos filosóficos utilizados
pelos cientistas são necessários para o planejamento das pesquisas empíricas, para
interpretar os resultados das observações e experimentos científicos, e para a geração de
novas tecnologias a partir dos resultados científicos. Deste modo, é possível avaliar
indiretamente a relevância de uma teoria filosófica e/ou de conceitos filosóficos
utilizados nas ciências de acordo com o sucesso pragmático dos programas de pesquisa
básica e aplicada que os utilizam.
Este tipo de argumento (conhecido como “argumento do sucesso”) não tem o
poder de provar uma realidade independente da mente (vide a crítica anti-realista de van
Fraassen, 1980), mas pode carrear fidedignidade para conceitos teóricos usados nas
teorias e produtos decorrentes de sua aplicação tecnológica; por exemplo, a transmissão
de imagens e sons por meio de ondas eletromagnéticas, fenômeno natural utilizado pela
engenharia humana em seus artefatos tecnológicos, aumenta nossa confiança nas teorias
que postulam a existência de uma estrutura destas ondas e de sua capacidade de
transmitir informação. O realismo referencial de Hacking (1983) é suportado pelo
"argumento do sucesso", embora este argumento não seja suficiente para suportar um
realismo metafísico. Como não estamos interessados em defender o realismo
metafísico, nos contentamos com o realismo referencial, uma variedade de realismo
crítico que suporta a ontologia pragmática que aqui desenvolvemos.
Ao elaborar as teorias científicas, os pesquisadores utilizam pressupostos
conceituais que guiam os cientistas no planejamento dos experimentos. Mesmo que os
resultados experimentais não tenham uma relação direta com os pressupostos adotados,
é preciso concordar que tal adoção aumenta a chance de se conseguir tais resultados, em
comparação com uma investigação feita aleatoriamente. Como Hempel (1965) apontou,
a conexão entre a teoria e os dados é indutiva, mesmo que não tenhamos um método
preciso de mensurar as probabilidades envolvidas. O falsificacionismo de Popper
(1993), que se baseia exclusivamente em procedimentos dedutivos, é incompleto,
porque lhe falta um método também dedutivo para avaliar o grau de corroboração das
!
14!
consequências lógicas da hipótese pelos dados obtidos nas observações e experimentos
científicos. Entretanto, se o cientista recusar quaisquer pressupostos teóricos de natureza
filosófica, e também procedimentos dedutivos que tomam tais pressupostos como
premissas, pode passar toda sua carreira sem alcançar resultados de interesse; exceto se
um acidente de sorte acontecer, como na descoberta da vacina por Louis Pasteur.
Na abordagem pragmática, que extrapola os limites do empirismo lógico, as
realizações práticas propiciadas pela atividade científica e tecnológica são utilizadas
como indicadores da relevância dos pressupostos filosóficos assumidos pelos
pesquisadores. Quando uma série de experimentos (um "programa de pesquisa" no
sentido de Lakatos, 1980) for bem sucedida, pode-se argumentar que a suposição
conceitual que orientou o programa seria pragmaticamente confirmada. Embora o
termo "confirmação" tenha sido introduzido por Carl Hempel para designar uma
inferência lógica de natureza indutiva, podemos estender seu significado para abranger
julgamentos que não podem ser quantificados em termos de cálculo de probabilidades,
porque há muitos fatores envolvidos - não apenas nos experimentos, mas também nas
relações sócio-culturais que determinam o sucesso dos empreendimentos científicos e
tecnológicos.
O casamento de filosofia e pesquisa empírica, ensejando o método filosófico-
interdisciplinar, seria, portanto, desejável para se investigar os aspectos constituintes da
realidade, tendo como critério de relevância as realizações práticas que a consideração
de tais aspectos tornou possível (Hacking, 1983); deste modo, estes aspectos seriam as
“condições de possibilidade naturais” da experiência humana, tal como ela se desenrola
na atualidade, isto é, pragmaticamente.
Dentre as ferramentas interdisciplinares atualmente utilizadas, são relevantes
para nossa abordagem a Teoria dos Sistemas, proposta pelo biólogo Bertalanffy (1973)
e utilizada por Debrun (1996a) em sua abordagem do fenômeno da Auto- Organização,
como também a Teoria dos Modelos, na versão epistemológica de Bunge (1974), mas
sem aprofundamento na vertente semântico-formal de Tarski (1944). Utilizamos em
particular o modelo de Espaço de Estados, oriundo da física – em parte, do esforço de
Paul e Tatiana Ehrenfest (Ehrenfest and Ehrenfest, 1912) para entender as bases
conceituais da mecânica estatística de Boltzmann. Ambas as teorias são aqui utilizadas
para a construção de diagramas ilustrativos da complexidade dos fenômenos estudados.
!
15!
Na abordagem sistêmica, o modelo da “autopoiese” (Maturana e Varela, 1980) e
o modelo da Auto-Organização (Atlan, 1981; Pereira Jr., 1986; Bak et al., 1987;
Debrun, 1996a,b) apresentam semelhanças e diferenças. Uma das mais importantes
diferenças é que a autopoiese enfoca as operações pelas quais um sistema vivo produz
seus próprios componentes e mantém sua identidade ao longo do tempo, enquanto a
auto-organização enfoca processos interativos internos ao sistema e trocas com o
ambiente (Debrun, 1996b) pelos quais emerge uma nova forma de organização, e com
esta uma nova funcionalidade do sistema (Bresciani Filho e D’Ottaviano, 2000).
Central para nossa abordagem naturalista não-reducionista é a ideia de que, em
sistemas abertos, as estruturas ensejam funções que vem a modificar estas mesmas
estruturas. Colocada em termos da teoria de sistemas dinâmicos, pode-se dizer que a
interação entre sub-sistemas estatisticamente independentes entre si (ou seja, com graus
de liberdade) amplia o espaço de estados do universo de estudo, uma vez que o
resultante não é a soma, mas o produto dos estados possíveis dos subsistemas. Deste
modo, da interação entre sistemas físicos emerge o fenômeno informacional, e da
interação entre sistemas físico-informacionais emerge o fenômeno da consciência. Esta
ideia é básica para se conceber o processo de desdobramento de possibilidades naturais
que constitui o vir-a-ser da realidade, segundo o MTA.
Em tal concepção, o conceito de emergência utilizado significa a atualização de
possibilidades previamente estabelecidas; porém, não se trata de um modelo
determinista de tipo laplaciano, pois a atualização destas possibilidades não é assumida
como sendo necessária, mas contingente no sentido de Cournot (vide Lungarzo e
Pereira Jr., 2009). Tal conceito de emergência é “forte”, estrutural e diacrônica no
sentido de Stephan (1999), embora não se adote todos os pressupostos filosóficos
utilizados na abordagem deste autor. Considerando as dificuldades intrínsecas aos
processos combinatoriais em sistemas com muitos graus de liberdade, para efeitos
práticos as propriedades de tais fenômenos emergentes seriam de fato imprevisíveis, e
mesmo irredutíveis ‘a posteriori’ às propriedades das partes interagentes, uma vez que a
conexão dedutiva não é propriamente estabelecida. Deste modo, justifica-se a
classificação dos processos informacionais e conscientes como sendo emergentes no
sentido forte.
!
16!
A complexidade do real se articula em diversas escalas espaciais e temporais.
Tomando-se os conceitos clássicos de espaço e tempo como entidades independentes da
mente (o que não exclui a existência de formas mentais do espaço e do tempo, como
discutido em Pereira Jr., 1997), notamos que sistemas complexos têm dinâmicas
específicas nas diferentes escalas (como discutido, para o cérebro, em Pereira Jr, 2001).
Para o estudo da mente e da consciência, são de especial interesse as relações entre
fenômenos nas escalas espaciais micro e macroscópicas, e escalas temporais de
millisegundos e segundos (Pereira Jr, 2012). Esta dinâmica auto-organizada, complexa e
em múltipla escalas pode ser esquematizada a partir de conceitos científicos relevantes,
que abordamos no capítulo seguinte. O conceito de emergência, que é central para se
conceber ao mesmo tempo a unidade e diversidade dos aspectos da realidade, é
novamente abordado no capítulo 7.
Cap. 2 - Conceitos Científicos Relevantes
Uma proposta de ontologia interdisciplinar deve levar em consideração teorias
abrangentes sobre a realidade, como a física quântica, teoria da relatividade,
termodinâmica, teoria da evolução e biologia molecular. Neste capítulo, fazemos um
recorte de conceitos destas áreas científicas que contribuem para a construção do
modelo ontológico proposto, e no capítulo seguinte apresentamos um esboço de sua
estrutura topológica.
Para integrar diversas modalidades de conhecimento relevantes para uma
filosofia interdisciplinar que dê suporte a uma ciência da consciência, propomos uma
síntese teórica, o MTA, que contempla os três aspectos considerados fundamentais e
irredutíveis da realidade, a saber: a) o aspecto material/energético, abordado pelas
ciências físicas, químicas e biológicas, assim como no estudo das formas de
organização social e produtos culturais e tecnológicos; b) o aspecto informacional,
abordado pelas ciências da informação, lingüística, computação e matemática; e c) o
aspecto mental consciente, que é relatado na fenomenologia, lógica, ética e estética
filosóficas; em estudos qualitativos nas ciências humanas; em obras de arte e
experiências místicas e religiosas, e atividades humanas quotidianas.
!
17!
Como se pode notar nas categorias acima, o aspecto formal da realidade pode se
caracterizar e/ou ser tratado tanto como processo não consciente quanto como processo
consciente. No último caso se incluiria a lógica filosófica, entendida como estudo das
operações formais da mente consciente, se distinguindo da lógica computacional, que
caracterizaria o funcionamento de máquinas não conscientes. Esta distinção não se
pretende absoluta, uma vez que há a possibilidade – ainda não realizada – de máquinas
conscientes; neste caso, a lógica computacional se tornaria uma lógica de simbolismos
conscientes.
A proposta do MTA é comparável à teoria dos “três mundos” de Karl Popper, a
saber, Mundo 1: objetos e eventos físicos, incluindo sistemas vivos; Mundo 2: entidades
mentais e Mundo 3: conhecimento. Os três mundos de Popper corresponderiam, em
termos gerais, aos três aspectos do MTA. A principal diferença com relação a este autor
(Pereira Jr., 2013) reside na suposta separação existente entre os “mundos”, que não se
aplica ao MTA; neste, os três aspectos se referem à estrutura e atividade de um mesmo
sistema. O MTA se baseia na idéia de que todas as possibilidades evolutivas do
universo estão contidas na Natureza, porém nem todas as possibilidades são
necessariamente atualizadas. O processo de atualização é progressivo, sendo que cada
etapa tem um custo para ser atingida. Uma segunda diferença consiste no estatuto do
terceiro mundo de Popper, em compração com nosso terceiro aspecto. Como
argumentamos no capítulo 6, a característica distintiva do terceiro aspecto seria o
sentimento, e não o conhecimento.
Conforme a Primeira Lei da Termodinâmica (Lei de Conservação da Energia),
em transformações que ocorrem na Natureza não há um ganho ou perda de energia
absolutos, porém isto não implica que as trajetórias possíveis sejam equiprováveis.
Conforme a Segunda Lei da Termodinâmica (a respeito da tendência de aumento
espontâneo da entropia em sistemas quase-isolados) há determinadas condições a serem
satisfeitas para a atualização de cada possibilidade, ou seja, podemos considerar a
produção espontânea de entropia como indicando restrições à realização de
determinadas possibilidades.
A Teoria Quântica nos permite entender as possibilidades da natureza como
estados superpostos co-existentes, dos quais - a cada momento de observação - apenas
um se atualiza macroscopicamente. Podemos relacionar tal processo de atualização com
!
18!
a vigência da Segunda Lei em sistemas abertos, distantes do equilíbrio termodinâmico
(como discutido em Pereira Jr. e Rocha, 2000, e mais adiante neste livro). Em sistemas
distantes do equilíbrio termodinâmico, em regimes instáveis, haveria uma “flutuação”
de estados possíveis (Nicolis e Prigogine, 1989), dos quais pode emergir um padrão
organizativo resultante tanto da tendência espontânea de aumento da entropia, quanto
dos fluxos de energia útil entre os sistemas - que contrabalançam aquela tendência.
Como o aspecto físico-químico é o primeiro a ser atualizado, a ocorrência das
demais potencialidades depende da operação de mecanismos físico-químicos,
começando no domínio biológico. Tanto o segundo quanto o terceiro aspectos da
realidade são dependentes de mecanismos físico-químicos, e o mesmo se aplica aos
aspectos mentais conscientes, que são dependentes de mecanismos informacionais
inconscientes. Como resultado, para todo estado mental consciente atualizado há a
necessidade de concomitante realização de determinados estados físicos e
informacionais inconscientes.
A física quântica tem grande poder explicativo, o que se verifica na sua
capacidade de explicar as propriedades químicas, como a constituição dos átomos e sua
diferenciação, que resulta na tabela periódica dos elementos e nas propriedades reativas
destes elementos, que por sua vez são essenciais para a bioquímica. Os fenômenos
biológicos derivam em grande parte da combinação dos compostos químicos, formando
macromoléculas que se organizam em células, tecidos, organismos e ecossistemas. Ao
lado dos processos bioquímicos, encontramos nos sistemas vivos também processos
bioelétricos, envolvendo íons, água polarizada (sobre este conceito, vide Ovchinnikova
and Pollack, 2009) e sítios de proteínas que interagem com os primeiros por meio de
campos eletrostáticos (vide Mentrè, 2012).
Em uma abordagem ontologicamente monista da realidade biológica, a
capacidade dos sistemas vivos de desenvolver uma riqueza morfológica, fisiológica,
comportamental e sentiente necessariamente deriva, por meio de um processo dinâmico,
complexo e auto-organizado, de propriedades qualitativas que se encontram em estado
potencial na Natureza, em particular no domínio quântico. Entretanto, a identificação
destas potencialidades qualitativas constitui um problema difícil (possivelmente um dos
componentes essenciais do "Problema Difícil" apontado por Chalmers, 1995, 1996),
tendo em vista a diversidade de interpretações filosóficas da teoria quântica.
!
19!
Para se abordar a emergência da complexidade físico-química-biológica a partir
da realidade fundamental quântica, é preciso fazer a distinção entre estados quânticos e
"clássicos". A distinção não se reduz a uma questão de escala espacial, pois sistemas
macroscópicos podem ter características quânticas ou assemelhadas ao quântico.
Basicamente, podemos dizer que os estados quânticos são caracterizados pelas
características de superposição e emaranhamento, o que não se aplicaria aos estados
clássicos. Em uma brevíssima exposição, o conceito de superposição se refere à
ocorrência simultânea de várias possibilidades em um mesmo estado, o que é
epistemologicamente interpretado como uma impossibilidade de se definir com precisão
seus valores físicos (posição, momento). O conceito de emaranhado se refere a uma
correlação entre tais possibilidades, de tal modo que se dois sistemas quânticos
interagirem entre si e um deles assumir um determinado estado definido, o outro
automaticamente assumirá um estado correspondente, mesmo que estes dois sistemas
estejam espacialmente distantes. Para se entender o que é o emaranhado quântico, além
de se elucidar a natureza de tal correlação, que aparentemente não se enquadra nos
conceitos clássicos de probabilidade e causalidade, há ainda o problema de se entender
como tal automatismo se exerce de modo não-instantâneo, ou seja, sem violar o
Princípio da Luz (que afirma a impossibilidade de movimento físico em velocidade
maior que a da luz), que é parte central da Teoria da Relatividade. Tais conceitos
também reaparecem em modelos de computação quântica (como o de armadilha de
íons, discutido em seus aspectos lógicos por Pereira Jr e Polli, 2006).
Na classificação das interpretações da física quântica (como na Wikipedia:
https://en.wikipedia.org/wiki/Interpretations_of_quantum_mechanics#Tabular_compari
son) pode-se usar diversos critérios, inclusive - o que nos interessa no momento - a
respeito do marco de separação entre o domínio quântico e o domínio clássico. Há dois
tipos de interpretação:
a) Aquelas que situam o marco de separação no próprio mundo físico, sendo
independente de qualquer observação por um sistema consciente. Nestas interpretações,
a perda de superposição e emaranhamento e a redução da função de onda a uma única
possibilidade ocorreria de modo independente de quaisquer mentes, conscientes ou não;
b) Aquelas que situam o marco no observador, ou seja, internamente à mente
consciente, ou na interação do sistema físico com um observador consciente. Neste
!
20!
caso, a transição do quântico para o clássico seria dependente da mente, ou seja, não se
poderia falar em tal transição em um mundo puramente físico.
Não vamos aqui discutir o tipo “b”, pois o intuito do projeto do MTA é entender
a consciência a partir de um processo evolutivo da realidade, enquanto a proposta dos
adeptos daquele tipo de explicação é de inspiração idealista, ou seja, de explicar o
mundo material a partir de uma atuação da consciência (seja uma consciência primitiva,
de conotação teológica, seja a consciência do observador científico).
O tipo “a” inclui, dentre outras possibilidades, três abordagens que têm obtido
relativo sucesso nas pesquisas contemporâneas em cosmologia, computação quântica e
biologia quântica. São elas:
a.1) A teoria originalmente formulada por Bohm (vide Bohn and Hiley, 1993), que situa
a transição do domínio quântico para o clássico no próprio sistema, por meio de uma
"onda piloto" que determina um estado único a partir das possibilidades superpostas,
sendo que as possibilidades não atualizadas permanecem como realidades possíveis (as
"variáveis ocultas"). Trata-se de uma teoria realista a respeito dos componentes da
função de onda quântica, que foi frequentemente associada à tentativa - inspirada por
Einstein - de se reestabelecer o determinismo físico, por meio de fatores que não se
expressam nos fenômenos observáveis. Também nas interpretações do tipo "muitos
mundos" (iniciadas por Everett, 1957; discutidas em Seligman, DeWitt and Graham,
1973), se assume que as possibilidades que não se realizam (e que portanto não são
observadas) deterministicamente se atualizariam em outras regiões do universo, sejam
elas regiões espaciais e/ou temporais;
a.2) O realismo a respeito dos componentes da função de onda encontra apoio na
Teorias de Cordas (Greene, 2001), segundo a qual estes componentes seriam, em última
instância, minúsculas cordas de energia vibrantes, cuja evolução cósmica daria origem
às partículas detectadas experimentalmente, obedecendo-se a critérios de super-simetria
(de modo que para cada tipo de partícula com uma determinada qualidade, haveria outro
tipo de partícula com uma qualidade oposta/complementar, correspondendo a um
desdobramento dos padrões vibracionais das cordas fundamentais);
a.3) A transição de estados quânticos para estados clássicos tem sido abordada pela
Teoria da Decoerência (Zurek, 1991), utilizando a formulação matricial de Heisenberg
!
21!
para descrever e distinguir o feixe que é atualizado (diagonal da matriz) das
possibilidades que permanecem recessivas. Nesta abordagem a redução de atualizações
(que ocorre na transição do quântico para o clássico) é atribuída a um efeito do
ambiente, sem a necessidade de um observador consciente. Uma objeção comum a esta
proposta seria a de que também o ambiente é descrito por uma função de onda, e,
portanto, também estaria em superposição e emaranhamento, não podendo então reduzir
a primeira função de onda. Esta objeção poderia ser respondida pela introdução de novo
fator explicativo, a saber, a entropia do sistema maior formado pelo sistema em estado
quântico e seu ambiente imediato, como discutiremos em seguida.
Enquanto a abordagem de Bohm tem valor histórico, apontando para uma
ontologia monista de duplo aspecto (Atmaspacher, 2014), e a abordagem de Greene
oferece um conceito aplicável aos componentes da função de onda, a abordagem de
Zurek contribui para o modelo de evolução da realidade implicado pelo MTA, a partir
da interface - pouco explorada na filosofia da física - entre a Teoria da Decoerência e a
Termodinâmica dos Processos Irreversíveis. Esse possível diálogo já começara,
implicitamente, antes da Teoria Quântica, no trabalho de Boltzmann, ao se tentar
explicar a irreversibilidade física no contexto da Teoria Cinética dos Gases do Séc.
XIX, quando se adotava um modelo composto por um gás perfeito fechado em um
recipiente, procurando-se explicar sua evolução irreversível - aumento espontâneo de
entropia - pela dinâmica das colisões entre as moléculas do gás (vide Pereira Jr., 1997).
Uma questão central para o entendimento da dinâmica da Natureza seria a
respeito da conexão entre o processo de decoerência (perda de correlações quânticas) e
a Segunda Lei. A decoerência causa o aumento de entropia, ou vice-versa? Ou será que
têm uma causa comum? O objetivo de Boltzmann era provar a existência de
irreversibilidade no contexto da mecânica estatística clássica, para sistemas mecânicos,
determinísticos e quase-isolados. Esta tarefa parece ser impossível, mas ele se esforçou
e conseguiu o resultado desejado por meio de um truque - o "Stosszalansatz", ou
princípio sobre o número de colisões entre moléculas que ocorrem em uma unidade de
volume de um sistema composto por um gás perfeito em um recipiente fechado. Mais
tarde, ele o redefiniu como "Princípio de Desordem Molecular" (Boltzmann, 1896),
concebido como uma perda de correlações entre partículas que colidiram entre si. Este
princípio é semelhante ao princípio da decoerência, na interpretação da teoria quântica.
!
22!
No MTA, a reversão da decoerência teria um papel central no desdobramento do
aspecto físico, fazendo emergir os aspectos informacional e consciente. Uma “Biofísica
Qualitativa”, na qual as potencialidades qualitativas da natureza se manifestam no plano
macroscópico como forma/informação e sentimento/consciência, é necessária para se
estabelecer a continuidade entre o aspecto físico e os seguintes. Esta tarefa é
praticamente impossível de ser realizada no contexto da Física Moderna, uma vez que
cientistas e filósofos influentes conceberam tais qualidades (chamadas de
“secundárias”) como sendo fenômenos mentais sem uma contrapartida física (Galileu
seria uma exceção; pesquisa recente corrigindo erros de tradução indica que ele
considerava as “qualidades secundárias” – os ‘qualia’ - como instanciadas no “corpo
sensível” dos observadores (Buyse, 2013).
A Teoria Quântica nos possibilita entender as possibilidades da natureza como
estados superpostos co-existentes, dos quais - a cada momento - apenas um se atualiza
macroscopicamente. Podemos relacionar tal processo de atualização com a vigência da
Segunda Lei em sistemas abertos, distantes do equilíbrio termodinâmico. Em sistemas
distantes do equilíbrio termodinâmico, em regimes instáveis, haveria uma “flutuação”
de estados possíveis, dos quais pode emergir um padrão organizativo resultante tanto da
tendência espontânea de aumento da entropia, quanto dos fluxos de energia útil entre os
sistemas - que contrabalançam aquela tendência. Em sistemas vivos, há um fluxo de
energia útil de origem externa e processos químicos pelos quais esta energia possibilita
processos metabólicos, mantendo o sistema em estados de baixa entropia e abrindo
espaço para o surgimento de novas estruturas e funções por meio do mecanismo de
“ordem por flutuações” (Nicolis e Prigogine, 1989).
Como o aspecto físico-químico é o primeiro a ser atualizado, a ocorrência dos
demais depende da operação de mecanismos físico-químicos, começando no domínio
biológico. Tanto o segundo quanto o terceiro aspectos da realidade são dependentes de
mecanismos físico-químicos, e o mesmo se aplica aos aspectos mentais conscientes, que
são dependentes de mecanismos informacionais inconscientes. Como resultado, para
todo estado mental consciente atualizado há a necessidade de concomitante realização
de determinados estados físicos e informacionais inconscientes.
Embora não houvesse, no âmbito do primeiro aspecto, um controle de tipo
cibernético sobre os processos constituintes da célula, o processo evolutivo posterior já
!
23!
incorpora tal tipo de controle, exercido da informação nuclear para as proteínas, e destas
para os processos metabólicos. Isso significa que juntamente com o processo de
evolução biológica emerge o segundo aspecto da realidade, o aspecto informacional,
incorporado nos processos energético-organizacionais do sistema vivo - mas não,
necessariamente, o terceiro aspecto, a consciência, pois este requer a ação de um novo
mecanismo, para venha a ocorrer.
Pereira Jr et al. (2004) propuseram uma expansão da proposta de Kauffman
(1993), na qual se considera que a teoria evolucionista darwiniana seria uma explicação
válida, porém incompleta, do processo de evolução biológica, devendo ser
complementada por algum mecanismo que explicasse a “origem da ordem”. Este
mecanismo poderia ser o proposto pelo próprio Kauffman (1993; a saber, um reticulado
de interações genômicas, maximizando as funções adaptativas por meio do controle do
repertório de proteínas assim produzido), ou pela teoria da auto-organização, que levaria
em consideração o “Efeito Baldwiniano” pelo qual as ações dos sistemas vivos,
definindo os rumos de suas respectivas ontogenias (atualmente referidas como
processos epigenéticos), viriam a influenciar a distribuição de frequência dos genes na
população.
A exposição deste efeito pelo próprio James Mark Baldwin foi centrada em seus
estudos sobre aprendizagem de crianças e biologia evolutiva, em particular no trabalho
de Charles Darwin sobre a seleção sexual (vide Baldwin, 1896). Em seguida, o conceito
foi estendido para a genética populacional e, mais recentemente, para discussões
filosóficas a respeito da origem da mente (por Dennett, 2003) e da origem da linguagem
(por Deacon, 1997). Como é possível que o processo evolutivo decorra da
recombinação um número finito de unidades de informação, e ao mesmo tempo seja
suscetível de inovações (ou seja, haveria uma emergência de novas formas estruturais e
dinâmicas). Uma hipótese que pode ser utilizada para um melhor entendimento desta
problemática é a “evolução combinatorial”, pela qual se demonstra que – assim como na
linguagem humana – o número de combinações possíveis é tão grande que, para
propósitos práticos, a possibilidade de atualização de configurações inéditas não é
desprezível. Desta ponderação resulta que todas as invenções humanas, incluindo os
produtos tecnológicos, são atualizações de potencialidades da natureza.
!
24!
Cap. 3 - Modelando a Realidade
Um conceito de “realidade” deve incluir tanto a natureza quanto a mente
humana e seus produtos. Na tradição filosófica, a dificuldade em se compatibilizar as
propriedades da natureza e da mente levou muitas vezes à clássica dicotomia entre a
corrente idealista, entendendo que toda a realidade está contida na mente cognoscente, e
a corrente materialista evolucionista, por sua vez entendendo que a mente seria um
produto da natureza material.
De fato há um aparente paradoxo, ao se adotar ambas as concepções
simultaneamente, ou seja, ao se assumir que:
a) Os referentes dos termos “natureza” e “mente” não são idênticos;
b) Em certo sentido, ressaltado pelas filosofias materialistas, a mente está
contida na natureza, e
c) Em um outro sentido, ressaltado pelas filosofias idealistas, a natureza está
contida na mente.
Pode-se solucionar este paradoxo por meio do conceito de natureza adotado.
Esta vem a ser concebida não como um estado de coisas definitivamente dado, mas
como um conjunto de possibilidades. Como conseqüência da adoção deste conceito,
pode-se entender que a mente está contida na natureza enquanto possibilidade, e que o
conceito de natureza e de coisas/processos naturais estão contidos na mente como
atualidades, ou seja, têm uma existência dependente da mente, como qualquer outro
conceito – em uma perspectiva não platônica.
As filosofias do vir-a-ser, iniciadas com Aristóteles (vide Bodnar, 2012) e
representadas na contemporaneidade pela obra de Whitehead (1929), concebem a
realidade como um conjunto de potencialidades que se combinam em atualizações
temporárias, gerando os fenômenos por nós vivenciados e estudados cientificamente. A
natureza empírica, objeto de observação e experimentação, seria constituída por
atualizações daquelas potencialidades, compondo os estados dos sistemas, e suas
alterações dinâmicas, os processos.
Na elaboração de uma ontologia, podemos usar recursos conceituais clássicos,
como a Teoria de Categorias (Aristóteles, 1963; Husserl, 1913a,b; Hartmann ‘apud’
!
25!
Petersen, 2012 e Poli, 2014; Smith, 2003) e seus desdobramentos lógicos (vide Simons,
2015). Entretanto, a Teoria de Conjuntos clássica, cuja semântica de primeira ordem é
representável em diagramas bidimensionais, não seria adequada para representar a
complexidade da relação entre as categorias ontológicas do Monismo de Triplo Aspecto
(MTA; Pereira Jr., 2013), como discutido adiante.
O MTA é uma teoria ontológica que entende a realidade como exaustivamente
descritível em três aspectos superpostos: 1) Matéria/Energia, 2) Forma/Informação e 3)
Sentimento/Consciência. Tal realidade não está pronta e acabada, mas em movimento e
transformação; sua manifestação imediata se faz no aspecto físico da realidade, que é
aquele estudado pelas ciências físicas e químicas. Entretanto, a realidade não se reduz
ao aspecto físico, mas se desdobra progressivamente no tempo, podendo – ou não – se
atualizar nos demais aspectos.
Representamos a totalidade dos estados possíveis da Natureza (entendida como
a totalidade da realidade) por meio de um espaço de estados. Seguindo a sugestão de
Brenner (2013), consideramos que os componentes elementares deste macrossistema
são as Formas de Energia (FE), que se combinam para gerar os estados atualizados
emergentes, com os quais podemos interagir empiricamente (vide também Pereira,
Vimal e Pregnolato, 2016). As FE seriam semelhantes às minúsculas cordas da teoria
M-String (Greene, 1999). Não podemos observá-las diretamente; percebemos apenas
suas combinações, as quais constituem a realidade fenomênica.
Como não assumimos a concepção kantiana, que assume uma distinção absoluta
entre as formas apriori constituintes do sujeito cognitivo e a “matéria empírica” que
preenche tal forma, entendemos que. Em última análise, as FE constituem tanto os
conteúdos empíricos (nossas percepções das formas dos objetos e da matéria de que são
feitos) quanto as formas cognitivas (atualizadas em nosso sistema nervoso) que
utilizamos para representá-los, nos âmbitos da filosofia e na ciência.
Inicialmente descrevemos como seria um espaço de estados N-dimensional que
contivesse todas as propriedades dos três aspectos da realidade. Nesta abordagem, N
seria um número na casa de dezenas ou centenas. Para evitar tal “explosão
dimensional”, propomos compactar o espaço N-dimensional utilizando o modelo de
dimensões fracionárias aninhadas, recentemente desenvolvido como meio de
compressão de informação em contextos pragmáticos (Traina Jr. et al., 2010; Xu et al.,
2015) e como ferramenta de modelagem dos aspectos superpostos da realidade (vide Ho
et al., 2015). Com este recurso, podemos representar as dimensões qualitativas dos
!
26!
processos informacionais e das vivências humanas enquanto aninhadas (‘nested’) no
espaço-tempo da física, ou seja, representamos as dimensões qualitativas como
dimensões fracionárias de um espaço de estados quadridimensional.
A notação que introduzimos para definir tais dimensões consiste em números
duplamente fracionários do tipo “X, YY, ZZZ”, onde X = 4 (espaço-tempo físico;
primeiro aspecto do MTA), YY = dimensões qualitativas informacionais (segundo
aspecto do MTA) e ZZZ = dimensões qualitativas conscientes (terceiro aspecto do
MTA). Esperamos que esta inovação notacional seja útil para que se possa superar tanto
as abordagens reducionistas (nas quais se reduz os aspectos informacional e consciente
ao físico) quanto as dualistas ou trialistas (nas quais os aspectos da realidade são
concebidos como totalmente disjuntos uns dos outros).
As formas elementares de energia (FE), que constituem o espaço de estados da
realidade, são concebidas como eternas, permanecendo subjacentes a todas as
atualizações que ocorrem ao longo do tempo. As atualizações, que correspondem a
combinações dinâmicas das FE, estão localizadas no espaço-tempo físico, mas contém
propriedades que não se reduzem às propriedades físicas. As combinações ocorrem em
três fases, aqui chamado de aspectos (vide Pereira Jr., 2013; 2014; 2015a).
Há uma ordem das atualizações: o segundo e terceiro aspectos dependem de
condições adequadas (ou seja, de pré-requisitos) para serem realizados. O primeiro
aspecto é uma atualização imediata das potencialidades da Natureza; é necessário como
passo inicial do processo de vir-a-ser da realidade, mas este devir não se reduz ao
aspecto físico. O segundo aspecto depende da prévia atualização do primeiro. O terceiro
aspecto depende de uma atualização prévia do segundo.
Concebemos o processo de atualização como sendo fortemente emergente,
incluindo um componente de “acaso” no sentido de Cournot (Lungarzo e Pereira Jr,
2009) e Debrun (vide Debrun, 1996; Batista et al., 2014). Os processos cournotianos
são semi-determinísticos, ou seja, aqueles nos quais linhas causais independentes
interagem, fazendo emergir uma combinação inédita das FE, o que corresponde a um
processo de emergência forte, no sentido de um padrão de organização que não poderia
ser previsto do estado temporal anterior da totalidade da realidade, e que traz consigo
uma realidade fenomênica irredutível.
Uma analogia útil para este conceito de emergência forte se encontra na
linguística generativa. Podemos gerar um número potencialmente infinito de palavras e
sentenças novas a partir de um alfabeto finito, usando um número finito de regras. Do
!
27!
mesmo modo, propomos que o vir-a-ser da realidade engendra um número
potencialmente infinito de combinações das FE elementares, que definem tanto a
estrutura/funcionamento de nosso sistema nervoso quanto os conteúdos de nossas
experiências fenomênicas.
As FE permanecem subjacentes a suas atualizações, como um substrato que
possibilita a emergência forte de novas combinações, a partir do processo evolutivo já
decorrido. Novamente a comparação com a linguagem humana faz sentido: aquilo que
dizemos decorre tanto do alfabeto e regras utilizadas quanto das palavras e sentenças
anteriormente proferidas. Podemos formalizar este tipo de processo como sendo de tipo
markoviano com memória, gerando o que chamamos de padrões coletivos relacionais
(Lungarzo e Pereira Jr., 2009).
A atualização material da energia engloba todos os processos que ocorrem no
espaço/tempo de quatro dimensões. Segundo o modelo padrão da física, esta atualização
requer um determinado tipo de interação entre as FE. Tais interações são descritas como
ocorrendo entre partículas fundamentais, férmions e bósons.
A atualização imediata das potencialidades da natureza ocorre no mundo físico.
A auto-organização do macrossistema de FE faz emergir as quatro forças físicas
fundamentais (gravitacional, nuclear forte, nuclear fraca e eletromagnética). Os
processos físicos, regidos por estas forças, levam à formação dos elementos químicos,
representado na tabela periódica. Os elementos químicos se combinam para formar
moléculas e substâncias, como estudado pelas ciências químicas. Um arranjo recorrente
de macromoléculas enseja o surgimento dos primeiros sistemas vivos unicelulares, ou
seja, aqueles que apresentam a atividade metabólica estudada pela citologia vegetal e
animal.
O segundo aspecto inclui tanto a forma intrínseca aos sistemas (a forma no
sentido aristotélico) quanto a forma que se transmite entre sistemas físicos (ou seja, a
informação – em seus aspectos sintáticos e semânticos). As qualidades das formas e da
informação são representadas em dimensões do espaço de estados adicionais às quatro
dimensões físicas.
O aspecto Forma/Informação emerge a partir do primeiro aspecto,
concomitantemente ao processo evolutivo biológico. Todas as partículas físicas e
compostos físico-químicos têm formas (configurações atômicas) e apresentam
regularidades dinâmicas, mas a transmissão de formas entre dois ou mais sistemas
macroscópicos, por meio de sistemas de sinais (formando linguagens, inicialmente na
!
28!
escala molecular) ocorre no domínio da comunicação entre células vivas.
No processo evolutivo, os componentes da Teoria da Informação (a fonte, o
receptor e a codificação de mensagens) são originalmente recortados no contexto da
atividade dos sistemas vivos; só mais tarde, no contexto da evolução humana, são
instanciado em artefatos. Portanto, consideramos que os processos informacionais
seriam contemporâneos aos processos biológicos em sistemas multicelulares.
A realização de processos informacionais permite a constituição de sistemas
cognitivos com especializações, tanto nos domínios biológicos quanto artificiais; porém,
tais sistemas não são necessariamente conscientes; para tornarem-se conscientes, é
necessário que aconteça a atualização de outro aspecto da realidade, aqui identificado
como o sentir. Um sistema consciente é basicamente um sistema capaz de sentir a
mensagem carregada nos processos informacionais.
O Sentimento/Consciência, como potencialidade, seria um aspecto fundamental
da Natureza, que pode ser atualizado em qualquer região do espaço/tempo. Entretanto,
tal conceito não implica na teoria filosófica do Panpsiquismo, pois a efetivação da
consciência depende de atualizações anteriores do primeiro e segundo aspectos, além da
satisfação de condições específicas (vide discussão em Pereira Jr., 2015b). Portanto,
para o MTA a consciência sobrevém da natureza, mas não a partir apenas do aspecto
físico (Pereira Jr., 2013).
Utilizando-se um diagrama bidimensional para ilustrar extensões conjuntistas, a
estrutura da realidade - conforme o MTA - pode ser visualizada no seguinte desenho
(Figura 1):
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
!
29!
Figura 1: Esquema Básico da Estrutura da Realidade. Segundo o MTA, a totalidade
da realidade (Natureza) contém um conjunto de potencialidades que se atualiza em três
aspectos, Físico, Informacional e Consciente.
O diagrama acima é uma representação estática da realidade conforme o MTA.
Entretanto, como o processo evolutivo cósmico se caracteriza pela emergência forte do
segundo e terceiro aspectos, a partir dos anteriores (e também das potencialidades
eternas da Natureza), é preciso ainda representar as novidades, implícitas a cada
aspecto, que não se reduzem aos aspectos anteriores.
Considerando que as propriedades dos sistemas físicos ocupam as quatro
dimensões do espaço-tempo, a representação do segundo aspecto (em termos de
características das formas/informações) requer dimensões adicionais, que emergem em
continuidade com as dimensões do primeiro aspecto. Do mesmo modo, o terceiro
aspecto requer novas dimensões adicionais para experiências conscientes (composto de
cognições com sentimentos) que emergem em continuidade com as dimensões do
segundo aspecto.
Esse processo pode ser visualizado na Figura 2, que simula uma estrutura
tridimensional na qual as novidades emergentes do segundo e terceiro aspectos ocupam
extensões adicionais:
!!!!!!!!!!!!!!!!!!!!!!
Figura 2: O Bolo de Três Camadas na Caixa da Natureza. Legenda: a) A caixa
inteira: Natureza; b) Primeira camada (azul): aspecto físico; c) Segunda camada (verde):
aspecto informacional; d) Terceira camada (laranja): aspecto consciente. As linhas
coloridas indicam o enraizamento de cada aspecto nos anteriores, se projetando além
deles. A experiência consciente requer a participação dos três aspectos em um processo
contínuo e complementar.
!
30!
Os processos físicos podem ocorrer sem continuidade com os demais processos;
essa possibilidade é representada pelas linhas azuis que não se prolongam em linhas
verdes (por exemplo, processos que ocorrem em sistemas em estado de equilíbrio
termodinâmico). Em continuidade com os processos físico-químicos se desenvolvem
processos informacionais (como transmissão de sinais intra- e inter-celulares, e
respectivos padrões de informação), representados pelas linhas verdes. Os processos
informacionais se enraízam nos processos físico-químicos, e se estendem além destes.
Podem ocorrer em continuidade com processos conscientes; essa possibilidade é
representada pelas linhas verdes que não se prolongam em linhas vermelhas (por
exemplo, o processamento de informação em máquinas de calcular e computadores
digitais). Em continuidade com processos informacionais se desenvolvem processos
conscientes, representados pelas linhas vermelhas. Os processos conscientes se
enraízam nos processos informacionais e físico-químicos, mas se estendem além deles,
gerando os conteúdos vivenciados na perspectiva de primeira pessoa.
Ambos os diagramas acima (das figuras 1 e 2) não oferecem uma representação
diagramática perfeitamente adequada da estrutura do MTA, pois no primeiro as
extensões emergentes não são representadas, enquanto no segundo são simuladas como
externas aos aspectos anteriores. Para resolver esse problema lançaremos mão, na
última seção deste estudo, do conceito de dimensão fracionária. Antes disso, ilustramos
quais seriam as dimensões adicionais ao espaço-tempo físico necessárias para se
representar as propriedades dos fenômenos que se enquadram no segundo e terceiro
aspectos.
Com a distinção entre qualidades primárias e secundárias na física moderna, a
realidade física macroscópica - na qual se situam as qualidades primárias - foi
representada no espaço tridimensional, com a adição de uma dimensão adicional de
tempo. As qualidades secundárias foram historicamente excluídas do domínio de
interesse das ciências físicas. Processos microscópicos, embora representados em um
espaço de estados com mais de quatro dimensões, poderiam em princípio serem
embutidos no espaço-tempo quadridimensional, apesar das conhecidas dificuldades para
se integrar a teoria quântica com a relatividade.
Por uma questão de tradição histórica e simplicidade metodológica, assumimos
que o aspecto físico da realidade possa ser representado no espaço-tempo
quadridimensional, reservando a inclusão de dimensões adicionais para as propriedades
!
31!
correspondentes às qualidades secundárias - as quais, no MTA, são cobertas pelo
segundo e terceiro aspectos da realidade.
Considerando-se a estrutura da transmissão da informação na teoria matemática
de Shannon-Weaver, uma nova dimensão seria necessária para representar a quantidade
de informação transmitida de uma fonte para um receptor. Ao se considerar também a
semântica da informação (ou seja, a "diferença que faz a diferença" para o receptor em
seu ambiente), é necessário introduzir mais dimensões, para representar a mensagem e
sua respectiva interpretação da parte do receptor, o que se faria em um "espaço
conceitual" (Gardënfors, 1990). Quantas dimensões seriam necessárias para o espaço
conceitual de um receptor com as modalidades sensoriais e capacidades semânticas
humanas?
Cada modalidade, para ser representada, requer o seu próprio espaço de estados.
As estruturas destes espaços são provavelmente diferentes para diferentes espécies
biológicas, mas não para indivíduos pertencentes à mesma espécie. O “espaço de cores”
por nós percebidas foi originalmente concebido pelos alquimistas, e representado por
Goethe como uma roda de duas dimensões (Figura 3). Na tecnologia de imagem
contemporânea são utilizadas três cores fundamentais para compor um amplo espectro
de tonalidades, como na tela de um monitor. A representação deste processo
composicional em um espaço de estados demandaria uma estrutura geométrica
tridimensional.
Figura 3: Roda das Cores de Goethe. A roda é uma representação em duas dimensões
do espaço de cores. Em abordagens contemporâneas, o espaço de cores é geralmente
concebido como um espaço de estado tridimensional, onde cada dimensão corresponde
!
32!
a uma cor fundamental (vermelho, verde e azul): as combinações dessas 3 dimensões
geram todas as cores que podemos ver (Imagem pública baixada de
https://szcmphotography.wordpress.com/. Acesso em 18 de setembro de 2015)
A complexidade do espaço de estado da natureza aumenta com o terceiro
aspecto, pois este se baseia em uma distinção conceitual entre significado (meaning) e
sentimento (feeling). Para o MTA, a atribuição de significado pode ser inconsciente,
como ocorre por exemplo no sistema imune, ao se distinguir o que é do sistema e o que
deve ser interpretado como invasor (o antígeno), enquanto o sentimento é considerado
como sendo a marca da consciência (Pereira Jr, 2015a,b). Considerando-se que o
significado de um padrão de informação é uma cadeia sígnica que é comumente
associada ao padrão, e que o sentimento da mensagem é a reação afetiva singular de
cada receptor a partir do significado atribuído, precisamos de um novo conjunto de
dimensões para representar o espaço de estados dos sentimentos conscientes.
Embora haja muitos tipos de sentimentos, sequer temos nomes específicos para
cada um. Podemos distinguir quais seriam estes tipos:
• Sensações básicas, como fome, sede, frio;
• Sentimentos emocionais, como alegria e tristeza. No livro Ética, Espinosa identifica
vários tipos de afetos, que correspondem ao nosso conceito de sentimentos emocionais.
Para Espinosa, os afetos derivam de três tipos primitivos de sentimentos emocionais:
dor, prazer e desejo. Muitos dos sentimentos emocionais têm uma dimensão social, no
sentido de que necessitam de interações sociais como pré-requisitos para serem
atualizados, e remetem para objetos externos (como no caso das paixões);
• Sentimentos perceptuais, usualmente referidos pelo termo "qualia". Por exemplo, em
1927, Hans Hennings representou o espaço de estado de sabores (Figura 4);
• Sentimentos cognitivos: sentimentos amodais como "sentir que se sabe" algo, ou
crenças de que determinadas proposições são verdadeiras;
• "O sentimento do que acontece" (Damásio, 1999), isto é, sentimentos ligados a
eventos.
!
33!
Figura 4: O Tetraedro dos Sabores. As combinações das quatro dimensões do sabor
(doce, salgado, amargo e azedo) produzem todas as nossas possíveis experiências
gustativas, como, por exemplo, os sabores de chocolate e azeitona (Figura adaptada de
Gärdenfors, 2000).
Na abordagem filosófica aqui assumida, as propriedades de cada aspecto
emergente não são redutíveis às propriedades dos anteriores. As dimensões do espaços
de estados dos aspectos emergentes não seriam topologicamente separadas das
dimensões ocupadas pelos aspectos anteriores. Deste modo, as dimensões adicionais nas
quais representamos as propriedades quantitativas e semânticas da informação devem
estar aninhados no espaço-tempo quadridimensional da física, e as dimensões adicionais
nas quais representamos as propriedades dos diversos tipos de sentimentos devem estar
aninhadas nas dimensões informacionais.
Uma metáfora viável para este tipo de relação topológica é o Hipercubo (Figura
5), interpretando-se os cubos menores como um “aumento de densidade” do espaço
ocupado pelos cubos maiores – o que procuraremos, em seguida, ilustrar pelo uso de
dimensões fracionárias. O conceito de hipercubo foi possivelmente introduzido por
Abbott (1884) no livro "Flatland" (ver Lachman, 2003).
!
34!
!!!!!!!!!!!!!!!!
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
Figura 5: O Hipercubo. Na visão idealista, o cubo vermelho é o Mundo Platônico das
Ideias (ou a Mente de Deus), e o cubo verde no seu interior é a Natureza. Na visão
naturalista aqui adotada, o cubo vermelho representa o espaço-tempo físico e o cubo
verde representa o espaço fenomenal, onde as qualidades subjetivas de experiência
consciente estão localizados (Figura adaptada de site público da Internet).
Para se representar o MTA, o hipercubo se compõe de três cubos, um para cada
aspecto da Natureza. O primeiro aspecto é representado pelo cubo maior; o segundo
aspecto é representado pelo intermediário, e o terceiro pelo menor. A Figura 6 ilustra os
três cubos do MTA, que formam uma estrutura aninhada similar ao brinquedo de
bonecas russas.
Figura 6: O Hipercubo do MTA e as Bonecas Russas. Estruturas tridimensionais
(cubos) podem ser aninhadas em outros cubos, assim como as bonecas russas são
inseríveis umas dentro das outras. Figura adaptada de site público da internet:
http://www.gestaltreality.com/2013/03/19/hyper-dimensional-fractal-cube-reality/
(Acesso em 18 de setembro de 2015).
!
35!
Como representar as novas dimensões que emergem no processo de vir-a-ser da
realidade? Uma vez que um aspecto não pode ser reduzido a outros, e cada aspecto tem
diversas propriedades que requerem, para serem representadas, dimensões próprias, há
um risco de que o modelo tenda para dimensões infinitas, o que não seria adequado
como reconstrução filosófica de nossa apreensão intuitiva da realidade. Este é o
problema da inflação dimensional.
Se as dimensões adicionais ao primeiro aspecto, necessárias para representar as
propriedades dos fenômenos pertencentes ao segundo e terceiro aspectos, forem
representadas em dimensões adicionais separadas do espaço-tempo físico, recairímos no
dualismo de tipo cartesiano, ou no dualismo de propriedades de Chalmers (1995, 1996),
em que as propriedades físicas e mentais ocupam domínios disjuntos. A utilização de
dimensões fracionárias permite uma solução elegante para o problema da "inflação
dimensional", considerando-se as dimensões aninhadas como regiões de “maior
densidade” internas às quatro dimensões físicas que constituem o quadro mais
abrangente no qual os processos ocorrem.
As estruturas aninhadas podem ser abordadas por meio de ferramentas
matemáticas que permitem a elaboração de representações numéricas. A primeira
estratégia que vem à mente é o uso de dimensões fracionárias. Por exemplo, a curva de
Koch (Figura 7) é uma figura representável numericamente por meio de dimensão
fracionária. A operação para gerá-la começa com um triângulo equilátero; em seguida,
cada lado do triângulo é dividido em três partes; a parte central gera outro triângulo
equilátero, formando uma figura com quatro partes iguais; o número de elementos
idênticos é 4, a relação de homotetia é 3, e, por conseguinte, sua dimensão fracionária é
aproximadamente igual a 1,26 (D = log (4) / log (1/1/3) = 1,262 ...).
!!!!!!!!!!!!!!!!!!
!
36!
Figura 7: A Curva de Koch. A dimensão espacial física da figura é 1, enquanto que a
dimensão fractal (representado pelo número após a vírgula = 262 ...) refere-se à forma
(segundo aspecto) da figura, que também pode ser medida utilizando-se o método “box
counting”. Figura adaptada de site público:
https://upload.wikimedia.org/wikipedia/commons/thumb/5/5d/Koch_curve.svg/2000px-
Koch_curve.svg.png
Podemos representar processos informativos por meio de dimensões fracionárias
adicionadas às dimensões físicas inteiras, como no exemplo acima – levando-se ainda
em conta que em um processo de transmissão de informação um determinado padrão é
instanciado duplamente, ou seja, tanto na fonte como no receptor. Um processo
informativo pode ser concebido, no contexto da teoria matemática de Shannon e
Weaver, como a transmissão de uma forma ("mensagem") entre uma fonte e um
receptor. Esta operação implica que um padrão inicialmente instanciado na fonte de
informação é reproduzida na estrutura de material do sistema do receptor. Além da
representação probabilística habitual, este processo pode ser representado
numericamente. No sistema maior, composto pela fonte e pelo receptor, a dimensão
fracionária do padrão instanciado na fonte é dobrado. No caso de a transmissão da curva
de Koch de uma fonte para um receptor, o sistema fonte-receptor teria a dimensão
fracionária 1,524.
Como representar numericamente as dimensões necessárias para o terceiro
aspecto, as inserindo dentro do segundo? Propomos uma convenção, usando duas
vírgulas na mesma representação numérica, da seguinte forma: X, YY, ZZZ. Os dois
primeiros dígitos após a primeira vírgula (YY) referem-se ao segundo aspecto, enquanto
os três dígitos após a segunda vírgula (ZZZ) referem-se ao terceiro aspecto. Por
exemplo, o estado de um sistema consciente seria representado por 4, YY, ZZZ
dimensões, onde o "4" refere-se a seu estado físico (que ocupa 3 espaciais e uma
dimensão temporal), YY refere-se a seu estado informacional (as informações
armazenadas e processadas pelo sistema) e ZZZ refere-se a seu estado de consciência
(seus sentimentos e processos cognitivos a eles relacionados).
Da mesma maneira:
• O estado de um sistema macroscópico em equilíbrio termodinâmico (para o qual o
tempo não é uma dimensão relevante) é representado em 3 dimensões inteiras;
!
37!
• O estado de baixa entropia de um sistema macroscópico que atualiza apenas o aspecto
físico é representado em 4 dimensões inteiras;
• O estado de um sistema no qual há processamento de informação é representado por
4,YY. Neste caso, considera-se YY como sendo diferente de zero.
Em nossa construção de um modelo para a ontologia do MTA, ao espaço
tridimensional macroscópico dos processos físicos foi inicialmente adicionada a quarta
dimensão do tempo, compondo a estrutura quadridimensional utilizada para se
representar o primeiro aspecto. Esta estrutura é numericamente representada por
números inteiros de um dígito (X). Como é trivial na geometria elementar,
consideramos que as linhas têm uma dimensão, planos duas dimensões, volumes três
dimensões e sistemas para os quais o tempo é relevante para a análise quatro dimensões.
Propomos em seguida que esta estrutura quadridimensional inclui dimensões
fracionárias, necessárias para representar as propriedades de sistemas que atualizam o
segundo e terceiro aspectos. As dimensões fracionárias do segundo aspecto são
representados por números de dois dígitos (YY) colocadas após a vírgula, e as
dimensões fracionárias do terceiro aspecto são representadas por números de três dígitos
(ZZZ) colocados após uma segunda vírgula, da seguinte forma: X, YY, ZZZ.
Em nossa tentativa de representar o espaço de estados da Natureza (a totalidade
da realidade) de acordo com o MTA, a estrutura máxima resultante é um espaço-tempo
quadrimensional que contém dimensões adicionais aninhadas. Esta abordagem indica
um método para superar a dicotomia clássica do materialismo e do idealismo. Apesar de
ser concebido em oposição às abordagens idealistas, o nosso modelo monista não tenta
reduzir a Natureza a seu aspecto material. Ele inclui a Forma/Informação e o
Sentimento/Consciência como aspectos fundamentais da Natureza, que emergem de
suas potencialidades.
A diferença maior de nosso modelo frente aos modelos dualistas e idealistas da
realidade é que consideramos o segundo e terceiro aspectos como aninhados dentro do
primeiro. O uso de dimensões fracionárias e a analogia do hipercubo são sugeridos
como meios de se representar a estrutura complexa da realidade, sem duplicá-la em dois
ou três domínios separados (o que é assumido nas filosofias dualistas e trialistas) e sem
negar a existência de uma realidade independente da(s) mente(s) (negação esta que
ocorre nas filosofias idealistas).
!
38!
Cap. 4 - O Primeiro Aspecto
O entendimento do primeiro aspecto, que é caracterizado pela materialização da
energia e formatação do espaço-tempo quadridimensional, demanda a consideração de
questões difíceis de filosofia da física. Na perspectiva do MTA, duas questões se
colocam:
a) Como é o processo pelo qual as formas de energia se combinam para gerar o aspecto
físico da realidade?
b) Como as regularidades, leis e princípios da natureza são constituídos neste mesmo
processo?
No que diz respeito à primeira questão, decorre do modelo apresentado que
sendo as formas de energia (FE) eternas, elas podem se atualizar a todo momento, de
diferentes maneiras, não se restringindo a períodos especiais como um "Big Bang". O
domínio quântico seria um reservatório praticamente infinito de potencialidades, que se
atualizam em múltiplas escalas espaço-temporais a cada momento, em diferentes
combinações, caracterizando, nas linhas de Cournot, um processo estocástico com
memória.
As FE poderiam ser comparadas, como mencionamos anteriormente, a um
"alfabeto" da realidade, cujos elementos finitos se combinam de modos praticamente
infinitos. Uma outra possível comparação seria com as Idéias de Platão, desde que
tomadas em uma interpretação aristotélica, como formas imanentes à Natureza, que se
combinam de diversos modos, gerando a realidade por nós vivenciada.
Nesta conjectura, as regularidades observadas na Natureza não preexistiriam ao
processo da realidade, mas seriam também formatadas no seu decorrer, e, assim como a
curvatura do espaço-tempo, se definiriam à medida em que a energia se materializa. Se
este processo é resultante da livre interação das FE, adotamos a hipótese de que as leis e
princípios da natureza decorreriam de um processo primário de auto-organização (para
o conceito de auto-organização primária vide Debrun, 1996) das FE.
Mais precisamente, as interações das FE originam inicialmente padrões de
interatividade nucleares, que iniciam o processo de materialização da energia. Estes
padrões são descritos em termos de forças nucleares que constituem a estrutura das
!
39!
partículas microscópicas e, nas interações de grandes números de partículas, constituem
os reticulados que nos aparecem como corpos macroscópicos com uma determinada
massa (para uma discussão do possível papel das forças nucleares na constituição da
matéria, vide Baer, 2015). As duas outras forças fundamentais da física, gravitacional e
eletromagnética, pressupõem a existência de partículas com propriedades que se
manifestam como massa e carga. Deste modo, não poderiam preexistir à formação da
matéria.
Os processos macroscópicos obedecem a duas leis fundamentais, a Primeira (lei
da Conservação da Energia) e Segunda (Lei do Aumento da Entropia em sistemas
isolados) leis da Termodinâmica. A Primeira Lei implica e é implicada pela nossa
suposição de que a realidade é composta por uma coleção de formas de energia eternas.
Dado que as FE não são criadas nem aniquiladas, mas apenas se combinam de
diferentes maneiras, a energia total da realidade seria constante. A Segunda Lei teria
uma conexão, ainda pouco clara, com os modos de combinação das formas de energia
(vide ampla discussão deste problema em Pereira Jr., 1997). Determinadas combinações
podem ser utilizadas para realização de ações macroscópicas (ou seja, "trabalho"),
sendo então definidas como sendo combinações de baixa entropia; outras combinações
não possibilitam a realização de trabalho, sendo definidas como sendo de alta entropia
termodinâmica (o termo "entropia" também é utilizado para referência à quantidade de
informação contida em um sistema, mas neste uso sua quantificação é inversamente
proporcional à entropia termodinâmica).
A Equação de Schrodinger expressa uma regularidade física fundamental, a
dinâmica quântica, em termos de uma “função de onda”. Os estados dos sistemas
quânticos são chamados de “coerentes”, no sentido da existência de entanglement entre
as ondas/partículas descritas por tal Equação (ver uma exposição didática do assunto
em, p. ex., Omnès, 1994). Quando um desses sistemas interage com outros, entra em
ação um outro princípio, que contrabalança a inseparabilidade. Esse segundo princípio
não é nem poderia ser previsto na Equação; de acordo com a interpretação da
decoerência, que aqui assumimos, ele decorre de um fenômeno de interação, ou seja,
depende do encontro entre dois sistemas. Quando dois sistemas físicos interagem, o
estado inicial de um sistema é condição de contorno para o outro. Como se sabe, as leis
físicas não prevêem valores contingentes, como estados iniciais e condições de
contorno, mas é através desses fatores contingentes que processos de auto-organização
!
40!
se desenvolvem, obedecendo às leis físicas e ao mesmo tempo gerando produtos que
não se deduzem dessas leis. Em tal interação ocorre a perda das
interferências/superposições quânticas (vide discussão em Halliwell, Pérez-Mercader e
Zurek, 1994), fazendo com que em agregados a partir de um certo tamanho impere uma
dinâmica local. Ou seja, dois agrupamentos de tamanho igual ou maior a tal tamanho
crítico só apresentarão uma correlação de estados se houver uma conexão causal
macroscópica (ou “clássica”) entre eles. A conexão pode ser por contato direto ou de
forma indireta: a) por meio de campos de força (gravitacional, magnética) ou b) de uma
causa comum gerando dois ou mais efeitos diferentes (neste caso, os efeitos apresentam
correlações devido à ação da causa comum, e não devido a correlações quânticas entre
eles).
Qual seria o princípio que atua nos processos de interação em nível
molecular, contrabalançando o princípio de inseparabilidade? Uma pista
foi dada pela teoria da irreversibilidade desenvolvida por Boltzmann em 1872,
o chamado "Teorema-H". Ele trabalhou com o modelo de um gás ideal em um
recipiente isolado, considerando todas as colisões como perfeitamente
elásticas e obedientes à mecânica clássica. O "Teorema" procurava
demonstrar que para qualquer estado inicial do gás haveria uma evolução
para o estado de equilíbrio termodinâmico. Esse processo poderia ser
descrito como o progressiva diminuição de uma quantidade H, correspondente ao
inverso da entropia termodinâmica. No seu modelo, os estados de baixa entropia eram
concebidos como estados "desordenados", no sentido de que a distribuição de
energia do sistema seria heterogênea no espaço; e os estados de alta
entropia eram concebidos como "ordenados", ou com uma distribuição homogênea da
energia no espaço. Ele só conseguiu demonstrar o aumento progressivo da entropia, em
sistemas obedientes às leis da física clássica, fazendo uso de uma suposição extra,
ou seja, que não é dedutível da física clássica (e nem
poderia ser, pois as trajetórias descritas pelas leis mecânicas são
temporalmente reversíveis, enquanto o aumento da entropia é irreversível).
Essa suposição é conhecida como "Suposição sobre o Numero de Colisões", e
postula que os valores de energia de duas moléculas antes de colidirem
entre si são independentes, isto é, não estão correlacionados.
!
41!
Podemos constatar, por semelhança, que a suposição necessária para se construir
uma teoria da irreversibilidade (isto é, para se explicar o aumento estrito da entropia em
sistemas isolados) seria o mesmo princípio que opera nos processos de decoerência.
Uma vez que uma única função física é realizada – isto é, a eliminação da correlação
entre partículas quando compõem agregados de tamanho macroscópico – não haveria a
necessidade de postularmos diferentes princípios operando nos processos de
decoerência e irreversibilidade (como proposto em Pereira Jr. e Rocha, 1999). Segundo
Halliwell, Pérez-Mercader e Zurek, 1994, p. xviii: “the direction of decoherence
coincides with, and maybe even defines, an arrow of time. Moreover, a number of
attempts to quantify the degree of classicality of a decohering system use the notion of
information and entropy, providing a link with the fields of complexity and
computation”.
Vamos nos referir ao "Princípio de Entropização" (Pereira Jr. e Rocha, 1999),
para designar o princípio envolvido tanto na decoerência quanto na irreversibilidade dos
processos físicos. A entropização expressa o fato de que em todo agrupamento
macroscópico as interações entre as diversas partículas (umas atuando como condição
de contorno para as outras) fazem com que o agrupamento tenda para uma distribuição
espacial da energia internamente homogênea, e externamente heterogênea (em relação a
outros agrupamentos). Portanto, a entropização se refere exclusivamente a alterações na
distribuição da energia nos corpos, e não à quantidade de energia transacionada entre
eles. Devido à entropização, cada agrupamento material vem a ter uma dinâmica local,
separada dos outros agrupamentos. Esse é o mundo “clássico”, de ‘partes extra partes’,
no qual se desenvolvem nossas experiências quotidianas. Nele, a inseparabilidade está
sendo anulada pela entropização, gerando um mundo constituído por formas materiais
espacialmente separadas (substâncias químicas, corpos em movimento, etc.). Nossos
conceitos intuitivos de espaço e de tempo se baseiam neste mundo de formas materiais
distintas, como foi bem descrito pela chamada teoria “relacionalista”: o espaço como
um sistema de locações ocupadas pelos corpos, e o tempo como uma medida das
transformações por que passam os corpos em sua trajetória rumo ao equilíbrio
termodinâmico.
Seria possível “contrabalançar” a entropização, fazendo com que a
inseparabilidade se expresse em nível macroscópico?
Precisamos ressaltar que não existem observações ou experimentos que
!
42!
mostrem exceções à tendência de aumento da entropia em sistemas isolados
(ver discussão em Pereira Jr., 1997). Portanto, um “contrabalanceamento” da
entropização não pode ser pensado em termos de sua anulação, mas no sentido de se
manter um sistema aberto em estado de baixa entropia, às custas do aumento de entropia
no ambiente - o procedimento sugerido por Schrodinger (1945) e adotado
por Prigogine no estudo das "estruturas dissipativas”. A formação de tais estruturas se
explicaria por se considerar a evolução de sistemas abertos, submetidos a um fluxo de
entropia negativa. Gerando-se estados instáveis na distância do equilíbrio, por meio da
amplificação de flutuações de origem microscópica, uma tendência à “produção mínima
de entropia” explicaria a formação de estruturas coerentes como as biológicas
(Prigogine, 1962; Prigogine, Nicolis and Babloyantz, 1972). Contudo, esses autores não
discutiram em profundidade a formação de estados coerentes de tipo quântico em nível
macroscópico (uma indicação de que Prigogine estaria ciente de tais possibilidades pode
ser encontrada em Misra & Prigogine, 1983).
A hipótese da manifestação da inseparabilidade, em condições propícias, em
nível macroscópico, é sugerida por resultados obtidos no estudo de sistemas mantidos
em baixas temperaturas, por exemplo a formação dos
condensados Bose-Einstein, a super-condutividade ou o "laser de átomos”. A coerência
macroscópica não seria uma simples manifestação da realidade física microscópica, mas
um fenômeno emergente.
Quais seriam as condições em que o principio da entropização poderia ser
contrabalançado, permitindo a emergência de estados coerentes em nível
macroscópico? Para respondermos a essa questão, precisamos analisar como
sistemas com dinâmica local (i.e., sob a “dominância” do princípio de
entropização) estabelecem conexões entre si. A existência de conexões causais entre os
sistemas materiais é assumida e especificada pelas leis da física. A mecânica
newtoniana assume a existência da força gravitacional, responsável pela "ação à
distancia" entre os corpos. O eletromagnetismo assume a existência de "campos" de
energia, espacialmente orientados, oriundos de dipolos magnéticos ou do movimento de
partículas carregadas positiva ou negativamente. Na química se admite a existência de
"afinidades" de reação entre moléculas, em função da distribuição estável dos elétrons
em níveis de energia. Podemos então observar que, sob o domínio da entropização, as
conexões entre sistemas de tamanho molecular (ou maior) são regidas por
!
43!
relações causais obedientes às leis da física clássica, as quais (com exceção da
própria Segunda Lei) são leis de conservação (conforme a análise de Meyerson,
discutida em Pereira Jr., 1988), implicando que as transações entre as moléculas ou
entre os corpos no espaço preservam valores de energia como se o sistema total das
diferentes partes em interação fosse uma entidade única. Portanto, mesmo sob o
domínio da entropização, a inseparabilidade permaneceria como o pano de fundo da
inteligibilidade do mundo macroscópico.
Já no Séc. XIX Maxwell tinha mostrado que a entropia de um sistema fechado
poderia ser reduzida pela ação de um ser (posteriormente chamado "Demônio de
Maxwell") que, com um baixo dispêndio de energia, controlasse canais de fluxo de
energia internos ao sistema. A figura do demônio de Maxwell simboliza a possibilidade
de, com um baixo custo energético, se direcionar fluxos de relativamente alta energia,
no sentido de produzir estados de baixa entropia em sistemas não-isolados. Alguns
pensadores tentaram argumentar que isso também poderia ocorrer em sistemas isolados,
que seriam então "Moto-Contínuos do Segundo Tipo", ou seja, moto-contínuos que
violam a 2a. Lei da Termodinâmica. Schrodinger corretamente argumentou que tal
processo inevitavelmente geraria o aumento de entropia, no ambiente externo ao sistema
que é mantido em baixa entropia. Dessa maneira os biólogos e bioquímicos puderam
dar uma explicação física para os processos metabólicos, os quais evidentemente
dependem de fontes de energia de baixa entropia oriundas do ambiente (alimentos). Nos
sistemas que atuam como os seres vivos, existem processos causais nos quais um fluxo
de baixa energia controla um fluxo de alta energia, permitindo a concentração de baixa
entropia em uma dada região espacial.
A abordagem de Jacques Monod (1971) da função das proteínas se baseou na
abordagem clássica de Schroedinger sobre os mecanismos físicos da vida, identificando
tais macromoléculas como as responsáveis pela manutenção do sistema vivo em estados
de baixa entropia, às custas do aumento da entropia do ambiente. Em abordagens mais
recentes, foi introduzido o conceito de “motor molecular” (Vale, 2003), trazendo
consigo a vantagem de não se prestar a uma interpretação no sentido de violação da
Segunda Lei (ao contrário da discussão sobre o “Demônio de Maxwell”, que ficou
impregnada por tais interpretações). Entretanto, mesmo nas abordagens recentes persiste
o problema clássico da relação entre o grau de organização/baixa entropia dos sistemas
vivos, tal como os conhecemos em nosso planeta, e a Segunda Lei da Termodinâmica.
!
44!
Em nosso planeta as leis e princípios da Natureza, combinados com contingências
cósmicas, engendraram um processo dissipativo que se estabilizou em estados atratores
distantes do equilíbrio termodinâmico, atualizando uma possibilidade da Natureza que
não se estabeleceu em outras partes conhecidas do universo. As proteínas seriam os
fatores críticos deste processo, devido a sua função redutora de entropia, possibilitando
aos sistemas vivos se manterem em estados organizacionais funcionais e adaptativos.
Desta função decorre o merecido destaque a elas atribuído na fisiologia vegetal e
animal. No sistema nervoso dos animais, as proteínas, particularmente aquelas situadas
nas membranas neuronais (canais iônicos) e no citoplasma astrocitário (receptores
inositol e rianodino) controlam as correntes e fluxos iônicos que engendram os processo
mentais, e que são estudados cientificamente por meio de registros como o
eletroencefalograma e a microscopia de fluorescência; em mamíferos, quando estes
fluxos são seriamente perturbados, ocorre a morte cerebral (vide discussão do papel
crucial dos fluxos iônicos para a vida em Pereira Jr., Guimarães e Furlan, 2015).
Há duas fases no processo de combinação das FE, gerando o mundo material e
suas regularidades macroscopicamente observáveis, incluindo as estruturas biológicas.
Primeiramente, a formação de elementos químicos por combinações de partículas
atômicas individuais. As qualidades intrínsecas dos elementos químicos são expressos
por suas propriedades atômicas, tais como o número de partículas e as configurações
eletrônicas que determinam sua "reatividade" com outros elementos e suas "afinidades"
(que são comparáveis às relações humanas, como proposto por Goethe, 1980). A tabela
periódica construída por cientistas como Niels Bohr e Wolfgang Pauli se baseia na
física quântica, adicionada da Regra de Madelung, que especifica como preencher os
níveis de energia eletrônicos (vide Scerri, 2006). Nos sistemas vivos, entre 26 e 39
elementos podem ser encontrados; os componentes do genoma e das proteínas, água,
íons necessários para a vida (cálcio, sódio, potássio e cloro são os mais abundantes),
oligoelementos que ocorrem em cofatores enzimáticos, etc...
Em uma segunda etapa, ocorre a formação de substâncias químicas por
combinações de elementos individuais. Graças às suas características peculiares, os
elementos podem reagir em conjunto para formar moléculas com propriedades novas
emergentes. Oxigênio, carbono, hidrogênio, nitrogênio, enxofre e fósforo reagem
juntos, formando as principais macromoléculas da vida. A combinação de oxigênio e
hidrogênio produz a água onipresente em todas as formas de vida; a combinação destes
!
45!
mesmos elementos com o carbono produze os carboidratos e lipídios; com mais dois
elementos, nitrogênio e enxôfre, são gerados os aminoácidos e as proteínas. Os ácidos
nucleicos são um bom exemplo de macromoléculas com enormes propriedades de
informação, provenientes das combinações de apenas cinco elementos (C, H, N, O, P)
formando quatro blocos de construção de nucleotídeos. O DNA dirige o processo de
produção de proteínas e a atividade das proteínas confere propriedades qualitativas para
as células vivas.
Qual seria, portanto, a origem das regularidades da Natureza, representadas por
suas leis e os princípios? Na História da Filosofia clássica, encontramos duas maneiras
básicas de respondê-la:
a) Transcendente
Nesta abordagem, se procura explicações para os fenômenos naturais por meio
de um fundamentos absolutos, isto é, necessários e independentes de toda experiência
humana. Estes princípios não poderiam se situar na própria natureza, uma vez que os
fenômenos da natureza se apresentam de modo contingente, ou seja, sempre como
eventos individuais presenciados por um observador. A visão tradicional criacionista
assume que um Deus ou uma pluralidade de deuses teriam criado a natureza com sua
ordem (leis, princípios, regularidades), os elementos químicos, as espécies biológicas,
etc.). O conceito de um Deus transcendente, criador da natureza e sua ordem, apareceu
explicitamente no Tomás de Aquino na doutrina Exitus/Reditus (o mundo vem de Deus
e volta para Deus), que foi implícita ou explicitamente incorporada por vários filósofos
e cientistas modernos. Embora conflite com concepções do método científico mais
difundidas no meio acadêmico, esta abordagem ainda é implicitamente assumida por
diversos cientistas e filósofos da física, na época contemporânea;
b) Imanente
Trata-se da procura de uma explicação para os fenômenos da natureza dentro da
própria Natureza, aqui entendida como a totalidade da realidade. A própria Natureza,
sendo composta de FE que se materializam, se auto-organiza e faz emergir toda a
riqueza de fenômenos que experimentamos. Nessa visão, Deus não é o criador da
natureza, mas - como no conceito de Aristóteles de um Primeiro Motor - um ideal de
perfeição projetado por seres naturais (vide Aubenque, 1960).
!
46!
Uma diferença entre a explicação transcendente e uma explicação baseada no
conceito de auto-organização é que a primeira, nas religiões monoteístas, recorre a um
único fator (um Deus todo-poderoso), que teria o poder de criar a diversidade de
fenômenos observados. Já a abordagem pela auto-organização exige uma pluralidade de
elementos reais e independentes entre si, que se encontram e interagem, fazendo a
diversidade de realidade emergir (Debrun, 1996). Esta distinção não é rígida, pois em
explicações politeístas poder-se-ia - a princípio – evocar uma interação entre as
divindades para se explicar a complexidade e a existência de conflito na Natureza; por
outro lado, pode-se tentar explicar os mesmos fenômenos na abordagem imanentista
como decorrentes de uma substância única, indiferenciada e infinita, como o ápeiron de
Anaximandro.
Spinoza tentou conciliar as duas abordagens, igualando Deus e Natureza. Neste
caso, Deus não é concebido como um ser transcendente que cria a Natureza do nada,
mas como um ser que é de alguma forma imanente à Natureza. Platão, antes de
Aristóteles, apresentou uma solução combinada, assumindo tanto a autonomia dos
princípios naturais (Idéias) e a existência de um demiurgo que propicia a manifestação
dos princípios no mundo fenomênico.
Há uma possível terceira alternativa, proposta por Kant em sua abordagem
cognitiva para as questões filosóficas: assumir que as leis e os princípios da natureza
derivam de formas "a priori" que a mente humana impõe à "matéria" sensorial. No
entanto, por não caracterizar devidamente o domínio transcendental (este não seria nem
o Mundo das Idéias platônico nem o mundo natural da Biologia e da Psicologia), esta
alternativa não chega a constituir uma verdadeira explicação filosófica. Na versão de
Piaget (vide Tassinari, Ferraz e Pessoa, 2014), assume-se que essas formas sejam
biológicas, decorrentes de processos de interação do sistema vivo com o ambiente físico
e social, e portanto, há o comprometimento com a visão de auto-organização.
No âmbito da alternativa imanentista, que busca explicações para os fenômenos
da natureza na própria Natureza, esta é concebida como a totalidade da existência; uma
realidade eterna e independente da existência de mentes conscientes. Há diversas
possibilidades de abordagem do(s) fator(es) imanentes à Natureza que determinam seu
modo de funcionamento e as características dos fenômenos que observamos. Na Auto-
Organização, concepção que tem nossa preferência, a Natureza se constitui de FE que
!
47!
interagem livremente, gerando padrões dinâmicos de organização. As leis e princípios
da Natureza se formam a partir destes processos, ao longo de fases de instabilidade e
estabilidade. As formas de onda elementares pode ser comparadas com o "alfabeto" da
realidade; suas “letras” existem eternamente em estado potencial, e se combinam a todo
momento, formando uma sequência temporal de estados atuais da Natureza. Para tornar
possível este tipo de processo auto-organizativo, as FE elementar não poderiam ser
indeterminadas como o ápeiron de Anaximandro; ao contrário, cada uma deve trazer
consigo determinações específicas cujas infinitas combinações, formando sínteses
momentâneas, geram a sequência de estados atuais, correspondendo ao vir-a-ser ou
processo evolutivo da realidade.
Assumindo-se que a Natureza se organiza, não há necessidade de se postular um
Deus criador dos objetos e processos naturais, ou interventor na organização da
natureza, pois neste caso Deus seria um “hetero-organizador” (termo inventado por
Debrun, 1996a,b) da Natureza. Os elementos que se organizam, as FE, seriam eternas:
portanto, não seriam criadas nem destruídas. As mudanças que observamos em nossa
experiência no espaço-tempo decorrem de diferentes combinações das FE, as quais,
devido ao número praticamente infonito de possíveis combinações, geram fenômenos
fortemente emergentes. Neste sentido, a criatividade genuína da Natureza advém de
suas capacidades generativas, e não da ação de um ser transcendente. Deus, entendido
como produto da mente humana, seria uma entidade puramente simbólica, que surge ao
longo do processo, mas não como ponto de partida.
Neste ponto de vista, uma interpretação realista da função de onda quântica seria
a mais adequada. A função de onda é concebida como composto de FE interagindo
entre si, sobrepostas e emaranhadas. Nós não podemos observar as FE elementares
diretamente. O mundo fenomênico, conforme observado e estudado pela ciência, seria
sempre uma combinação de FE elementares, inclusive aquelas que se atualizam no
sistema cognitivo do observador. Em cada transição do quântico para o clássico, o
complexo interativo perde a coerência, resultando em um macroestado com
propriedades fixas (quantitativas e qualitativas). Podemos diretamente observar ou
medir apenas os macroestados resultantes.
O modelo auto-organizativo pode ser comparado com a atual concepção de
processo epigenético, em que um conjunto de elementos (que compõem o genoma)
!
48!
dinamicamente interagem, internamente e com o meio ambiente, fazendo com que uma
nova estrutura - o fenótipo - venha a emergir. O surgimento de regularidades é
dependente do contexto, porque o genoma não é suficiente para conduzir o processo de
forma determinística; o processo é semi-determinístico. A informação genética está
incorporada no DNA; as sequências de moléculas codificam um padrão que se expressa
no RNA e nas proteínas. As proteínas interagem entre si e com o ambiente interno e
externo ao organismo; destas interações, resultam os padrões fenotípicos e também o
sinal de feedback que atinge os fatores transcricionais e o núcleo celular, alterando o
padrão de experessão do genoma na fase seguinte de vida do organismo.
No caso da origem do aspecto físico a partir das FE elementares, devemos levar
em conta que uma configuração obtida em uma população de FE constitui o ambiente
para cada uma das FE que a compõe. Como as FE são concebidas como estatisticamente
independentes entre si, não podem ser consideradas como regidas por uma mesma
função, no sentido matemático do termo (vide Lungarzo e Pereira Jr., 1999); deste
modo, a crítica feita à interpretação de decoerência de Zurek (1991), de que a interação
com o ambiente não reduz as superposições e emaranhamentos, poderia ser contestada.
A totalidade de possíveis interações das FE define – como tratamos em capítulo
anterior - o espaço de estados da Natureza. Sequências de diferentes combinações
definem tipos de processos evolutivos que ocorrem em diferentes regiões (por exemplo,
nos planetas do sistema solar). A evolução da Natureza ocorreria em três fases, que
corresponderiam aos três aspectos do MTA, de acordo com uma ordem (cada aspecto
sendo condição de possibilidade para o seguinte). A primeira ou imediata fase de
atualização corresponde ao aspecto físico, que é caracterizado pela presença de matéria.
Enquanto há vida e consciência no nosso planeta, os outros planetas do sistema solar,
tanto quanto sabemos, teriam estacionado no primeiro aspecto.
No universo (ou multiverso), haveria diversas regiões onde apenas o primeiro
aspecto é atualizado; por exemplo, em planetas onde os sistemas materiais estão em
equilíbrio termodinâmico (estado de entropia máxima), o vir-a-ser da realidade
estaciona no primeiro aspecto. Em outros planetas, havendo estados de baixa entropia, o
segundo aspecto se atualiza; por exemplo, relógios químicos aparecem espontaneamente
em sistemas distantes do equilíbrio termodinâmico. Quando padrões complexos, de
baixa entropia termodinâmica são formados, o segundo aspecto se torna presente, mas –
!
49!
como veremos mais à frente - isto não é suficiente para que o terceiro aspecto seja
atualizado. Algo mais é necessário: a existência de sistemas capazes de sentir as
mensagens (no exemplo: capazes de perceber as regularidades no relógio químico).
Em nosso planeta, o caminho que conduziu ao terceiro aspecto foi o surgimento
de sistemas vivos e evolução biológica. Os sistemas vivos são caracterizadas por ciclos
metabólicos, que se iniciam como processos físicos, possivelmente com a formação de
padrões estáveis de interação de ácidos. Ainda não se conhece com certeza as condições
suficientes para o surgimento desses ciclos metabólicos, mas a resposta não está distante
para abordagens científicas atuais, baseadas na física-química e teorias de sistemas
adaptativos.
Na literatura científica, o conceito de Auto-organização tem sido usado para se
referir a processos clássicos, mas eu uso pode ser estendido para processos que se
iniciam em nível quântico, como aqui propomos. Esta extensão do conceito implica em
algumas questões epistemológicas de difícil tratamento, que dizem respeito ao próprio
estatuto das ciências físicas e ao uso da matemática para descrição de processos físicos.
Algumas das principais abordagens da Auto-Organização no mundo clássico são
as seguintes. O livro de Erich Jantsch, "The Self-Organizing Universe", foi pioneiro na
aplicação do modelo auto-organizativo à construção de uma filosofia da natureza
(Jantsch, 1980). Maturana e Varela (1980) propuseram o conceito "autopoiese" para
denotar a atividade própria dos seres vivos de geração de seus componentes funcionais,
o que não acontece em máquinas, que dependem de um agente externo. Henri Atlan
(1981) retomou o conceito de "ordem do ruído" de Heinz von Foerster, realizando um
tratamento quantitativo da compexidade informacional dos sistemas vivos, enquanto
Bak (1987) introduziu o conceito de "criticalidade auto-organizada" e Haken (1983)
criou a ciência interdisciplinar "Sinergética", para lidar com fenômenos de emergência
organizacional.
Como argumentado por Ashby (1962), os processos auto-organizativos não são
absolutos, mas convivem com processos complementares (vide também Debrun, 1996).
A Auto-Desorganização ocorre onde/quando a organização de um sistema se
desconfigura, devido a um padrão de interação destrutivo. Ela é diferente de Hetero-
Organização, caso em que organização é estabelecida ou mantida por ação de um agente
externo, e da Hetero-Desorganização, quando a organização de um sistema se desfaz
!
50!
devido à ação de um agente externo. Todos estes variantes podem coexistir em sistemas
auto-organizados, modulando o grau de autonomia do sistema, ou mesmo gerando
transformações que implicam em mudanças na identidade do sistema.
O processo auto-organizativo, nas diferentes abordagens dos autores, envolve a
interação de “componentes” ou “partes” (Debrun, 1996 a,b) que são concebidas como
realmente (ou seja, não só pistemologicamente) distintas, de cuja interação emergem os
fenômenos organizativos. Tais componentes não devem ser interpretados como os
átomos de Demócrito, ou como as partículas últimas da matéria; são, va verdade, as
unidades básicas adotadas como sendo elementares em um determinado modelo
construído para finalidades descritivas e explicativas no âmbito científico. Pode-se
aproximar tal conceito do atomismo de Boltzmann (Pereira Jr., 1997) que utilizava o
termo “moléculas” para se referir aos componentes de um gás, ou melhor, pode-se
aproximar aos “nós” (nodes) utilizados para representar as unidades computacionais
elementares em modelo de redes neurais, como faz Atlan (1981).
Em termos formais, estas unidades são representadas na Teoria de Conjuntos
como elementos de conjuntos. As equações físicas são construídas como relações ou
funções matemáticas nas quais se estabelecem mapeamentos entre elementos de
conjuntos ou entre conjuntos. Deste modo, as equações da física clássica não fazem
referências às potencialidades quânticas subjacentes aos componentes de um sistema
cuja atividade ou comportamento descrevem. Como compatibilizar este tipo de
abordagem com o MTA? Algum caminho precisa ser aberto para que as potencialidades
recessivas quânticas possam eventualmente se manifestar em nível clássico,
constituindo fenômenos emergentes no sentido forte do termo.
No MTA, como temos visto, o processo auto-organizativo se inicia no plano
fundamental da realidade, a saber, nas combinações das FE, perpassando o nível
quântico (descrito pela função de onda de Schroedinger ou pela matriz de Heisemberg),
em que se encontram superpostas e emaranhadas, se atualizando em nível químico, dos
elementos, agregados moleculares e substâncias, os quais interagem entre si, formando
os processos auto-organizativos clássicos, em sistemas que contêm estas interações em
seu interior e também nas relações de seus componentes com o ambiente externo.
Destas interações surgem os padrões emergentes. A cada momento, uma determinada
combinação das FE fundamentais se atualiza, enquanto as demais se mantêm recessivas.
!
51!
A combinação que se atualiza em um determinado momento influencia o que ocorrerá
no momento seguinte. Os arranjos organizativos dos sistemas, em nível clássico, tanto
pode reforçar as combinações já atualizadas, o que ocorre nos grupos estáveis de
estados do sistema, quanto podem favorecer a atualização de combinações até então
recessivas, o que caracteriza os grupos de estados instáveis.
Enquanto os estados recessivos são representados no espaço de estados da
Natureza, lá persistindo, na expressão de Espinosa, sub specie aeternitatis (na
perspectiva da eternidade), são deixados de lado nas representações matemáticas dos
processos clássicos, com base na Teoria dos Conjuntos. Para que se considere a
possibilidade de sua emergência, no plano clássico, torna-se necessário utilizar uma
“lógica do terceiro incluído”, como nas proposta de Lupasco, sistematicamente tratada
em Brenner (2013). Este tipo de abordagem vai além das rotinas dos cientistas da
Natureza, adentrando em uma Filosofia da Natureza formalizada.
O resgate da filosofia aristotélica, neste contexto, só faz sentido em uma
Filosofia da Natureza que procure conceber a realidade como processo de vir-a-ser, em
que os sistemas físicos estão a meio caminho entre suas potencialidades plenas e as
atualizações momentâneas e limitadas, que constituem o mundo clássico. Por exemplo,
embora haja similaridade terminológica entre os termos “substância” em Aristóteles e
da Ciência Química, pode-se lembrar que enquanto as substâncias químicas são
formatos da matéria no plano clássico, as aristotélicas são sistemas que estão em
processo de transição da potência para o ato, e portanto, devem ser comparadas ao
processo de transição do plano quântico para o clássico.
Podemos considerar explicações baseadas nos conceitos de circularidade (como
a cobra que morde a própria cauda, na metáfora Uroboros) e/ou espiralidade (pequenas
regularidades realimentado-se, em processo circular expansivo) como casos particulares
de auto-organização; entretanto, conceitos que negam o processo de vir-a-ser da
realidade não seriam compatíveis. Os defensores do Princípio da Identidade eleata,
como Emile Meyerson, assumem que não há nenhuma mudança real no tempo; as leis e
os princípios da Natureza definem a identidade estática dos seres; as mudanças são
aparentes. Pereira Jr. (1988) fez uma crítica de uso de Meyerson do Princípio de
Identidade para justificar leis de conservação em física, argumentando que a Segunda
Lei da Termodinâmica contradiz esse uso. É necessário distinguir os princípios da
!
52!
Invariância e da Identidade. As leis científicas são baseadas no Princípio da Invariância.
O Princípio de Identidade é trivialmente falso, uma vez que estabelece que uma
entidade é sempre idêntica a si mesma. Quando uma pessoa morre, ou quando uma
criança nasce, ou quando uma espécie biológica é extinta, o Princípio de Identidade é
violado. O Princípio de Invariância afirma que tudo muda com o tempo, mas entre os
padrões de mudança, podemos identificar um padrão de segunda ordem que permanece
invariável. O que é invariável é definido em referência ao que não é. Por exemplo, na
física Newtoniana, a posição espacial de um corpo muda, mas a alteração ocorre numa
taxa fixa (velocidade). As mudanças na velocidade, mas a taxa de variação (aceleração)
pode ser invariante durante algum tempo. Forças físicas são baseados em invariâncias,
no sentido de proporções entre alguns eventos (causas) e outros eventos (efeitos).
As explicações por vicariância (Pereira Jr. et al., 2014) são aquelas que se
baseiam na ausência de alguma entidade ou processo, para explicar um determinado
fenômeno que resulta de tal situação. Embora pareça intuitivamente precária ou
incompleta, pois não se refere aos fatores que efetivamente geram o resultado, este tipo
de explicação é bastante usado na filosofia da física, começando por Demócrito, que
postulou o vazio como necessário para que seus átomos constituintes da realidade
pudessem se movimentar. O nada enquanto categoria ontológica também é referido em
filosofias existenciais que procuram explicar a liberdade de ações humanas, como no
caso típico de Sartre.
Apesar desta atração pela explicação por vicariância, não faz sentido afirmar que
a realidade é uma flutuação do nada - se o "tudo" é uma parte do "nada", ambos os
termos deixam de fazer sentido. Para se evitar a carga anti-intuitiva da assunção do nada
como categoria ontológica, os físicos utilizaram, em determinada época, o conceito de
éter como metáfora para o preenchimento do espaço curvo hipoteticamente vazio no
âmbito da Teoria da Relatividade Geral.
Na Teoria Quântica, surgiram novas acepções para o conceito de nada (Krauss,
2012), como o ponto zero de energia e o vácuo quântico, que seriam estados nos quais a
energia atinge um valor mínimo. Tal conceito de nulidade é uma interpretação da teoria
quântica, não uma implicação (teorema), e, portanto, pode ser recusado sem maiores
danos para a teoria ou para quem a recusa. Também se especula a respeito de estados
nos quais matéria e anti-matéria estariam em perfeita simetria; um desvio frente a tal
!
53!
estado geraria o "big bang", processo de expansão material, conduzindo ao estado atual
do universo (ou multiverso).
No MTA, consideramos o espaço-tempo como formatado pelos arranjos da
matéria/energia; não julgamos ser conveniente (nem consideramos que faça sentido,
para a filosofia) postular que o espaço-tempo seja um aspecto do nada. A estrutura do
espaço seria melhor definida pelos modos da combinação daas FE. O tempo é gerado
pela sequência de combinações destas FE eternas; uma vez que são eternas, o tempo não
teria começo nem fim. O Big Bang seria concebido como um passo inicial na transição
das FE para a materialidade, correspondendo a uma primeira fase na evolução do
universo por nós conhecido. As leis e os princípios da natureza que caracterizam uma
região do espaço-tempo são determinadas pela interação de auto-organização dos
elementos eternos naquela região. Neste sentido, os princípios de leis da natureza são
tanto descobertos quanto inventados. Eles decorrem dos fundamentos da Natureza, mas
permanecem como mera possibilidade até que alguém os formule. Quando Einstein
formulou a Teoria da Relatividade, descobriu uma potencialidade da natureza e, ao
mesmo tempo, inventou uma fórmula para expressá-la - uma fórmula que não existia
antes, tanto quanto sabemos (ressalte-se que alguns autores, como Brian Greene,
sustentam que Hilbert já a tinha inventado).
As regiões espaço de tempo podem ser caracterizadas por um conjunto de
valores; por exemplo, a entropia, como fez Boltzmann (1896). Estes valores podem ser
concebidos como resultando de processos de auto-organização - nenhuma harmonia pré-
estabelecida ou determinismo laplaciano governariam os processos. Como ele assumiu
o universo como um todo está em equilíbrio, havia duas maneiras de explicar por que
existem regiões de baixa entropia, como na Terra. A primeiro delas é conceber vários
mundos paralelos; a diminuição de entropia em alguns deles é compensada pelo
aumento da entropia nos outros. A segunda é conceber que a compensação ocorre
sequencialmente; uma época em que a entropia diminui é compensada por épocas em
que a entropia aumenta. Este é o mesmo tipo de alternativa com que nos deparamos para
dar conta da expansão do universo. Não se deve então considerar o Big Bang com o
início absoluto de expansão e/ou o início do tempo. Modelos filosoficamente mais
interessantes seriam aqueles que propõem períodos que compensam. O mesmo
raciocínio pode ser aplicado à conjectura de muitos mundos de Everett; eles podem ser
!
54!
paralelo ou sequenciais; o MTA é compatível com uma diversidade sequencial, mas não
com mundos simultâneos disjuntos.
Uma outra suposição filosófica que tem feito sucesso na física contemporânea,
mas que conflita com o MTA, é que “informação produz matéria” (it from bit). Esta
concepção do aspecto físico da realidade como derivado do aspecto informacional
advém da obra de John Archibald Wheeler, possivelmente inspirado por Niels Bohr
(Foschini, 2013). Entretanto, em momento algum Wheeler explica como a
matéria/energia é produzida pela informação; o que ele de fato procura abordar é como
o mundo macroscópico clássico é determinado por escolhas binárias no ato de medida,
o que foi interpretado por Foschini (2013) como implicando um papel central da
linguagem na construção do conhecimento físico. Deste modo, causa estranheza o uso
do mote de Wheeler como explicação literal do surgimento da matéria/energia, como
proposto por, entre outros, por Shevchenko and Tokarevsky (2015). Ao se analisar o
argumento desenvolvido, nota-se que os autores resvalam de considerações ontológicas
para considerações epistemológicas, ao modo de Bohr.
Cap. 5 - O Segundo Aspecto
O segundo aspecto se refere a todos os padrões formais e informacionais, como
as leis e os princípios que emergem do aspecto físico, as relações matemáticas, as regras
de inferência lógica, os padrões de informação operantes nos sistemas vivos, seus
processos cognitivos inconscientes, e os padrões de informação instanciados em
máquinas e obras da cultura (os memes). Os processos informacionais foram largamente
desenvolvido com o surgimento de sistemas biológicos que trocam todos os tipos de
sinais internamente, com outros sistemas semelhantes e com o ambiente físico.
Uma filosofia da forma e de sua transmissão teria se iniciado em Aristóteles. Seu
conceito de causação formal corresponderia aos processos informacionais, isto é, os
processos informacionais que ocorrem nas operações da tecnologia contemporânea, e
que são descritos quantitativamente com uso da teoria de Weaver e Shannon (1949) -
como a transferência de um arquivo entre dois discos rígidos - podem ser entendidos, de
modo qualitativo, no âmbito da “causa formal” aristotélica.
!
55!
A gigantesca obra filosófica e científica de Aristóteles, que abrange quase 150
volumes em seu nome, pode ser considerada como uma síntese dos pensadores que o
antecederam, e também como uma tentativa de superação de duas posições que o
incomodavam: a imutabilidade do ser em Parmênides, e o materialismo atomista de
Demócrito. Para dar conta do movimento, em todas as suas acepções (tanto no sentido
de deslocamento dos corpos, como no sentido da transformação criativa ou destrutiva,
isto é, do que ele chamava de “geração” e “corrupção” dos seres), Aristóteles teve que
se defrontar com a filosofia de Parmênides, para quem “o ser é e não pode não ser”.
Esta filosofia da identidade não conseguiria dar conta das mudanças que observamos na
natureza e em nós mesmos.
Uma possível solução já havia sido antecipada por Heráclito, no conceito de um
“Logos” que deriva sua continuidade de existência da própria mudança, constituindo o
que hoje em dia, a partir de Edmund Husserl e James J. Gibson, chamaríamos de
“invariante”. Só existem invariantes em processos, físicos e/ou mentais, pois o que não
varia é indiretamente definido por aquilo que varia (variações da imaginação, em
Husserl, ou variações do movimento físico, em Gibson). Aristóteles estendeu a ideia do
Logos, de Heráclito, para todos os seres da natureza, de tal modo que cada ser tivesse
sua essência. A essência seria histórica, ou seja, dependente das atividades dos seres.
Tal contingência deriva da consideração da matéria como um dos princípios do ser
(como discutido em Pereira Jr., 1986). Ao assumir a realidade da matéria, Aristóteles
incorpora criticamente a contribuição de Demócrito em sua grande síntese, sem
compartilhar do materialismo atomista do influente filósofo pré-socrático.
Contradizendo a estéril filosofia de Parmênides, Aristóteles sustentou que os
seres da natureza podem existir tanto em estado atual (referente àquilo que já é) quanto
potencial (referente àquilo que pode ser). A tese central do estagirita, a este respeito,
seria que os estados potenciais da natureza são tão reais quanto os estados atuais, e
constituem pressuposto necessário para se entender o movimento e as transformações da
natureza (vide Aristotle, 2012; Física Livro 1, Seção 1; Metafísica, Livro Z, Seção 9).
Esta suposição seria necessária para que o movimento e a transformação dos seres não
fosse uma mera aparência, derivada de nossa ignorância da verdadeira realidade – como
queriam Sócrates e Platão, que estavam mais próximos de Parmênides.
!
56!
Se por um lado Aristóteles se alia com Heráclito contra a filosofia eleata e sua
continuidade em Platão, por outro lado ele se alia a Platão contra o materialismo
atomista de Demócrito e o naturalismo ingênuo de outros pré-socráticos. Estes voltaram
suas investigações para a busca de causas materiais, como os quatro elementos já
tematizados na filosofia e medicina chinesas antigas (água, fogo, ar e terra) ou uma
substância primordial (o ‘ápeiron’ de Anaximandro). É verdade que para Aristóteles a
matéria não é mera aparência e sim um princípio do ser, porém não é o único.
Demócrito propusera um entendimento dos seres da natureza a partir de suas menores
partes – os átomos – e suas combinações, ocupando o espaço vazio. Aristóteles aponta a
insuficiência deste princípio e vai buscar no conceito platônico de Ideia a base para seu
segundo e igualmente importante princípio do ser, a forma, compondo assim a
concepção chamada de hilemórfica.
Aristóteles argumentou que todos os seres da natureza são compostos de forma e
matéria, e que cada um destes princípios atua sobre o outro para determinar a
individualidade de cada ser. A forma determina a espécie do ser (por exemplo, a forma
do cão o distingue do gato), enquanto a matéria determina características individuais (o
Gato Félix se distingue do Gato Garfield devido à quantidade de matéria de cada um,
que é maior no caso do segundo).
Enquanto as Ideias platônicas seriam modelos ou paradigmas situados em um
mundo próprio além do sensível, em Aristóteles a forma está inserida nos seres da
natureza, atuando sobre a matéria e sobre a mente de quem observa a natureza; neste
último caso, se tornando atividade mental (energeia),da qual as formas podem ser
abstraídas (se tornando predicados) e recombinadas por meio da linguagem (formando
os silogismos).
Enquanto em Platão a mente humana, por meio da dialética, se aproxima das
Ideias, em Aristóteles as formas estão disponíveis na natureza empírica para serem
apreendidas, e possuem um poder comunicativo, por ele chamado de “causa formal”.
Nesta reinterpretação de Platão por Aristóteles estaria a origem do conceito de
informação: enquanto as ideias platônicas estão estáticas em seu mundo e é o
pensamento que se aproxima delas, as formas aristotélicas se transmitem de um
substrato material a outro, de substratos materiais para a mente, e da mente para outros
!
57!
substratos materiais, tendo portanto um poder próprio, que se expressa em termos
causais, ou seja, a “causa formal”.
Portanto, os principais componentes do conceito de informação já estariam
presentes em Aristóteles:
a) Há formas que se transmitem de um a outro substrato material;
b) A realidade está em processo de passagem da potência para o ato, processo no
qual a forma atua na matéria, determinando as características dos seres;
c) As formas dos seres da natureza podem ser apreendidas pela mente humana, e as
formas existentes na mente humana podem ser transpostas para a matéria,
determinando as características do produto.
Qual a Especificidade da Causa Formal? No exemplo aristotélico do trabalho do
escultor, que ilustra sua teoria das quatro causas, a causa formal é entendida como a
determinação da forma da estátua pela forma incialmente presente na mente do escultor,
e operacionalizada por meio de seu trabalho com ferramentas adequadas. É aqui digno
de nota que a causa formal não tem os poderes próprios das outras causas, a saber, as
causas eficiente, material e final.
A causa formal não tem o poder de desencadear um processo físico, o que é
próprio da causa eficiente; no exemplo, o trabalho do escultor. Na física clássica de
Galileu e Newton, que está na origem da revolução científica moderna, o papel de causa
eficiente do movimento dos corpos é atribuído à força gravitacional. Com o advento da
física quântica, as forças fundamentais da natureza são hoje consideradas como sendo
quatro: as forças atômicas forte e fraca, a gravitacional e a eletromagnética.
A causa material determina propriedades individuais dos seres da natureza,
como as características químicas das substâncias. Na produção da estátua, por exemplo,
a dureza e a cor da estátua são conferidas pela matéria de que é feita. No contexto
moderno, a tabela periódica elenca os diferentes elementos capazes de determinar
diferentes características das substâncias; as explicações materialistas dos fenômenos da
vida passam então a se basear nas propriedades eletroquímicas dos elementos
constituintes dos seres.
!
58!
A causa final diz respeito à existência de finalidades em todos os seres, os
dirigindo para atingir determinadas metas. Em Aristóteles, está ligada com a concepção
de um “Primeiro Motor”, entidade imóvel situada além dos planetas visíveis, que
atrairia – e deste modo colocaria em movimento – todos os demais seres, em virtude de
sua perfeição (para uma discussão, vide Aubenque, 1960). Esta ideia de uma força que
direciona os seres para uma meta foi resgatada séculos mais tarde pelos filósofos e
cientistas vitalistas, como Hans Driesch, que consideraram a teleologia como inerente
aos seres vivos, e ao universo como um todo. A emergente filosofia da biologia dos
séculos XVIII e XIX ficou polarizada entre os mecanicistas, defensores do
entendimento dos processos da vida em termos da física clássica, e os vitalistas,
proponentes de uma “força vital” intangível pelo método científico moderno.
Uma solução para esta dicotomia pode ser encontrada, contemporaneamente, na
teoria da auto-organização (vide, por exemplo, Puttini e Pereira Jr, 2007). Não se nega a
existência da ação teleológica, porém esta é concebida como resultante do processo de
auto-organização de sistemas dinâmicos, e não como condutora dele. Portanto, se
apenas sistemas que se auto-organizam apresentam comportamento teleológico, a
teleologia não pode ser invocada para explicar a formação destes sistemas (sua “auto-
organização primária”, nas palavras de Debrun, 1996b), como, por exemplo, no caso da
origem da vida. Deste modo, descarta-se a existência de uma mente controladora da
natureza, de uma “alma do mundo” no sentido neoplatônico, em prol de uma concepção
evolutiva em que sistemas naturais se auto-organizam, e a partir de determinado estágio
(que Debrun, 1996a, chamava de “auto-organização secundária”) formulam suas
próprias metas, passando então a apresentar comportamento teleológico.
Qual seria então o poder causal da causa formal? A transmissão da forma
(digamos, a forma de um cavalo) da mente do escultor para a matéria depende de uma
sinergia com as outras causas, mas não se reduz a uma delas ou a uma combinação
delas. A informação, aqui entendida como transmissão da forma de um cavalo de um
substrato (mente do escultor) para outro (por exemplo, um bloco de mármore), depende
das outras causas:
a) Causa Eficiente: um trabalho do escultor – o que, em termos da física
moderna, implica em uma transferência de energia;
!
59!
b) Causa Material: o bloco de mármore deve ter propriedades físico-
químicas que o tornam apto para receber e manter a forma do cavalo;
se fosse um bloco de material gelatinoso, não poderia abrigar
apropriadamente tal forma, uma vez que, por exemplo, o cavalo tem
pernas relativamente finas e longas;
c) Causa Final: no contexto social em que a ação se desenrola, é preciso que
esta tenha uma finalidade, ou seja, não se faz uma escultura sem
qualquer intenção; a escultura deverá, por exemplo, enfeitar uma
praça pública.
Levando em conta todas estas determinações que estão sob a égide das outras
causas, o que resta para a causa formal? Para responder à questão, consideremos que o
escultor não conseguiria, de um só golpe, produzir a estátua. Ele precisa, em inúmeros
golpes de seus instrumentos (por exemplo, martelo e formão), reproduzir no mármore,
de modo coordenado e coerente, os diversos detalhes da forma do cavalo. Se ele
reproduzir os detalhes, porém, de modo não coordenado e não coerente (por exemplo,
esculpindo as patas uma a uma em uma sequência linear), não terá transmitido a forma
do cavalo, mas teria gerado um “monstro” – uma forma natural deteriorada.
Um outro exemplo do poder da causa formal que encontramos em Aristóteles é a
constatação de que os descendentes de genitores de uma espécie (vegetal ou animal)
sempre são da mesma espécie. Isso não é um truísmo. Sabemos, pela biologia
contemporânea, que todos os seres vivos possuem o mesmo código genético. As
diferentes características das diferentes espécies são determinadas, no plano genômico
molecular, por diferentes sequências das mesmas unidades básicas. Se a forma das
sequências não se preservassem na transmissão genética, seria possível que os
descendentes de genitores uma espécie fossem de uma outra espécie.
A natureza, no âmbito dos minerais, vegetais e animais, apresenta
surpreendentes características formais. Uma delas, possivelmente a mais estudada, é a
simetria. Os seres vivos apresentam notáveis simetrias bilaterais. As leis e princípios
físicos expressam, muitas vezes, propriedades formais. No Princípio da Ação Mínima,
por exemplo, se pressupõe que os sistemas físicos possuem algum tipo de mensuração
das trajetórias de menor energia, o que implica uma determinação formal.
!
60!
Os elementos químicos são compostos pelas mesmas partículas (prótons,
nêutrons, elétrons); o que os distingue entre si é a forma ou padrão de organização
destas mesmas partículas, em diferentes arranjos estáveis que se preservam nas
transformações químicas. Não se pode, por exemplo, produzir a forma do ouro a partir
de outras formas, como tentaram em vão os alquimistas.
No início do Séc. XX, a corrente da psicologia que ficou conhecida como
“Gestalt” notou que nossa percepção de formas tem propriedades globais. O poder da
causa formal, neste sentido, pode ser entendido como um poder de “contaminação” da
forma, se propagando de modo coerente de um para outro substrato. Estamos tão
acostumados com isso, que raramente ou nunca pensamos em um mundo possível em
que tal poder não se exercesse, mas podemos encontrar cenários aproximados em nossa
vida quotidiana. Pensemos na primeira vez que um estudante de piano executa uma peça
musical...é costumeiro haver tantos erros que a música pode ficar irreconhecível.
Estendendo o raciocínio, todas as ciências formais, como a lógica, matemática e
computação, pressupõem a existência de regularidades formais, que procuram expressar
em suas fórmulas e algoritmos. Tais regularidades, por sua vez, dependem da ação dos
outros tipos de causa, pois a causa formal sozinha é impotente para gerar qualquer efeito
na natureza. Podemos, portanto, afirmar que o poder da causa formal se exerceria no
plano da coordenação dos processos naturais, da “ordem” da natureza (que pode, em
certas circunstâncias, também advir da “desordem”), se pressupondo queas demais
causas se exerçam de modo eficaz em seus âmbitos próprios de atuação. Em Boltzmann
(1896), como temos recordado, se sugeria que as “correlações” formadas nas interações
entre as partículas são perdidas ao longo do tempo, o que pode ser interpretado como
uma perda de ordem (conforme o nome dado pelo próprio Boltzmann ao seu princípio),
o que poderíamos hoje chamar de “perda de memória” ou “perda de informação”.
Quando Weaver e Shannon (1949) formularam sua teoria matemática da informação,
eles usaram o mesmo conceito de entropia de Boltzmann para referir-se à informação
gerada em uma fonte e transmitida a um receptor. Esta relação entre dois sistemas é
descrita na teoria de Shannon-Weaver como uma estrutura condicional probabilística
(dado que um estado A, com probabilidade X, se estabelece no sistema-fonte, um
determinado estado B, com a mesma probabilidade, necessariamente se forma no
sistema-receptor). A transmissão de informação implicaria uma estrutura probabilística
legiforme (Dretske, 1981) entre a fonte e o receptor, expressando um padrão de
!
61!
organização conjugada dos sistemas. Devido à causa formal, em condições propícias o
padrão de ordem (ou seja, a informação) instanciada em um dos sistemas vem a ser
reproduzida no outro sistema.
O conceito de informação portanto incluiria não só - como proposto por Stonier
(1990) – um padrão de organização da energia nos sistemas físicos (e respectiva
distribuição de probabilidades dos estados destes sistemas), como também uma
propriedade fundamental da Natureza, até o momento não descrita ou explicada em
termos físicos, que consiste na transmissão legiforme de tal padrão de um para outro
sistema material.
A postulação da informação como aspecto fundamental da Natureza se baseia
nas seguintes considerações:
a) Da interação entre sistemas, se constituem processos nos quais a forma
presente em um deles (fonte) se transmite de modo legiforme a outro sistema (receptor);
b) Esta transmissão legiforme não decorreria apenas das propriedades físicas dos
sistemas, mas também de possibilidades da natureza que não são abordáveis com as
ferramentas da ciência física.
O aspecto informacional da natureza tem sido muito utilizado pelas inovações
tecnológicas, como a transmissão radiofônica e televisiva, a telefonia tradicional e a sem
fio, a computação, os sintetizadores utilizados na música eletrônica, etc., e também na
Biologia, ao se tentar entender os processos de sinalização que ocorrem no interior das
células e entre as células de um sistema vivo. Brillouin (1956), inspirado pela
semelhança da expressão matemática da entropia de Boltzmann e a expressão de
Shannon/Weaver para a informação transmitida entre uma fonte e um receptor, propôs a
identificação de informação e entropia negativa (neguentropia). No entanto, para
percorrer uma trajetória neguentrópica, é necessário para um sistema possuir
mecanismos adequados para absorver a energia livre do ambiente. Em sistemas
biológicos, a energia é absorvida, por exemplo, como matéria (alimento, tal como
glicose) ou quanta de luz, e incorporada pelas células sob a forma de compostos
orgânicos reduzidos e ATP, os quais são usados para compensar a tendência para o
aumento da entropia espontânea. Tal como indicado pela clássica análise de Szilard
(1929) a respeito da proposta do “Demônio de Maxwell”, este tipo de operação requer o
!
62!
uso de informação; esta categoria deveria, ao menos potencialmente, existir previamente
à operação do Demônio. Embora na origem da vida não houvesse um controle de tipo
cibernético sobre os processos constituintes da célula, o processo evolutivo posterior já
incorpora tal tipo de controle, exercido da informação nuclear para as proteínas, e destas
para os processos metabólicos. Isso significa que o processo de evolução biológica
inclui o aspecto informacional, incorporado nos processos energético-organizacionais
do sistema vivo.
Com a revolução das ciências da computação contemporânea, uma nova
possibilidade se afirma, a saber, a da existência, independente da mente consciente, de
processos informacionais, reprodutíveis em máquinas que operam de modo não
consciente (vide por exemplo a realização computacional do “Demônio de Maxwell em
Koski et al., 2015). Com base na Teoria da Computação de Turing, podemos conceber e
realizar máquinas as quais, a partir de um conjunto de regras programadas (que são
instanciadas nos seus circuitos eletrônicos), operam com termos lógico-matemáticos
fornecidos na entrada da máquina (que também são instanciados nos circuitos
eletrônicos), realizam computações (processamento da informação), e geram resultados
fornecidos na saída da máquina.
Com o conceito de “Máquina de Turing” e sua implementação física em
computadores, houve uma demonstração da possibilidade de processamento de sinais de
modo independente da consciência, o que foi majoritariamente interpretado, no âmbito
das ciências cognitivas, em termos da realização de uma “inteligência artificial”.
Entretanto, como alguns autores (por exemplo, Herbert Dreyfus) entendem a
informação como sendo necessariamente significativa e, portanto, dependente de uma
mente, tal processamento de sinais pelos computadores poderia ser interpretado como
sendo um processo puramente sintático, redutível a mecanismos físicos bem
conhecidos. Esta questão evidencia a necessidade de distinguir diferentes usos do termo
“informação”, como o conceito de “diferença que faz diferença”, atribuído a Gregory
Bateson.
As regras constituintes de um programa instalado em uma máquina processadora
de informação podem gerar grande número de trajetórias computacionais (isto é,
curvas), dependendo do sinal de entrada. Haveria um número praticamente infinito de
soluções para determinados tipos de sistemas de equações (por exemplo, em sistemas
!
63!
dinâmicos caóticos, equações recursivas cujas curvas conduzem a “atratores
estranhos”). Tais processos estabelecem uma dinâmica autônoma da informação, que
não dependeria de fatores ou estados de coisas externos, nem da ação de uma mente
consciente, para que atinja estados estáveis.
Muito se tem discutido a respeito do conceito de informação, mas acredito que
um bom exemplo valha mais que mil palavras. Tomemos como exemplo a transmissão
radiofônica da 5a. Sinfonia de Beethoven. Pode-se explicar, por meio da física, como se
formam ondas eletromagnéticas que carregam "no ar" a mensagem (música), inclusive
os mecanismos físicos ondulatórios que possibilitam a codificação da mensagem no
meio físico (a saber, modulação por frequência, amplitude e fase). Entretanto, a física é
totalmente inoperante para descrever ou explicar a 5a. Sinfonia. Mesmo se conhecendo
com detalhes todas as leis e princípios físicos, as condições iniciais e de contorno
(fronteiriças) da vida de Beethoven e de seu contexto histórico, não seria possível
deduzir a sinfonia. A música é um padrão informacional, uma forma no sentido
aristotélico, a qual, como já argumentado pelo estagirita, é um princípio fundamental da
realidade, que não se reduz à materialidade. Um padrão informacional musical pode ser
instanciado em diferentes meios de matéria/energia, como em papel e tinta (partitura),
em instrumentos musicais, discos de vinil, discos rígidos de computador, CDs, pen-
drives, etc. Não é a matéria/energia que caracteriza a música, mas sua forma dinâmica
ou padrão informacional.
O poder da informação se distingue dos poderes das demais causas, eficiente,
material e final; entretanto, não está completamente separado, pois a informação
necessita de uma força ou energia, por menor que seja, para desencadeamento do
processo no qual se transmite; precisa de substratos materiais nos quais seja atualizada;
e precisa de agentes que tenham interesse em utilizá-la, para atingir suas metas. Pereira
Jr. e Gonzalez (1995) discutiram a relação do conceito de informação com os conceitos
de organização e causalidade. A idéia de Stonier (1990) de que a informação
corresponde a um padrão de organização da matéria/energia é muito interessante, pois,
como mostraram diversos autores, dos quais Atlan (1976) se tornou o mais destacado,
estados de um determinado sistema que sejam muito redundantes ou muito caóticos
conteriam pouca informação significativa para um determinado receptor. Um estado
caótico conteria alto grau de complexidade algorítimica de Chaitin (1966), porém não
conteria padrões discerníveis por um receptor com capacidade limitada de
!
64!
processamento, como os seres humanos; já um estado redundante conteria uma
mensagem repetida inúmeras vezes na estrutura material, o que seria inútil para o
receptor, pois para que tal mensagem lhe provoque “uma diferença” bastaria que fosse
recebida uma vez.
Uma possível aproximação ao conceito de informação, como proposto por
Stonier (1990), seria que esta corresponde ao modo como a matéria ou a energia está
organizada, isto é, a informação seria um sinônimo para o conceito aristotélico de
forma. Esta proposta apresenta uma limitação, a saber, de se conceber a informação
como uma forma estática, que estaria encravada na matéria e ali encerrada. Ora, uma
das vantagens das tecnologias da informação contemporâneas é justamente a
possibilidade de processar a informação, de decompor suas unidades básicas (os bits)e
recompô-las, conforme nossos interesses. Os programas computacionais que criamos,
inclusive, fazem isso de modo independente de nossas mentes, de modo automatizado.
Logo, é preciso considerar as funções informacionais, os algoritmos de programação
dos computadores que transformam as formas; a informação seria dinâmica, não seria a
forma em si, mas o padrão invariante no processo de “trans-form-ação”.
Ao se considerar a informação como não sendo estática e sim dinâmica, surge o
problema de distingui-la das formas de causalidade referidas na física moderna. As
relações causais também são dinâmicas, uma vez que as causas geram efeitos que
trazem consigo transformações em um determinado sistema. Vimos que Aristóteles já
considerava a existência de uma “causa formal”. O problema seria então de distinguir a
informação das outras causas, como discutido na seção anterior. Para marcar a diferença
entre a informação e o conceito de causalidade utilizado na ciência moderna, Pereira Jr.
e Gonzalez (1995) propuseram que a relação informacional entre dois sistemas
constituiria uma “causalidade de segunda ordem”, no sentido de que na transmissão de
informação entre dois ou mais sistemas o padrão de informação presente em um sistema
não seria a causa geratriz da ação deste sistema sobre um outro sistema, mas
determinaria o padrão que se forma no segundo sistema. Em termos aristotélicos, isso
significaria que a causa formal atua de modo diferente das causas eficiente e material,
não determinando a ação de um sistema sobre outro, mas determinando a forma que o
segundo sistema vem a assumir caso a ação venha a acontecer.
!
65!
A irredutibilidade do segundo aspecto ao primeiro depende, sem dúvidas, dos
conceitos utilizados para caracterizar cada um. Como discutido em Pereira Jr (2013), na
abordagem interdisciplinar entendemos como “propriedades físicas” aquelas
propriedades referenciadas pelos predicados utilizados nas teorias científicas da grande
área da Física (incluindo domínios da Química, Biologia, Sociologia, Economia, ou
seja, todos os conteúdos científicos que possam ser adequadamente abordados com as
ferramentas da Física Matemática). Neste sentido, por exemplo, elementos que
compõem o fenômeno musical podem ser abordados pela Física, mas as explicações
propiciadas por esta abordagem são incompletas frente a dimensões intrínsecas ao
fenômeno musical, como aspectos de melodia, harmonia e ritmo, os quais não resultam
de relações puramente físicas, mas de processos igualmente naturais que não são objeto
de estudo destas disciplinas. Por exemplo, a origem do padrão rítmico sincopado do
samba não seria explicável com base em todas as teorias físicas existentes, mesmo
considerando-se com hipotética exatidão todas as condições iniciais e de contorno
historicamente vigentes, pois tal explicação teria que, dentre outras exigências, levar em
conta o sentimento que tal padrão musical provoca nas pessoas. Como os sentimentos
pertencem a uma categoria conceitual distinta da Física, os esforços no sentido de sua
explicação física seriam fadados ao fracasso.
A tentativa dos materialistas eliminativistas (como nos trabalhos de Paul e
Patrícia Churchland, na década de 1980) de desqualificar os conceitos formulados na
perspectiva de primeira pessoa, considerando-os como pertencentes à psicologia popular
e em vias de serem corrigidos pela psicologia científica, ao que tudo indica (pela
ausência de resultados) fracassou, pois o problema não é meramente terminológico.
Temos argumentado (Pereira Jr., 2001) que o problema da irredutibilidade é de natureza
instrumental e/ou experimental. No caso em questão, são as ferramentas da pesquisa
empírica que não possibilitam a mensuração de estados conscientes. Na metodologia da
ciência da consciência, é indispensável contar com relatos verbais (por meio de métodos
“qualitativos”, como entrevistas) ou não-verbais (tarefasexecutadas ao computador)
para se ter acesso a dados (supostos como verídicos) a respeito dos estados conscientes
de outras pessoas. Estes relatos são comparados com medidas fisiológicas e
comportamentais, para estabelecer correspondências psicofísicas com valor
explanatório.
!
66!
No MTA, uma “interação de sistemas físicos” não seria meramente uma
“interação de partes materiais”, mas uma combinatória de potencialidades, algumas já
atualizadas e outras em potencial. Da interação entre tais potencialidades, novas
combinações se atualizam, e determinadas combinações que haviam se atualizado se
extinguem. Uma justificativa para esta hipótese filosófica pode ser encontrada com o
uso da ferramenta do espaço de estados, concebidos em termos conjuntistas, como
tratado no capítulo 3 deste livro. Quando dois sistemas interagem, o espaço de estados
resultante não se reduz à soma dos espaços de estados dos sistemas individuais, mas
corresponde ao produto dos mesmos. Quando há interação entre sistemas, emergem
novas combinações de possibilidades, até então inéditas. Portanto, o conceito de
informação inclui uma propriedade de segunda ordem, até o momento não descrita ou
explicada em termos físicos, que consiste em transmissão fidedigna de formas de um
para outro sistema material (o que chamamos de “causalidade de segunda ordem” em
Pereira Jr. e Gonzalez, 1995).
Mesmo se a física for reformulada, tomando-se a informação como conceito
fundamental, não está claro como o conceito de matéria/energia poderia ser reduzido ao
conceito de informação, assim como não está claro como o conceito de informação
poderia ser reduzirido ao conceito de matéria/energia. Tendo em vista esta dificuldade
conceitual, consideramos ser mais prudente assumir que ambos os conceitos são
fundamentais, ou seja, irredutíveis uns aos outros.
Cap. 6 - O Terceiro Aspecto
O estudo da consciência em sua integralidade, na perspectiva da Psicologia,
Neurociência e áreas afins, requer uma abordagem biopsicossocial, como defendido, por
exemplo, por Engel (1977). O componente psicológico do triângulo biopsicossocial, por
sua vez, se desdobra no triângulo agir-conhecer-sentir, em referência a três tipos de
análise por meio das quais se pode abordar os fenômenos mentais: a análise do
comportamento, dos processos cognitivos e dos processos afetivos.
Após o período de predomínio do behaviorismo, muitos cientistas e filósofos
reconheceram a realidade dos processos cognitivos, mas poucos reconheceram os
processos afetivos enquanto afetivos (ou seja, sem os reduzir aos cognitivos ou aos
!
67!
comportamentais; vide discussão em Harnad, 2011). Tal preferência dos cientistas e
filósofos pelas atividades comportamentais e cognitivas, em detrimento das afetivas,
deixa de lado aquela que talvez seja a experiência mais importante para a maioria das
pessoas: o sentir. Os sentimentos são, por outro lado, bastante enfatizados e valorizados
em outras práticas sociais, como as relações pessoais (presenciais ou virtuais), a arte, a
religião e o esporte.
Como a filosofia é uma prática linguística de análise de conceitos, e como os
sentimentos são experiências vividas de primeira pessoa para as quais muitas vezes não
há uma linguagem que possibilite falar a seu respeito, pode-se facilmente compreender
a dificuldade dos filósofos e psicólogos frente a este tema. Harnad (2011) chega a
conjecturar sobre a impossibilidade de uma ciência dos sentimentos, o que constituiria,
em sua análise, o cerne do “Problema Difícil” formulado por Chalmers (1995).
Pesquisas na área de Neurociência Afetiva (ALMADA et al., 2013), juntamente
com descobertas relevantes para a Psiquiatria, particularmente a descoberta da
participação de células gliais em funções mentais (levando à formulação de novos
modelos da atividade cerebral), possibilitam novas elaborações filosóficas sobre o
conceito de consciência. Enquanto a tradição filosófica ocidental concebeu a
consciência como processo de pensamento (concepção que tem sua expressão máxima
na substância pensante de Descartes), no qual se configura um Eu cognitivo,
abordagens biológicas e médicas apontam no sentido da primazia do sentir. Por
exemplo, na área de anestesiologia, um critério central utilizado para se aferir a abolição
temporária da consciência é não se sentir dor. Contudo, a tese da construção da
identidade do Eu por sua história sentimental (PEREIRA JR., 2013) não exclui a
relevância dos processos cognitivos na vida mental de um sistema consciente.
Para o MTA os processos cognitivos, nos quais objetos e processos são
mapeados ou representados por meio de signos - incluindo suas dimensões sintática e
semântica formal - são condição necessária mas não suficiente para a consciência. Estes
processos podem ocorrer de modo inteiramente inconsciente, como na operação de um
computador digital. Os sentimentos emergem a partir de processos cognitivos, quando
os conteúdos da informação são sentidos, e se tornam conscientes. Há uma continuidade
entre a recepção da informação pelos sistemas cognitivos, a atribuição de significados
experienciais e a instanciação de sentimentos, os quais, segundo o MTA,
!
68!
corresponderiam a um “feedback” global da informação (considerada em suas
dimensões sintática e semântica) sobre a estrutura material de um sistema. Neste
sentido, haveria uma identificação dos sentimentos com processos afetivos, no sentido
literal da expressão. Máquinas incapazes de serem afetadas em suas operações
materiais/energéticas pela informação que processam não poderiam ser consideradas
como sendo conscientes (Pereira Jr., 2013). O terceiro aspecto se atualiza quando um
sistema sente a mensagem contida nas informações que processa. O sentimento da
informação (ou "sentimento do que acontece", título do livro de Damásio, 2000)
caracteriza o estado consciente; neste estado, a informação afeta a estrutura física do
sistema de uma forma global, como no processo de difusão - "broadcasting"" - na teoria
do Espaço de Trabalho Global de Baars (1988); uma diferença é que esta teoria é
cognitivista, enquanto o MTA identifica o sentir como a marca de consciência.
A consciência emerge quando a informação retroage sobre a matéria/energia,
produzindo um sentimento. Para descrever tal retroação, não usamos o termo “causação
descendente”, pois entendemos que o conceito de causação só se aplica a processos
físicos, ou seja, processos nos quais tanto as causas como os efeitos são físicos; essa
medida preserva o “fechamento causal” (Kim, 1998) do mundo físico, evitando uma
série de problemas filosóficos. A consciência emerge quando o processamento da
informação “afeta” a estrutura do sistema, ou seja, produz de um efeito corporal por
meio de uma similaridade de formas dinâmicas estabelecida no processo evolutivo. Por
exemplo, recebo uma notícia que interpreto como sendo triste, e então choro. O choro é
um processo físico resultante do processo informacional. A relação entre expressão da
tristeza e choro consiste em uma similaridade enativa, isto é, o movimento das lágrimas
de dentro para fora evoca o sentimento de tristeza, no qual a satisfação existencial se
esvai.
Uma justificação científica para tal hipótese filosófica estaria na identificação de
um sistema cerebral e/ou corporal que tivesse justamente a função de instanciar os
sentimentos, fazendo a ligação entre os processos cognitivos (nos quais a informação é
processada) e os processos emocionais, em que o corpo é afetado pelo conteúdo da
informação sendo processada. Deste modo, a recente descoberta da modulação de
processos cognitivos e fisiológicos pelas ondas de cálcio que se formam na rede
astrocitária (Pereira Jr. e Furlan, 2010) parece oferecer suporte indutivo à hipótese
filosófica levantada.
!
69!
Os sentimentos ocorrem de duas maneiras (Pereira Jr., 2013): primeiro, quando
o conteúdo da informação gera uma reação afetiva no sistema, por exemplo, a notícia da
morte de uma pessoa querida produz um sentimento de tristeza e reações emocionais,
como o choro; segundo, quando uma lesão ou desconforto no sistema produz uma
sensação/sentimento, por exemplo quando um sinal indicador de falta de água no
organismo (o aumento de sódio na circulação sanguínea) gera uma sensação/sentimento
de sede. A existência de consciência dependeria de interações dos aspectos físico-
químico-biológicos e informacionais, de modo que o conteúdo da informação afete a
estrutura física do sistema, e determinadas alterações da estrutura física alterem o
processamento de informação. Para que tais processos, que chamamos de "afetivos",
ocorram, é preciso que o sistema possua um mecanismo de tipo “ordem por flutuações”
(Nicolis e Prigogine, 1989), no qual variações de energia e padrões de informação (ou
seja, “diferenças que fazem diferenças” no âmbito das sinalizações do sistema) sejam de
intercambiáveis de um modo coerente. Tal mecanismo (que discutiremos ao final deste
capítulo e no caítulo seguinte) seria constituído por correntes e ondas hidro-iônicas
(especialmente do íon cálcio, que desempenha funções essenciais nos sistemas vivos).
As ondas mais críticas para o fenômeno da consciência se situam na rede astrocitária,
sendo induzidas por campos eletromagnéticos gerados pelos neurônios. Este mecanismo
se atualiza progressivamente na filogenia, tendo atingido maior grau de complexidade e
especialização na espécie humana (Oberheim et al., 2006; Oberheim et al., 2009).
Apesar da evidente dificuldade de conceituação dos sentimentos, não se pode
dizer que o tema esteja ausente da história da filosofia ocidental. Na clássica definição
de “conhecimento” por Platão, um dos três pilares seria a “crença”, a qual pode ser
entendida como um sentimento mental (isto é, não como uma sensação corporal) a
respeito de uma ideia ou grupo de ideias. Aqui já se manifesta o reconhecimento de uma
subjetividade, desde que amparada pela razão – o que fica evidente nos dois outros
pilares do conhecimento, a verdade (entendida como referência às ideias em si mesmas,
e não a suas aparências enganosas) e a justificabilidade (entendida como a capacidade
de defesa argumentativa das proposições enunciadas). Em Aristóteles, o traço de
subjetividade se desloca da dimensão lógico-epistêmica para a dimensão ética. É na
Ética que o valor dos sentimentos é reconhecido, desde que temperado pela virtude da
moderação. Com os epicuristas, no período helênico, os sentimentos corporais são
!
70!
valorizados, sem os limites da virtude aristotélica, o que aparentemente os levou a uma
orientação existencial avessa à própria elaboração filosófica.
Atesta a filosofia de Espinosa que a valorização dos sentimentos corporais não
seria contraditória com a construção de uma filosofia capaz de dar conta da totalidade
da realidade (Lima e Pereira Jr., 2008). Sua Ética pode ser interpretada como uma
demonstração de que os sentimentos não seriam fenômenos puramente aparentes, mas
poderiam ser ancorados na realidade fundamental – que, para ele, seria divina. A
filosofia moderna se constrói na contramão de Espinosa, procurando enfocar – tanto nas
correntes empiristas quanto nas racionalistas – o processo de construção do
conhecimento do tipo científico. O sentimento “subjetivo” é considerado como
obstáculo ao método científico, devendo ser substituído, como guia da vida humana,
pelos métodos lógicos e experimentais “objetivos”, o que vai naturalmente conduzir ao
Empirismo Lógico do início do Séc. XX.
Enquanto Kant se limitou, na Crítica da Razão Pura, a uma abordagem
cognitivista do Eu consciente, Hegel introduz, na Fenomenologia do Espírito, o
conceito contemporâneo de consciência, que ultrapassa o plano do entendimento
abstrato e se norteia por um “desejo” voltado para a vida social. Essa seria a origem do
conceito de consciência utilizado por Marx e Engels (2007), e posteriormente elaborado
como “consciência de classe” por Gyorgy Lukács. Curiosamente, ao ressaltar a
dimensão social da consciência, todos estes autores deixam os sentimentos em segundo
plano, como se fossem epifenômenos puramente subjetivos. Para Hegel, a filosofia,
como porta-voz da Razão, teria ascendência sobre as práticas culturais que lidam com
os sentimentos, como a arte e a religião (vide discussão em Pereira Jr., 1986). Em Marx,
a posição de classe relativamente ao modo de produção da existência social seria
determinante da consciência individual.
As reações ao cognitivismo dominante no período moderno são esporádicas,
podendo-se mencionar Kierkegaard, Schopenhauer e Nietzsche como exemplos de
filósofos descontentes com aquela tendência. O primeiro procurou elaborar uma teoria
dos sentimentos no âmbito da religião (resgatando a primazia da fé sobre a razão, como
preconizado por Santo Agostinho), enquanto os dois últimos sugerem que seus
antecessores racionalistas não teriam compreendido os motivos mais profundos que
ancoram a vida humana. Este movimento culmina com Freud, que resgata as emoções
!
71!
como constituintes da mente inconsciente, a qual muitas vezes predominaria sobre a
mente consciente na condução da vida.
Ainda no início do Séc. XX, podemos encontrar uma valorização dos
sentimentos em pensadores que tinham em comum a perspectiva evolucionista de
Charles Darwin, possibilitando um entendimento do papel das emoções no
comportamento animal e suas possíveis influências no processo evolutivo. Peirce, em
uma perspectiva idealista objetiva, considera o sentimento (feeling) como primeiridade
dada na natureza, a partir da qual se elaboram os processos cognitivos (isto é, processos
de semeiosis). Em Baldwin (1986), a partir dos estudos de Darwin sobre as emoções nos
animais, encontramos uma concepção hedonista e pragmática da consciência, a qual,
segundo este autor, teria surgido e se desenvolvido como guia para a ação adaptativa, a
partir das sensações de prazer e dor. Em Whitehead (1929) encontramos uma extensa
teorização sobre os sentimentos (feelings), em que se procura – assim como Espinosa –
inseri-los no plano ontológico, culminando em uma filosofia de cunho panpsiquista.
Whitehead e Peirce são idealistas objetivos de linhagem platônica; entretanto, pode-se
combinar a parte de verdade do realismo materialista (ou fisicalista) com a parte de
verdade do idealismo objetivo, postulando-se diferentes aspectos de uma mesma
realidade; este é o raciocínio que conduz aos monismos de múltiplo aspecto. Esta
estratégia havia sido antecipada por Aristóteles, para quem "o ser se diz de diferentes
maneiras", incluindo em sua predicação tanto a parte de verdade dos materialistas pré-
socráticos (a existência da matéria) quanto a parte de verdade dos platônicos (a
existência da Ideia, entendida como forma).
A expressão “what it is like to be” usada por Nagel (1974) possivelmente seria a
mais apropriada para se referir ao domínio próprio à consciência, a chamada
“perspectiva de primeira pessoa”. Entretanto, esta expressão não é usada na linguagem
popular, enquanto os termos “sentir” e “sentimento” são frequentemente usados.
Sugerimos, portanto, o uso de “sentimento” como abreviação para “what it is like to
be”. Quando Nagel pergunta “what it is like to be a bat?”, ele quer saber como os
morcegos se sentem - e como sentem o seu mundo percebido.
Tradicionalmente, e mesmo no âmbito neurocientífico, o conceito de sentimento
(feeling) está intimamente relacionado com o conceito de emoção. O termo "emoção"
tem sido utilizado em neurociência para descrever uma ampla gama de fenômenos,
!
72!
desde os sentimentos subjetivos até os processos fisiológicos e comportamentais
mensuráveis. Ela pode ser desencadeada por sentimentos conscientes, mas também pode
existir sem tais sentimentos. Segundo Damásio (2000), as emoções são processos psico-
fisiológicos, relacionados com o estado do corpo por meio de marcadores somáticos,
enquanto os sentimentos são estados mentais experimentados a partir da perspectiva de
primeira pessoa. Os correlatos cerebrais das emoções e dos sentimentos se sobrepõem
parcialmente, mas não são idênticos. Segundo Scaruffi (2000), para o neurocientista
português: "um sentimento é uma representação mental do estado do corpo do sujeito
consciente, a percepção do estado do corpo, ao passo que a emoção é uma reação a um
estímulo e o respectivo comportamento associado (por exemplo, uma expressão facial).
Assim, o sentimento é o reconhecimento de que um evento está acontecendo, enquanto
que a emoção é o efeito visível da mesma. As emoções são corporais, enquanto os
sentimentos são mentais. As emoções são uma resposta automática. Eles não precisam
de qualquer pensamento. Eles são o mecanismo fundamental para a regulação da vida.
Emoções precedem sentimentos, e são as bases para os sentimentos" (Scaruffi, 2000).
No MTA, o conceito de sentimento não coincide exatamente com o de Damásio,
ainda que este autor tenha sido uma fonte original de inspiração. Para o MTA os
sentimentos não seriam propriamente representações de estados somáticos, mas
experiências vividas desencadeadas pela recepção dos sinais a respeito desses estados.
Decerto a experiência vivida também pode servir como um “marcador” que sinaliza
para o cérebro, possibilitando ao organismo evitar determinados comportamentos; por
exemplo, o sentimento de dor tem valor adaptativo ao contribuir para se prevenir a
distensão de um músculo lesionado. No entanto, a sensação de dor não é uma
representação da lesão, uma vez que sua função não é informar sobre os danos do
tecido, e sim prevenir ações que agravem o dano. Além do mais, a dor pode ser sentida
mesmo quando não existe uma lesão real (por exemplo, em determinados casos de dor
crônica).
Damásio (2000) também sustenta que os sentimentos podem ser inconscientes,
mas não há suporte fenomenológico para esta suposição. Conceitualmente, se os
sentimentos são as experiências subjetivas a partir da perspectiva de primeira pessoa,
eles não podem ser inconscientes, porque esta perspectiva é própria à experiência
consciente. “Aquilo que acontece” (o “what happens” do título do livro de Damásio,
2000), ou seja, um evento, é transportado para nosso cérebro por meio de sinais
!
73!
informacionais, e nosso cérebro (juntamente com a totalidade de nosso corpo, em
interação com o ambiente físico e social) interpreta o significado da informação e reage
ao conteúdo da mesma com um sentimento. O agregado de informações que é
“iluminado” pelo sentimento se torna consciente, enquanto os sinais restantes que
perambulam pelo cérebro permanecem inconscientes. Deste modo, os processos
conscientes abarcam apenas uma parte da informação inconsciente, ou seja, aquela parte
que cujo conteúdo é sentido (Figura 8).
Figura 8: Processos Cognitivos e Conscientes: Os processos conscientes consistem na
fração (iluminada em amarelo) de processos cognitivos que são acompanhados de
sentimentos. Esse diagrama deve ser interpretado como tendo três dimensões. O
subconjunto em amarelo ressalta do plano formado pelo conjunto maior.
Uma visualização mais completa da extensão dos conceitos de sentimento,
emoção, cognição e processos físicos pode ser obtida pelo novo diagrama abaixo
(Figura 9). Embora o diagrama esteja representado em duas dimensões, sua intepretação
correta seria em três dimensões, pois todos os subconjuntos do conjunto maior
(processos físicos) ressaltam ortogonalmente do plano, uma vez