ChapterPDF Available

Reflexoes Bioeticas na Era da Inteligencia Artificial. / Bioethical Reflections in the Era of Artificial Intelligence

Abstract

Ensaio sobre as aplicacoes da inteligencia artificial, perspectivas e criticas bioeticas.
NASCIMENTO, E. C. C. Reflexoes Bioeticas na Era da Inteligencia Artificial. / Bioethical
Reflections in the Era of Artificial Intelligence.
In: Caminhos da Bioetica. (ed. CASTRO, J.C. & NIEMAYER-GUIMARAES, M.
Editora Unifeso. p. 345-362, 2019. Disponivel em
https://www.unifeso.edu.br/editora/pdf/694df6505dd21a75bd4ebff29891beb0.pdf
Reflexões Bioéticas na Era da Inteligência Artificial
Elen C. Carvalho Nascimento1
Introdução
“O ‘tornar-se máquina’ é um eixo transformador que abre a divisão entre humanos e
circuitos tecnológicos, introduzindo bio-relações tecnologicamente mediadas como a
base de constituição do sujeito.” (BRAIDOTTI, 2013. Tradução da autora)2
Figura I: Robôs Sexuais, Fonte (NICHOLS, 2017)3
A emergência de novas tecnologias e a sua disponibilidade para um número cada vez maior
de pessoas em todo planeta tem sugerido que estamos diante de uma nova condição humana,
considerando-se as modificações no corpo biológico humano, através de dispositivos físicos, como
1 Membro do BraiNNIAC, rede interdisciplinar de pesquisa dedicada à investigação científica e às atividades de ensino
extensão nas áreas de Nanotecnologia, Neurociências, Inteligência Artificial e Cognição (UFV); Doutoranda do
PPGBIOS (Programa de Pós-Graduação em Bioética, Ética Aplicada e Saúde Coletiva) e Research Visitor na Monash
University pelo Programa PDSE-CAPES é Mestre em Design Pela Puc-Rio e Bacharel e Licenciada em Ciências
Sociais pela UFF.
2“The becoming-machine axis cracks open the division between humans and technological circuits, introducing bio-
technologically mediated relations as foundational for the constituition the subject.” (BRAIDOTTI, 2013. p.67)
3 NICHOLS, Greg. Sex robot molested, destroyed at electronics show: The past year has seen a proliferation of sex
robots, with plenty of accompanying controversy. ZDNet, 2 Out 2017. Disponível
em :<https://www.zdnet.com/article/sex-robot-molested-destroyed-at- electronics-show/>.
órgãos artificiais e implantes, até, em um sentido mais amplo, a relação de co-dependência
estabelecida com objetos técnicos tais como um simples telefone celular.
O corpo humano vem se reorganizando através de dispositivos utilizados para fins de
monitoramento em condições de saúde que exigem atenção, como o uso de implantes
contraceptivos, marca-passos, braços, mãos e pernas biônicas. A era ciborgue4 surpreende quando os
questionamentos sobre o corpo biológico atravessam a identidade do que é o humano e, assim
surgem os que se denominam biohackers, implantando chips eletrônicos no corpo e os “amputados
por escolha”, que preferem pernas biônicas às de carne e osso.
A primeira questão colocada para refletir a emergência destes fenômenos é entender como se
dá a relação humano-máquina, ou na terminologia atual, a interação humano-computador, desde uma
perspectiva onde natureza e cultura ocupam o mesmo corpo, um corpo que racionaliza na mesma
medida que sente, um corpo que não somente é modificado pela natureza, como também o é pela sua
cultura.
O corpo atravessado pelas tecnologias de fibra ótica, ondas eletromagnéticas, ruídos
constantes provenientes das centenas de dispositivos permanentemente ligados no seu entorno, ainda
carece de respostas em territórios onde a ciência não tem ainda o conhecimento total para a
compreensão da matéria em seu nível subatômico. Sendo assim, o entendimento sobre o impacto das
tecnologias no corpo físico é ainda inconclusivo.
A Inteligência Artificial (IA) é um tema amplo que dialoga com diversos campos do
conhecimento, da computação à filosofia, da linguística à neurociência.
A começar pelo entendimento do que é inteligência e o que é artificial, desde que são
definições ancoradas na epistemologia moderna, que não atendem os questionamentos do
pensamento contemporâneo.
Inteligência, dentro da concepção cartesiana, é a definição do que se entende por
racionalidade, seria a capacidade exclusiva humana de pensar, planejar, aprender, estabelecer
conexões lógicas e criar. Embora a ciência contemporânea tenha produzido uma série de evidências
que enfraquecem a visão antropocêntrica de mundo, que crê ser esta capacidade exclusivamente
humana, ela é ainda hegemônica e a base do conhecimento que inspira e conduz, em metodologia, os
mais variados projetos científicos.
As evidências científicas de que não apenas humanos possuem capacidades de pensar,
organizar conhecimento, aprender, e assim por diante5, não foram ainda suficientes para mudar a
influência que o pensamento moderno tem no modo de organizar e produzir conhecimento. Neste
4 “Um ciborgue é um organismo cibernético, um híbrido de máquina e organismo, uma criatura de realidade social e
também uma criatura de ficção.” (HARAWAY, 2000)
5 Para uma critica de uma biologia tradicional que produziu evidências científicas baseada no antropocentrismo,
machismo, racismo e especismo, ver Haraway (1991).
contexto, a “Inteligência Artificial” é uma obra em construção, que busca ser a imagem e
semelhança do que se entende por inteligência humana. O maior desafio da IA é fazer com que um
programa computacional consiga reproduzir a consciência, esta sim, um tema de estudo na
Neurociência, pode ser considerada uma propriedade exclusivamente humana, mas apenas se
levarmos em consideração que sua definição está demarcada pela compreensão e respostas da mente
a símbolos, significados, linguagens, referentes à cultura onde esta mente está inserida6. Para os que
reivindicam ser a consciência um atributo geral do existir, ela então não será exclusivamente
humana, desde que não nos é possível conhecer todas as formas de linguagem e homeostase que
outros seres produzem de modo a estarem presentes no ambiente.
Inteligência Artificial
“Os computadores são criações da nossa mente, mas se pudessem se reproduzir e
se desenvolver com autonomia, poderiam ganhar vantagem sobre nós na luta pela
sobrevivência, livres dos limites biológicos da seleção natural.” (ROSA, 2018)
Com a pergunta “Podem as maquinas pensar?” o matemático Alan Turing propôs o ‘jogo da
imitação’7 demonstrando que, porque nós humanos nos organizamos por convenções, categorias,
padrões, é possivel fazer com que a máquina simule estar pensando, em um jogo de perguntas e
respostas. Ele argumenta que também os humanos simulam (ou podem simular), através de
comportamentos, ser o que não são. Ou seja, que é possivel simular inteligência, assim como
seriedade, elegância, entre tantas categorias de classificação, através das respostas certas e dos
elementos combinatórios a estas respostas.
Sendo assim, a pergunta “podem as máquinas pensar?”, se volta para o problema: como
pensam os humanos? A pergunta leva para a questão não menos emblemática, que é a do
entendimento da consciência: o que faz humanos organizarem o mundo em imagens, símbolos,
conceitos, regras, de modo a lhes dar a consciência dos eventos vividos e lhes preparar para as
respostas e ações que precisam tomar ao longo da vida?
As máquinas são concebidas e fabricadas a partir de uma ideia sobre o que se espera delas,
assim como os códigos computacionais são programados para atender determinadas tarefas.
Façamos então um teste que exemplifica o ‘estado da arte’ da IA atualmente: recorro ao
telefone celular, e pergunto Siri8 o que é Inteligência Artificial. Sua voz responde, na linguagem e
6 Neste caso, a definição de consciência baseia-se nos estudos de Damasio (2015).
7 TURING, Alan M. Computing machinery and intelligence. Mind, v. 59, n. 236, 1950. Disponível em:
<https://www.csee.umbc.edu/courses/471/papers/turing.pdf>.
8 Siri é a IA, assistente virtual da Apple, que proporciona ao usuário comunicar-se por voz e solicitar auxílio para abrir
qualquer informação presente no dispositivo: agenda, aplicativos, enviar mensagens, pesquisar na web, entre outros.
timbre que elegi nas configurações, com a opção de abrir a página da Wiki sobre o assunto. Ela me
informa que IA é a inteligência da máquina que procura imitar o atributo cognitivo da inteligência
humana. Apenas esta breve definição pode nos levar à pergunta sobre qual conceito
trabalharemos para compreender o que é inteligência, e o que constitui o humano.
Consideremos portanto:
1.1 Que a ideia de que as máquinas podem pensar como humanos vêm sendo debatida
mais de meio século, desde a notável contribuição do cientista da computação Alan
Turing ;
1.2 Que, se a própria definição de inteligência não é concensual, elegemos a definição
que a resume como uma capacidade biopsicossocial de processar informação, solucionar
problemas e criar produtos de valor para a cultura;
1.3 Que, se o que era considerado inteligência artificial cinco anos atrás hoje é apenas
visto como operações mais arrojadas de cálculos estatísticos, é porque trata-se de um
campo de pesquisa que avança rapidamente, sendo um alvo em movimento onde a
interpretação se sobrepõe à definição9.
Todavia, os pesquisadores vêm se empenhando em categorizar os tipos de IA10, fato que
proporciona melhor entendimento de suas funções, aplicações e metas de desenvolvimento. As
figuras disponíveis no Apêndice demonstram os estágios de desenvolvimento dentro de uma
perspectiva temporal (“Figure 1”), os tipos de sistema de acordo com os seus atributos (“Figure 2”),
e as aplicações dos modelos de IA de acordo com a “clientela” (“Table 1”), ou seja, o que a IA pode
oferecer para instituições, tais quais Universidades ou órgãos governamentais, e para as empresas
privadas.
Considerando-se como de primeira geração, a “inteligência artificial estreita” (ANI),
voltada para tarefas específicas, que podem ir da identificação facial aos veículos autônomos,
possui um amplo alcance, sendo praticamente ubíqua; classificada como de segunda geração, a
“inteligência artificial geral” (AGI) é voltada para o planejamento e solução de problemas de
maneira autônoma. E, finalmente, a terceira geração, a “inteligência artificial avançada” (ASI), é
um plano que até o presente momento está apenas concretizado em obras de ficção científica,
sendo esta uma “super inteligência” dotada de atributos cognitivos humanos.
9AI is itself a moving target and more an issue of interpretation than definition.” (ANDREAS KAPLAN, 2018)
10 As definições de IA podem ser separadas entre “IA Forte” e “IA Fraca”, enquanto mais recentemente estão sendo
utilizadas também as nomenclaturas apresentadas neste texto.
Devido ao vasto campo de aplicação para os sistemas computacionais, onde se busca
acoplar processos de aprendizado de máquina, seja para aprimorar ou facilitar o uso das
tecnologias, não existe um parecer ético único sobre a IA, mas sim um debate aberto sobre sua
eficiência e possíveis consequências, a depender do seu campo de atuação.
Desse modo, enquanto para os humanos, valores e emoções possam muitas vezes conflitar,
a IA responderá a partir do seu aprendizado de máquina e dos dados disponíveis, assim como a
partir do que foi priorizado no modelo, como valor, conceito e entendimento, camada por camada,
na arquitetura do código computacional. Toda informação embutida no aprendizado da IA irá
compor seus processos decisórios e, dentro da concepção de racionalidade moderna, ausência de
emoção é uma “vantagem competitiva” quando a meta ideal é uma razão pura, livre de influências
egoístas ou altruístas, em suma, uma mente livre das distrações do corpo.
Exemplificando: um drone programado para soltar bombas em território de guerra, pode
decidir não fazê-lo por ter acesso à uma ampla base de dados que informa, em segundos, que
determinada área é residêncial, com crianças, idosos, etc. Um soldado, em situação de estresse
tanto poderia não ter condições de acessar tais informações, como também poderia não se
importar. Se a máquina está programada para atender requisitos éticos e legais será eficiente em
salvar vidas, mas, caso não exista este valor programado no código, o soldado, por outro lado,
poderá, por sentimentos de empatia, poupar vidas. Este é um exemplo de situação-limite, porém,
considerando-se parâmetros éticos baseados em direitos humanos universais, milhares de cientistas
no mundo vêm se colocando contra programar uma IA para matar, ou seja, contra a produção de
máquinas de guerra11 dotadas de tecnologia de ponta, que são fontes de pesquisa estimuladas
para o melhoramento da qualidade de vida humana, e não o contrário. Em outras palavras, se
nanorobôs são projetados para realizarem operações cirúrgicas delicadas e solucionar problemas
de saúde, não é aceitável que esta mesma tecnologia seja adaptada em outro contexto, para
perseguir e matar pessoas utilizando dados de reconhecimento facial e GPS, por exemplo.
Na área da saúde, os modelos preditivos de IA são comumente vistos com um entusiasmo
que ofusca as imprecisões e problemas advindos12, não apenas por carências técnicas (ter os
conhecimentos e soluções disponíveis para cumprir as metas), ou logísticas (dispor dos materiais e
informações necessárias), mas, também, quanto à qualidade da informação e seus conteúdos
estarem, ou não, cumprindo com os parâmetros aceitáveis para predições acuradas. Estas são
11 SAMPLE, Ian. Thousands of leading AI researchers sign pledge against killer robots. The Guardian, 18 Jul 2018.
Disponível em: <https://www.theguardian.com/science/2018/jul/18/thousands-of-scientists-pledge-not-to- help-build-
killer-ai-robots>.
12 MALVAR, Rico. Inteligência Artificial na Saúde Irá Muito Além de Robôs. Uol Tecnologia, 1 Out 2018.
Disponível em: <https://noticias.uol.com.br/tecnologia/colunas/rico- malvar/2018/10/01/inteligencia-artificial-na-saude-
ira-muito-alem-de-robos.htm>.
questões que agora passam a ser revistas com novas leis de proteção relacionadas ao uso de dados,
fatos que têm se tornado tema de debates entre pesquisadores europeus, resultando em relatórios
como “Quando os Computadores Decidem”, onde são levantadas considerações técnicas, éticas,
legais, econômicas, sociais sobre o tema, indicando a necessidade de uma educação
interdisciplinar e do fomento à pesquisa que venha a contribuir com formação de bases de dados
colhidos dentro dos parâmetros éticos estabelecidos pela comunidade13.
Quando se avalia um modelo preditivo, o problema está precisamente no que vai ser
entendido como uma “representação cognitiva do mundo”, no caso, por exemplo, de uma IA
Analítica14. Um sistema especialista para detectar fraude em uma operação financeira poderá ser
eficiente e não apresentar problemas éticos, enquanto um reconhecimento de imagens envolvendo
humanos poderá ser suscetível a erros e preconceitos que poderão impactar e causar danos. Com a
adição da “inteligência emocional” à IA15, esta poderá auxiliar estudantes com problemas, no plano
educacional, mas poderá também causar transtornos jurídicos se existir uma correlação entre
determinada emoção e a propensão em cometer um crime, por exemplo. Não apenas isto, mas para
detectar que o estudante “está com problemas” é necessário um monitoramento contínuo, que se dará
principalmente através de reconhecimento facial nas câmeras de segurança da instituição. Neste caso
dois problemas se apresentam de imediato: é correto promover este monitoramento contínuo, ou é
uma invasão de privacidade? E o segundo problema é: e se houver falhas na interpretação, quais são
as consequências e para quem?
Quanto mais “humanizada” a IA, mais se torna necessário entender o humano: como, por
exemplo, se organizam as categorias de tipos psíquicos? É ético que uma IA separe pessoas de
acordo com estereótipos pré-definidos, ou isto pode fazer com que as pessoas venham a sofrer por
estarem sendo adequadas a um conjunto de informações definidas por (pré) conceitos? O estudo da
IA e suas implicações éticas, vêm portanto fazer refletir sobre os aspectos mais profundos sobre o
caráter preditivo que define a consciência humana, sendo o cérebro um hardware potente e a mente
um software que funciona em rede de trocas contínuas de informação que sempre tenderá a adequar
os fenômenos observados aos modelos que já estão armazenados em sua memória.
Um exemplo onde um resultado inesperado no reconhecimento de imagem por redes
neurais pode não ter uma explicação pronta do sistema, mas ao mesmo tempo indica que o
comportamento adotado não é exatamente “ingênuo”, ou neutro, como poderia aparentar, está
13 When Computers Decide: European Recommendations on Machine-Learned Automated Decision Making. [S.l:
s.n.], 2018. Disponível em: <https://www.acm.org/binaries/content/assets/public- policy/ie-euacm-adm-report-
2018.pdf>.
14 Ver figuras do Apêndice.
15 A “inteligência emocional”, neste caso, é a capacidade da máquina identificar o estado emocional das pessoas,
principalmente através das imagens captadas em tempo real.
presente em um experimento do Google Inception Project16. No caso de reconhecimento de
imagens de halteres os engenheiros perceberam a falha de eles sempre aparecerem, não como
objetos em separado, mas com os braços e mãos, indicando sua função. Enquanto, neste caso,
atrelar um objeto a uma determinada função, na sua relação com o corpo, pode parecer
“inofensivo”, se estes mesmos parâmetros de aprendizado forem utilizados para "categorizar"
humanos a partir de certas relações isto tende a ser problemático. Sugere-se portanto observar que,
se existe uma crença cega na neutralidade da técnica, e que, se a prova de eficiência dos sistemas
computacionais é mostrar resultados, vale refletir que, para toda cadeia produtiva de mercado
relacionada ao desenvolvimento de tais tecnologias é mais simples crer que os dados, assim como
os números, são neutros, e que as decisões dos algoritmos não devem, ou não precisam ser
questionadas.
Dentro dos problemas éticos já identificados em sistemas de tecnologia da informação que
são fonte de funcionamento de uma IA, a reutilização de informações de bases de dados diversas
para o aprendizado de máquina naturalizam os preconceitos embutidos nestes dados. Por exemplo,
se uma grande empresa decide criar um sistema preditivo de seleção para novos funcionários,
coletando os dados do histórico de empregados de sucesso nesta empresa, em períodos anteriores,
para, a partir destes dados contratarem novos funcionários, à primeira vista o que parece simples e
mesmo lógico, deixa passar o que está implícito na equação: dessa maneira, se, as oportunidades,
para admissão e promoção dentro da empresa eram maiores (ou exclusivas) para homens, brancos,
de determinada faixa etária, advindos de escolas e universidades de maior reputação, etc., o
modelo de filtragem para futuros candidatos tenderá a seguir o mesmo comportamento. Dessa
maneira, mesmo que nenhum dos profissionais envolvidos no projeto tenham se dado conta,
estarão reproduzindo, através de um “sistema inteligente” os preconceitos mais antigos, e não
suficientemente revistos e combatidos, para dar acesso à uma maior diversidade de pessoas,
mulheres, homens, de diversas etnias e status social, às oportunidades de emprego17. E ainda, o
reuso de dados faz com que, uma vez pronta a aplicação, outras empresas que não queiram, ou não
possam, investir em novas pesquisas para criar o seu próprio modelo, venham a utilizar este
mesmo software, ou a sua base de dados, para novas aplicações com intuitos similares, e deste
modo, se um preconceito embutido, ele será replicado e naturalizado na medida que as
empresas decidem utilizar aplicações similares. Por este motivo os questionamentos em relação à
arquitetura do código e da necessidade de transparência para explicação dos resultados através de
auditoria, revisão, acesso à informação, vêm sendo demandas sociais apoiadas por especialistas
das diversas áreas envolvidas.
16 (LEAHU, 2016)
17 The era of blind faith in big data must end. Disponível em:<https://youtu.be/_2u_eHHzRto>. Acesso em: 12 dez
2018.
Observa-se que, se os algoritmos são um planejamento embutido em códigos (O’NEIL, 2016), eles
representam práticas individuais e sociais que estão fora dos parâmetros éticos estabelecidos em
leis tão antigas quanto o contrato social que influenciou, e ainda influencia, as normas do
Ocidente, assim como as da maior parte do mundo. Melhor dizendo, a base constitucionalista e
legal representada na Declaração Universal dos Direitos Humanos, que deve ser respeitada em
todos os territórios como parte de um pacto mundial. Não nos cabe aqui discutir a problemática de
determinadas culturas e governos em específico que promovem a violação de tal pacto, fato é que
dentro da própria cultura de mercado a demanda de acesso à informação, direito à explicação e
abertura do conhecimento sobre a arquitetura do código computacional e suas fórmulas para
atingirem determinados resultados, se torna polêmico quando são levados em consideração
direitos como o sigilo de patente.
Leis de proteção relacionadas ao conhecimento dos dados e explicação das decisões
automatizadas como a GDPR18 pressionam o mercado para mudanças bastante significativas em
sua forma de operar, a começar pelo “direito à explicação” previsto no GDPR e na Lei Nacional
de Proteção aos Dados19. Ambas propõem abrir as “caixas pretas” dos softwares e suas aplicações
com a demanda de explicar suas fórmulas e decisões. Se por um lado, tal demanda poderá conflitar
com o sigilo de alguns projetos e patentes, como mencionado acima, por outro lado, a justificativa
do direito à explicação é apoiada por necessidades éticas que ficam mais evidentes, quando as
decisões de uma IA demonstram ser prejudiciais às pessoas, e/ou o uso dos dados
pessoais/individuais servem a interesses privados e que, além disso, não estão em concordância
com os indivíduos-proprietários destes dados.
Este é um panorama da problemática relacionada aos dados que trafegam e compõem as
tecnologias da informação, desde que a demanda social e legal atual é de que uma IA possa ser
capaz de esclarecer como obtém seus resultados e decisões. Se uma IA utilizada para diagnosticar
pacientes demonstra-se bastante controversa, mesmo que a decisão final esteja nas mãos do
médico e do paciente, deve-se levar em consideração que a decisão da IA poderá influenciar
fortemente ambos, médico e paciente, e que portanto deve-se ser possível explicar como a IA
chega a esta decisão e porquê. Porém, se entre humanos a capacidade de explicar nem sempre é
fluida e fácil, projetar tais características para uma IA é igualmente desafiante, pois como seria
fácil dizer que, para criar e desenvolver uma IA capaz de explicar, basta observar como os
humanos explicam as coisas uns para os outros?20
18 General Data Protection Regulation (GDPR) é a Lei aprovada pelo Parlamento Europeu, criada em 14/04/2016 e
implementada em 25/05/2018.
19 (PRESIDÊNCIA DA REPÚBLICA, CASA CIVIL, 2018).
20 (MILLER, 2018).
Criar modelos capazes de explicar as decisões do sistema tem sido um desafio atual para
cientistas da computação. Embora não seja fácil explicar a decisão tomada pelo sistema, desde que
existem diferentes modelos de aprendizagem de máquina, percebe-se que a chamada ética para a
necessidade de prestar contas sobre as decisões de uma IA já vêm estimulando a criação de novas
ferramentas capazes de fazer com que as predições de um sistema sejam auditáveis, tornando-os
assim “mais confiáveis”)21. Desse modo, a necessidade ética cria um valor relacionado à eficiência
do sistema.
A necessidade de estabelecer confiança com a IA, devido aos possíveis impactos de suas decisões, indicações
de decisões, sugestões, vêm ampliando a demanda de que estes agentes precisam ser “socialmente inteligentes”. Desse
modo, a lista de desafios para o seu desenvolvimento passa a incluir a necessidade de clareza, consciência situacional,
empatia, presença, autenticidade.22
Comentários Finais
Se o ser no mundo absorve muito bem estas tecnologias, é porque elas têm um sentido
mágico de tornar o mundo material uma ilusão “e as formas que se encontram encobertas além
dessa ilusão (“o mundo formal”) são a realidade, que pode ser descoberta com o auxílio da teoria.”
(FLUSSER, 2007, p.24).
Voltamos ao ponto da argumentação que enfatiza que a IA avançada, ou as “máquinas
superinteligentes”, são a projeção de um projeto utópico de humano, e como este humano ideal
não existe, as inconsistências, incoerências e falhas das máquinas, são facilmente assimiladas. Em
outras palavras, se muitas vezes a comunicação humano-humano parece não fazer sentido, que
existem estados mentais, jogos emocionais e divergências de interpretação, não há porquê requerer
que a interação de comunicação com uma IA seja perfeitamente coerente.
Tente conversar com a Replika23: em diversas situações as lacunas deixadas na conversa, a
falta de entendimento sobre a pergunta, entre outros fatores, poderia se repetir com um humano,
enquanto, por outro lado, quando a IA (Replika) responde de modo que faça sentido ao seu
interlocutor, é possível experimentar uma sensação de conforto emocional, assim como ativar o
imaginário de que aquelas palavras digitadas, aquela voz que fala com você faz parte das suas
memórias mais agradáveis, de desejos que conjugam passado, presente e futuro.
21 (RIBEIRO; SINGH; GUESTRIN, 2016).
22 (MARIO NEURURER, STEPHAN SCHLÖGL, LUISA BRINKSCHULTE, 2018).
23 Replika é uma IA para conversas: “Since it became available in November, more than 2 million people have
downloaded the Replika app. And in creating their own personal chatbots, many have discovered something like
friendship: a digital companion with whom to celebrate victories, lament failures, and trade weird internet
memes.”(PARDES, 2018).
É possível que a vida intermediada pela computação ubíqua24 venha confirmando que
estamos cada vez esperando mais das máquinas e menos uns dos outros25.
Enquanto bonecas robôs para uso sexual e namoradas holográficas são justificadas como
um paliativo para os que vivem na solidão, debater a semiótica do projeto é uma demanda ética e
bioética. Nos casos dos robôs sexuais, estabelecem-se relações simbólicas que podem não apenas
estar reforçando a objetificação da mulher e a ideia de que existe apenas um agente ativo na
relação sexual e tudo acontece em torno da satisfação dos desejos deste único agente. Se o impacto
destas representações no corpo físico e na saúde não são de identificação e medição fáceis, aponta-
se também que o uso de robôs sexuais podem estar colaborando com a naturalização de práticas
como a pedofilia e o estupro26.
Tecnologia é linguagem, “tornamo-nos cegos quando acreditamos ser a técnica algo
neutro”27. Quando Heidegger pergunta “Por onde nos perdemos?” Ele responde que a técnica,
como um meio, um instrumento que atende finalidades, é um modo de desabrigar, e “no desabrigar
se fundamenta todo o produzir” (HEIDEGGER, 2007, p. 380) e, ao que parece, é sobre este
desabrigar que precisamos falar a respeito. A tecnologia, ou os olhares que se têm sobre os seus
acoplamentos como aprimoramento humano, não é um fenômeno de um bloco único, fechado. Ela
representa também os diálogos intersubjetivos. Assim, a tecnologia não se define como positiva ou
negativa. Tanto os seus melhores feitos como as consequências inesperadas impactam nossas
vidas, e vêm modificando-a de tal modo que, para alguns, não podemos nos considerar
“simplesmente” humanos. Se a modificação da natureza é manifestação da própria natureza28, é
precisamente neste ponto que damos um grande nó.
Pois, que visão ou interpretação de natureza está se manifestando através da técnica? A
vontade de dominar e acumular poder? O desejo de auto superação, de encontrar soluções criativas
para existência e sobrevivência? “Armação significa o modo de desabrigrar que impera na essência
da técnica moderna e não é propriamente nada de técnico.”29
Imersos em um mundo codificado, sem de fato compreender a natureza de todas as suas
manifestações, o humano atual é manipulado por símbolos representados em imagens, codificadas
24 O significado de ubiquidade é a presença em todos os lugares, ou seja, onipresença. “O conceito (de ubiquidade
computacional) foi introduzido na década de 80 por Mark Weiser, pesquisador do Xerox Palo-Alto Research Center.
Weiser vislumbrava um futuro no qual tecnologias computacionais fariam parte do “tecido da vida cotidiana”.”
(PINHEIRO e SPITZ, 2007).
25 (TURKLE,2011).
26 (ELEN C. CARVALHO NASCIMENTO, EUGENIO DA SILVA, R.S-B. 2018).
27 (HEIDEGGER, 2007, p.376).
28 Se, “O fato de que, desde Platão, a realidade se mostra à luz de ideias não foi Platão quem o provocou. O pensador
apenas correspondeu ao que se lhe anunciou (HEIDEGGER, 2007, p.383), em analogia, as ideias, criações e
práticas humanas são manifestações da natureza. Neste sentido, a separação entre natureza e cultura, nas categorias
“natural” e “artificial” coloca uma “cortina de fumaça” no entendimento de fenômenos tais como as revoluções
tecnológicas.
29 (HEIDEGGER, 2007, p.385).
pela imaginação tecnológica. A emergência de novas tecnologias indica o fim da história, ou uma
pós-história, com características que operam mudanças muito radicais no modo de ser e estar no
mundo30.
A “imaginação confusa” é aquela que se torna incapaz de incorporar o conceito à imagem31.
A consciência se completa quando a pessoa no mundo o observa e pensa sobre ele, podendo, em
seguida, lhe dar forma pela capacidade de imaginar este mundo. A imaginação materializa-se em
ideias que buscam agregar-se em torno de um conceito. Se num primeiro momento os mitos eram
imagens estáticas, num segundo momento a história ocupa este espaço de conceituação imagética,
em uma progressão compreendida como linear. Já, num terceiro momento o humano não está mais
separado de seus mitos e história, como observador ou narrador, ele está dentro, ele é o próprio
mito e a própria história32. Tais mudanças de paradigmas alavancadas na Era Moderna,
representadas pela ciência e sua racionalidade, assim como pela industrialização, e o
desenvolvimento das tecnologias vêm tornando difícil a tarefa de compreender os múltiplos
impactos do que estamos vivenciando com a velocidade de transformações na Era da
Comunicação.
Se o mundo atual é um mundo regido por imagens, codificado pela imaginação
tecnológica33, a emergência de novas tecnologias indica o fim da história, ou uma pós-história,
com características que operam mudanças muito radicais no modo de ser e estar no mundo. A
relação com as ‘coisas’ que se proliferam no mercado corporificadas em mitos, arquétipos, objetos
do desejo, tornou-se um modo de realizar comunicação intersubjetiva, e, para que a mesma se
realize, é necessário dar-se conta desses devires embutidos nos projetos, sejam eles palpáveis ou
impalpáveis.
Enquanto fugirmos aos desafios de analisar o quanto as ‘imaterialidades’ materializam as
realidades de um ‘mundo complexo’, deixamos de observar que “a relação entre o humano e o
tecnológico-outro mudou, no contexto contemporâneo, para alcançar graus de intimidade e
intrusão sem precedentes” 34 e, se as consequências inesperadas são tudo o que queremos evitar, na
ausência de reflexão, ficamos com a inevitabilidade de tais consequências.
Apêndices
30 Tais argumentos são apresentados em coletâneas dos escritos do filósofo Vilém Flusser em “O mundo Codificado”
(2007) e “The Shape of things” (1999).
31 (FLUSSER, 2007).
32 (FLUSSER, 1999, 2007).
33 (FLUSSER, 2007).
34 “the relationship between the human and the technological other has shifted in the contemporary context, to reach
unprecedented degrees of intimacy and intrusion” (BRAIDOTTI, 2013, p.89).
ResearchGate has not been able to resolve any citations for this publication.
ResearchGate has not been able to resolve any references for this publication.