ArticlePDF Available

BOAS NOTÍCIAS, MÁS OPINIÕES: a cobertura de imprensa sobre o ChatGPT em PortugalGood news, bad opinions: press coverage about ChatGPT in Portugal

Authors:

Abstract

Este artigo analisa 53 artigos publicados nos jornais portugueses Público e Expresso sobre o ChatGPT. Os artigos foram categorizados como artigos de opinião e artigos informativos, e foram aplicadas uma análise de conteúdo, uma análise de sentimento e uma classificação geral de polaridade (positiva, negativa ou neutra) sobre os textos. Os resultados mostram que houve correlação entre textos de Opinião e os sentimentos de raiva e medo, apontando que, enquanto o noticiário vê o fenômeno da inteligência artificial generativa como algo positivo ou neutro, os comentadores desses jornais são reticentes frente à tecnologia.
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 1
Boas notícias, más opiniões: a cobertura de imprensa
sobre o ChatGPT em Portugal
Good news, bad opinions: press coverage about ChatGPT in Portugal
Renato Essenfelder1i
ORCID: https://orcid.org/0000-0002-0618-1602
Recebido em: 04/07/2024. Aprovado em: 27/11/2024.
Resumo
Esta pesquisa analisa 53 artigos publicados nos
jornais portugueses Público e Expresso sobre o
ChatGPT. Os artigos foram categorizados como
artigos de opinião e artigos informativos, e
foram aplicadas uma análise de conteúdo, uma
análise de sentimento e uma classificação geral
de polaridade (positiva, negativa ou neutra)
sobre os textos. Os resultados mostram que
houve correlação entre textos de Opinião e os
sentimentos de raiva e medo, apontando que,
enquanto o noticiário vê o fenômeno da
inteligência artificial generativa como algo
positivo ou neutro, os comentadores desses
jornais são reticentes frente à tecnologia.
Palavras-chave: jornalismo; inteligência
artificial; ChatGPT; análise de sentimento.
Abstract
This paper analyzes 53 articles published in the
Portuguese newspapers Público and Expresso
about ChatGPT. The articles were categorized
into opinion pieces and informative articles, and
content analysis, sentiment analysis and a
general polarity classification (positive,
negative, or neutral) were applied to the texts.
The results indicate a correlation between
opinion pieces and feelings of anger and fear,
suggesting that while news reporting views the
phenomenon of generative artificial intelligence
as either positive or neutral, commentators in
these newspapers are hesitant towards the
technology.
Keywords: journalism; artificial intelligence;
ChatGPT; sentiment analysis.
1 Introdução
O lançamento do modelo de linguagem baseado em inteligência artificial
ChatGPT pela empresa norte-americana OpenAI no fim de 2022 foi alvo de ampla
divulgação pela imprensa portuguesa e mundial. Em meio à tempestade midiática
gerada em torno do tema em sites e redes sociais, jornais e revistas, programas de rádio e
telejornais, encontramos, de um lado, artigos de cunho informativo (ou mesmo
educativo), que apresentavam o modelo e tentavam decifrar seu modo de funcionamento,
e, de outro lado, artigos opinativos, em que incontáveis articulistas elaboravam suas
1 Universidade Fernando Pessoa, Porto, Portugal. E-mail: renatoessenfelder@gmail.com
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 2
opiniões acerca não só do ChatGPT, mas também do campo mais amplo da inteligência
artificial.
A intensa exposição do assunto, contudo, não necessariamente resulta em um
debate rico e qualificado sobre o ChatGPT em específico e, de modo mais geral, sobre a
tecnologia que o move bem como sobre suas consequências culturais e sociais. A
discussão, afinal, é prejudicada quando veículos de comunicação limitam-se a reproduzir
informações de press-releases, sem nenhuma perspectiva crítica, ou então apresentam as
histórias de modo descontextualizado ou sensacionalista, resultando em uma cobertura
desequilibrada e pouco aprofundada do tema, conforme Canavilhas e Essenfelder (2022)
já demonstraram, em artigo que analisou a cobertura do tema inteligência artificial na
imprensa portuguesa, tendo encontrado como resultado uma maioria de coberturas
positivas, porém frequentemente alienadas, superficiais, sobre o tema.
Naquele estudo, os artigos de imprensa sobre IA apresentaram uma grave falta de
substância. Isso porque 71% dos 123 artigos analisados pelos autores apresentavam
apenas uma ou nenhuma fonte textualmente citada, indicando forte tendência de as
empresas jornalísticasno caso, cinco publicações de referência em Portugalapenas
republicarem informes de mercado, acriticamente (Canavilhas; Essenfelder, 2022). Em
posterior replicação desse estudo no Brasil, os resultados foram semelhantes aos
encontrados durante análise de 104 artigos de Folha de S.Paulo e o Globo (Essenfelder;
Ranieri, 2024).
Neste artigo, procuramos identificar se algo similar se passou em relação à
cobertura do ChatGPT, porém com foco não apenas na superficialidade/profundidade da
cobertura sobre o tema, mas também em relação às emoções associadas aos textos
analisados. Estudos do tipo são relevantes no âmbito das Ciências da Comunicação
porque a análise crítica da cobertura midiática de novas tecnologias pode ajudar a revelar
as dinâmicas e tendências das práticas jornalísticas, assim como as percepções e reações
públicas que essas podem influenciar. A inteligência artificial, especialmente na forma de
modelos de linguagem como o ChatGPT, possui um potencial transformador que vai além
do âmbito técnico, afetando dimensões culturais, sociais e éticas. Compreender como a
mídia retrata, e com que nota emocional, as tecnologias emergentes é fundamental para
avaliar a qualidade do debate público e a formação de opiniões informadas. A
identificação das emoções predominantes nos artigos permite ainda uma compreensão
mais rica das narrativas mediáticas e suas possíveis influências na percepção pública.
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 3
De acordo com um estudo realizado pela Universidade Stanford em dezembro de
2019, o uso e o interesse em inteligência artificial (IA) aumentaram significativamente na
última década. Atualmente, os interesses político, econômico e social confluíram e
caminham de mãos dadas com o interesse técnico pela matéria, que já vem desde os anos
1950 (Russell; Novig, 2016), a ponto de o período compreendido a partir dos anos 2000
até hoje configurar uma nova era de ourona história da IA (Havenstein, 2005).
A imprensa seguiu essa tendência. Pesquisa no banco de dados do Projeto GDelt,
que analisa artigos de notícias publicados ou transmitidos em 65 idiomas, mostra aumento
notável na cobertura do tema IA. No início de 2017, apenas cerca de 0,15% dos artigos
na base mundial mencionavam tecnologias inteligentes. Em 2019, já eram 0,5% (Perrault
et al., 2019).
Entre os artigos dedicados ao tema, o assunto principal foi o impacto dessas
tecnologias no mercado de trabalho, fenômeno citado em 17,7% das notícias sobre IA.
Esse tópico supera outras discussões importantes, como os vieses no desenvolvimento de
IA (discriminação e preconceito algorítmicos), que são mencionados em apenas 2,4% das
matérias que falaram de IA.
Embora não tenhamos acesso a dados mais recentes do GDelt sobre a matéria, é
bastante plausível que o lançamento do ChatGPT, um modelo de linguagem natural
baseado em inteligência artificial, tenha despertado ainda mais interesse dos meios de
comunicação para o tema.
Maslej et al. (2023), em estudo mais recente na Universidade Stanford, apontam
que 2022 pode ser considerado o ano do boom da IA generativa, com um enorme aumento
de interesse pelo assunto em todo o planeta, graças à aura quase mágica em torno de
sistemas que produzem imagens, textos ou até mesmo vídeos e áudios de forma simples
e intuitiva, a partir de comandos em linguagem natural caso de DALL-E, Stable
Diffusion, Midjourney, Make-A-Video, Gemini, Claude, Llama e, claro, ChatGPT, entre
incontáveis outros exemplos.
Considerando o crescente interesse e relevância dessas tecnologias em todo o
mundo, é crucial entender como os discursos em torno delas são construídos e incentivar
o diálogo entre o público em geral, especialistas e autoridades. Nesse campo,
efetivamente, parece haver muito trabalho a ser feito, considerando que o número de
incidentes relacionados ao uso indevido de IA está aumentando rapidamente. De acordo
com o banco de dados AIAAIC (AI, Algorithmic and Automation Incidents and
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 4
Controversies), que rastreia incidentes relacionados a faltas éticas envolvendo IA, o
número de incidentes e controvérsias diretamente ligados a esses sistemas inteligentes
aumentou 26 vezes entre os anos de 2012 e 2022 (Kemper, 2023). Entre os
acontecimentos notáveis (e problemáticos) de 2022 nessa área, Maslej et al. (2023)
destacam um vídeo deepfake do presidente ucraniano Volodymyr Zelensky anunciando
sua rendição à Rússia, e também o uso controverso de tecnologia de monitoramento de
chamadas de detentos em presídios e cadeias dos Estados Unidos, em que tecnologias de
reconhecimento de voz, análise semântica e software de aprendizado de máquina são
empregadas em tempo real para gerar bancos de dados pesquisáveis de palavras-chave.
Em menor escala, foram reportados ao AIAAIC casos que envolvem por exemplo
chatbots que sugeriram que pessoas se divorciassem, que imputaram crimes à biografia
de sujeitos inocentes e, em um caso extremo ocorrido na Bélgica em 2023, estimularam
o suicídio de um usuário (AIAAIC, s.d.)
Considerando o crescimento exponencial do uso de IA generativa e os riscos
envolvidos, é fundamental que a mídia faça uma cobertura responsável e informada sobre
as tecnologias de IA, incluindo o ChatGPT, a fim de minimizar desinformação e
alarmismo em relação a sistemas cujo funcionamento é um completo mistério para a
maior parte da população. A mídia também deve exercer papel crucial na qualificação do
debate, considerando a necessidade, amplamente aceita pela comunidade científica e
até mesmo pela indústria de tecnologia (Metz; Schmidt, 2023) –, de criar regras para a
utilização desses sistemas, diante de seus potenciais riscos.
Com o objetivo de contribuir para o debate sobre a qualidade da cobertura dos
meios de comunicação sobre o tema, este estudo analisa 53 artigos coletados ao longo
dos meses de janeiro e fevereiro de 2023 em dois dos principais jornais de referência de
Portugal, o semanário Expresso e o diário Público, que foram escolhidos por serem,
respectivamente, o maior semanário e o maior diário de Portugal, em termos de circulação
total, segundo os dados mais recentes disponíveis até a elaboração deste estudo, relativos
ao ano completo de 2022 (Público, 2023). Os textos foram categorizados em função de
uma tipologia mais geral (informação vs. opinião), polo (negativo, neutro ou positivo em
relação ao ChatGPT), emoção (considerando raiva, tristeza, medo, alegria, confiança e
surpresa) e profundidade (baixa, média ou alta) em relação à qualidade da discussão
promovida.
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 5
De antemão, foram estabelecidas quatro hipóteses de trabalho, posteriormente
verificadas por meio da análise do corpus e da aplicação de testes do qui-quadrado de
independência. O teste do qui-quadrado é uma ferramenta estatística usada para avaliar a
associação entre variáveis categóricas. No contexto deste estudo, ele permitiu verificar se
as diferenças observadas entre textos de polaridades (positivos, negativos, neutros) e tipos
de publicação (informativo, opinativo) diferentes são estatisticamente significativas, por
exemplo. Esse teste calcula a probabilidade de que uma relação entre as categorias seja
meramente aleatória, ajudando a avaliar se o padrão observado nos dados reflete uma
associação real.
De antemão, nossas hipóteses foram:
H1: O jornal semanário (Expresso) terá mais profundidade e será mais crítico na
cobertura do tema do que o jornal diário (Público);
H2: Os textos classificados como Opinião expressam mais emoção negativa do
que os de Informação, que não expressam emoção;
H3: As emoções expressas mudam com o passar do tempo, na amostragem
selecionada;
H4: Os textos de Opinião são mais profundos do que os de Informação, na
abordagem do ChatGPT.
Os resultados mostram que houve uma distribuição semelhante de artigos
superficiais e densos, o que representa um avanço em relação à análise de Canavilhas e
Essenfelder (2022), e avança também ao indicar que o sentimento predominante nos
textos de opinião é de raiva, enquanto os de informação revelam surpresa em relação ao
ChatGPT.
1.1 Esfera pública e jornalismo de qualidade
No contexto da esfera pública idealizada por Habermas (1984), o jornalismo pode
ser um aliado na promoção do debate racional e informado e um dos principais meios de
acesso a esse espaço, afinal, como defendem Boczkowski e Mitchelstein (2013), o
jornalismo é uma das principais fontes de informação para o público em geral e tem um
papel fundamental na formação da opinião pública, consoante argumentos já anunciados
por Tuchman (1978), que destacou a importância dos meios de comunicação como
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 6
mediadores entre a sociedade e os acontecimentos, influenciando a percepção pública dos
eventos e contribuindo para a formação de opiniões.
No entanto, como sabemos, a qualidade da cobertura jornalística pode variar
enormemente dependendo de muitos fatores, que podem ser desde materiais e contextuais
(a falta de mão-de-obra disponível ou qualificada, de recursos e de tempo para promover
investigações mais profundas, de acesso a fontes confiáveis, entre outras) até ideológicos
e políticos (influência da propriedade do veículo de comunicação, valores e crenças dos
jornalistas etc.).
Ramos (2014) afirma que o jornalismo de qualidade é aquele que se compromete
com a verdade factual e com a interpretação contextualizada dos acontecimentos,
respeitando os direitos humanos e a diversidade cultural. Além disso, os jornalistas devem
exercer o seu papel de mediadores entre os fatos e o público, oferecendo informações
relevantes, precisas e equilibradas, que contribuam para o fortalecimento da cidadania e
da democracia.
Para isso, é fundamental que os profissionais do jornalismo sejam responsáveis
socialmente e éticos em suas práticas, adequando-se às necessidades e expectativas dos
leitores, ouvintes e telespectadores (Christofoletti, 2015). Afinal, a competência do e no
jornalismo vai muito além de uma dimensão técnica passa pelos seus valores, a
pluralidade de vozes e perspectivas, a profundidade da reflexão social.
Autores como Kovach e Rosenstiel (2021) também enfatizam a necessidade de os
jornalistas se comprometerem com a ética jornalística, garantindo a transparência, a
imparcialidade e a precisão nas notícias. Mas seja no campo dos valores, seja no campo
das práticas, Laurindo Leal Filho (1997), em estudo sobre a BBC de Londres, lembra que
“qualidade” no jornalismo é um conceito dinâmico e relativo, que varia conforme o
contexto histórico e cultural em que se insere. O acadêmico, no entanto, ressalta alguns
princípios universais em relação a tempo e lugar: o respeito aos fatos, a busca pela
verdade, a defesa do interesse público e o compromisso com a ética.
1.2 Cobertura de Inteligência Artificial
Considerando o tema deste artigo, a qualidade da cobertura portuguesa em relação
ao modelo de linguagem ChatGPT, os desafios do tempo e do espaço impõem-se
mutuamente. Em primeiro lugar, pela dificuldade de acesso a fontes quase todas
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 7
localizadas no Vale do Silício, nos Estados Unidos, em estruturas de notória
confidencialidade. Em segundo lugar, a temporalidade da questão é de se notar, no caso
da cobertura de novas e complexas tecnologias, como o modelo de redes neurais batizado
de Transformers, proposto conceitualmente pelo Google em 2017 e que agora foi
operacionalizado e que forma a base do ChatGPT, um LLM (Large Language Model), e
de outros sistemas de IA generativa.
Quando se trata da cobertura de temas relacionados à tecnologia e inovação, como
é o caso da inteligência artificial, a falta de compreensão ou medo podem levar a uma
superficialidade no tratamento do assunto e a reações mais “emocionais”. Por isso, é
fundamental que os jornalistas desenvolvam conhecimentos sobre o tema para oferecer
aos seus leitores uma informação mais profunda e precisa. Ademais, a profundidade na
análise permite não apenas informar melhor ao público em geral, mas também propiciar
que regulamentações adequadas sejam criadas. Como destacam Gillespie et al. (2014), os
jornalistas têm um papel importante na mediação entre a tecnologia e o público em geral,
ajudando a esclarecer conceitos complexos.
A cobertura de temas relacionados à inteligência artificial é particularmente
importante porque essa tecnologia tem o potencial de transformar profundamente a
sociedade em diversos aspetos. No entanto, como apontam Canavilhas e Essenfelder
(2022), a cobertura jornalística desse tema muitas vezes é sensacionalista e pouco
informativa, o que pode levar a distorções e mal-entendidos por parte do público.
A IA é amplamente considerada como uma das forças mais disruptivas do século
XXI e suas implicações socioeconômicas são tão vastas quanto profundas (Sigfrids et al.,
2023). Nesse sentido, profissionais de mídia têm a responsabilidade ética de fornecer
informações precisas sobre as diversas aplicações da IA, bem como seu impacto real nas
esferas social, econômica e política para garantir que decisões informadas possam ser
tomadas por indivíduos conscientes ao redor do mundo.
Além disso, o tema é especialmente espinhoso dada a dificuldade de defini-lo com
precisão. Já é amplamente aceito na comunidade científica que o termo inteligência
artificial é de difícil conceituação. Para Canavilhas e Essenfelder (2022), essa tornou-se
uma espécie de expressão guarda-chuva, que abriga diferentes tecnologias e que se
popularizou não só a partir do avanço tecnológico, mas também de um marketing
agressivo em torno da matéria. Para as empresas, associar-se a soluções de IA tem se
provado uma sugestiva forma de atrair investidores.
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 8
No contexto deste trabalho, consideramos que a IA é um campo das ciências da
computação e um vasto conjunto de práticas associadas às engenharias (Russell; Norvig,
2016) cujo objetivo é o desenvolvimento de agentes racionais, ou seja, inteligência
artificial que resolve problemas sem se preocupar em imitar o pensamento ou
comportamento humano.
O ChatGPT, objeto dos textos analisados neste artigo, entra sob o guarda-chuva
da IA como uma implementação do GPT, cuja sigla significa “Generative Pre-trained
Transformer”, ou transformador generativo pré-treinado, sistema baseado na arquitetura
de redes neurais Transformers, que, segundo Vaswani et al. (2017), é uma arquitetura
baseada inteiramente em mecanismo de atenção e que supera modelos anteriores em
aplicações de processamento de linguagem natural tanto em termos de qualidade quanto
de velocidade.
Note-se que o ChatGPT, enquanto ferramenta disponível ao público, alcançou
estrondoso sucesso logo na sequência de seu lançamento público. Em apenas uma
semana, alcançou um milhão de usuários um recorde absoluto no mundo digital. Em
um mês, eram 57 milhões. Em dois meses, alcançou a simbólica marca de 100 milhões
de usuários no mundo todo (Singh, 2023).
Ajudam a explicar o sucesso do ChatGPT a sua interface simples e intuitiva (o
programa aceita comandos em linguagem natural em 26 idiomas) e a qualidade das
respostas obtidas, que conseguem, com alta taxa de acerto, perceber o contexto da
conversação, identificar ironia e resolver ambiguidades (OpenAI, 2023). Está longe de
ser perfeito, mas tem se provado suficientemente satisfatório para milhões de usuários
todos os dias. A mais recente versão do sistema, até a publicação deste artigo, foi lançada
em março de 2023, e pontuou na média entre os 10% melhores candidatos em concursos
como o Exame da Ordem dos Advogados de Nova York, o SAT e o GRE, que avaliam
conhecimentos linguísticos e matemáticos, entre outros exames (Varanasi, 2023).
Por essas razões, pode-se considerar que o ChatGPT representa um avanço em
direção a uma inteligência artificial generalista, ou seja, capaz de executar um vasto
número de tarefas.
2 Metodologia
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 9
Para a realização desta pesquisa foram analisados 53 artigos publicados em dois
veículos de comunicação, os jornais portugueses Público e Expresso. Para selecionar os
artigos, foram a princípio realizadas pesquisas simples com a palavra-chave “ChatGPT”
nos sites dos jornais mencionados, compreendendo o período entre os meses de janeiro e
fevereiro de 2023. Após uma leitura inicial dos textos, foram descartadas as ocorrências
repetidas ou aquelas em que a expressão “ChatGPT” aparecia fora do contexto do trabalho
jornalístico (por exemplo, cartas de leitores, índices de artigos e a seção de palavras-
cruzadas).
A escolha dos jornais Público e Expresso se justifica por sua representatividade
na mídia portuguesa. O Público é o jornal diário com maior circulação digital em
Portugal, enquanto o Expresso é o semanário mais lido no país, segundo dados da
Associação Portuguesa para o Controlo de Tiragens e Circulação (APCT). Ambos
possuem abordagens editoriais distintas, com o Público focando em uma cobertura mais
factual e o Expresso, como semanário, buscando um posicionamento como pólo de
análises e reportagens aprofundadas, o que permite captar uma visão abrangente das
representações do ChatGPT na mídia lusitana.
A análise de conteúdo dos artigos foi conduzida com base nos pressupostos
teóricos e metodológicos de Krippendorff (2018), que define a análise de conteúdo como
uma técnica de pesquisa para a interpretação replicável e válida de dados textuais, com o
objetivo de obter inferências contextuais significativas. Seguindo este modelo, os textos
foram sistematicamente codificados e categorizados para identificar padrões, temas e
significados latentes relacionados ao ChatGPT. A categorização incluiu a classificação
das emoções expressas nos textos, utilizando o modelo BERTimbau para a detecção de
emoções específicas e o SentiLex-PT para a avaliação da polaridade (positiva, negativa
ou neutra) das palavras opinativas presentes.
A aplicação dos princípios de Krippendorff (2018) na análise de conteúdo
permitiu uma abordagem rigorosa e estruturada, garantindo a consistência e a
objetividade na interpretação dos dados. Além disso, a triangulação metodológica entre
análise de sentimentos, polaridade e conteúdo proporcionou uma visão holística da
cobertura jornalística sobre o ChatGPT, destacando não apenas as emoções
predominantes nos textos, mas também a profundidade e a natureza crítica das
reportagens. Este estudo, portanto, não só contribui para a compreensão da representação
do ChatGPT na mídia portuguesa, como também oferece um modelo metodológico
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 10
robusto que pode ser utilizado em futuras pesquisas na área da comunicação e estudos de
mídia.
Consideramos que esse período temporal, de 58 dias corridos, revelou-se
satisfatório para o objetivo da análise, abrangendo tanto o pico das primeiras reportagens
a abordar o serviço, que começou a se popularizar em Portugal no fim de dezembro de
2022, quanto os artigos de repercussão que sucederam as primeiras semanas de
lançamento, buscando avaliar a popularidade, a qualidade e os riscos desse modelo de
linguagem.
Os 53 artigos que restaram após a filtragem inicial sendo 32 do jornal Público e
21 do Expresso foram então categorizados entre artigos de opinião e artigos
informativos. Na sequência, foi utilizado o modelo de Processamento de Linguagem
Natural pré-treinado chamado BERTimbau, adaptado para o português, para uma análise
de sentimento. Esse modelo foi treinado em um grande corpus de textos em português e
pode realizar várias tarefas de PLN, como a detecção de emoções no corpus (Souza; Filho,
2022). O algoritmo é baseado no projeto BERT, do Google, desenvolvido para entender
padrões de busca de usuários do buscador. Ele é um dos modelos mais populares e
eficientes para tarefas como análise de sentimentos, reconhecimento de entidades
nomeadas, classificação de textos e geração de respostas em português (Hammes; De
Freitas, 2021).
Essa abordagem tem sido amplamente utilizada em pesquisas sobre
representações mediáticas de novas tecnologias, uma vez que permite a identificação
precisa de polaridades emocionais e temas centrais, como demonstram por exemplo os
recentes estudos de Nora Bittar (2023), que analisou os sentimentos de um total de três
anos de manchetes de seis jornais suecos, usando uma versão local do BERT, e Chandra
e Saini (2021), que afirmaram, retroativamente, que seria possível prever o resultado das
eleições de 2020 nos EUA a partir da análise de sentimentos da rede social X (antigo
Twitter).
Ao combinar o BERTimbau, adequado para a análise de textos em português, com
o SentiLex-PT, um léxico de sentimentos adaptado ao idioma e suas variações culturais,
buscamos uma análise mais rica e contextualizada. Esse método possibilita compreender
como as representações do ChatGPT oscilam entre apologia e resistência, captando
padrões subjacentes de percepção que ultrapassam o viés individual. Com isso, espera-se
que tal abordagem metodológica, baseada na análise automatizada de sentimentos,
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 11
proporciona um mapeamento detalhado e quantitativo das tendências emocionais e
discursivas, oferecendo subsídios robustos para a discussão dos resultados, bem como
comparabilidade com outros estudos que utilizam as mesmas ferramentas.
As emoções buscadas nos textos foram definidas a partir de uma lista de emoções
básicas propostas por Plutchik (1991), conforme revisão de Tracy e Randles (2011) e foi
definida nos termos: raiva, tristeza, medo, alegria, nojo e surpresa. Durante a fase de pré-
análise, fizemos o cruzamento de todas as 64 combinações possíveis entre essas seis
emoções e optou-se por excluir as emoções pouco prevalentes (a tristeza e o nojo, com
apenas duas ocorrências individuais no corpus total). Concentramos essa etapa de análise,
portanto, nas 16 combinações possíveis entre as quatro emoções resultantes, ou seja,
raiva, medo, alegria, surpresa e todas as suas combinações.
Além da classificação de emoções, foi feita uma classificação mais geral de pólo
(positivo, negativo ou neutro) a partir de um léxico de sentimentos para português, o
SentiLex-PT, para atribuir uma polaridade positiva ou negativa a cada palavra opinativa
detectada nos 53 artigos. O SentiLex-PT foi especificamente concebido para a análise de
sentimento e opinião em textos redigidos em português, sendo atualmente constituído por
7.014 lemas (formas básicas das palavras) e 82.347 formas flexionadas (Carvalho; Silva,
2015).
O funcionamento do SentiLex-PT baseia-se na sua extensa base de dados lexical,
associada a valores de polaridade. Para cada palavra incluída no léxico, é atribuída uma
polaridade semântica que indica se a palavra tem uma conotação positiva, negativa ou
neutra. Durante a análise de um texto, um algoritmo de processamento de linguagem
natural escaneia o conteúdo e identifica as palavras presentes no SentiLex-PT. Em
seguida, o algoritmo calcula a polaridade geral do texto com base na soma das polaridades
das palavras identificadas. Este processo permite a classificação do texto em termos de
sentimento predominante, fornecendo uma visão quantificável das emoções expressas no
conteúdo analisado.
Além disso, o SentiLex-PT pode ser utilizado para análises mais complexas, como
a detecção de ironia e sarcasmo, ajustando a interpretação da polaridade com base no
contexto em que as palavras são usadas. A capacidade do SentiLex-PT de lidar com as
peculiaridades da língua portuguesa, incluindo variações regionais e coloquiais, torna-o
uma ferramenta interessante para a análise de sentimentos em textos escritos no idioma.
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 12
Para utilizá-lo, foi feito inicialmente o download da biblioteca do SentiLex-PT,
versão 02, a mais atual, no site colaborativo da Eudat. A partir daí, é necessário carregar
a base dentro de um ambiente Phython e então processar o texto do corpus
previamente limpo das chamadas stopwords (conjunções e preposições que atrapalham o
processamento do texto) e de sinais de pontuação, e reduzido aos períodos que faziam
menção ao ChatGPT. Cada um dos 53 artigos do corpus foi processado individualmente,
para que se obtivesse um resultado em termos de positivo, negativo ou neutro.
Os textos também foram categorizados subjetivamente por nós em relação à sua
profundidade, compreendendo as variáveis alta, médiae “baixa”. Para determinar a
qualidade da discussão em específico sobre o ChatGPT nos textos, procuramos identificar
se o artigo explorava benefícios e potencialidades da ferramenta, bem como limitações e
desafios, se apresentava argumentos em relação a soluções ou alternativas para melhorar
ou regular o funcionamento da ferramenta, e se considerava diferentes perspectivas ou
pontos de vista sobre o tema.
3 Resultados e discussão
A análise dos dados revelou, em primeiro lugar, que não houve diferença
estatisticamente significativa na comparação entre os jornais diário e semanário,
considerando tanto o critério de profundidade quanto a distribuição de textos entre os
polos positivo, negativo e neutro.
O jornal Público divulgou 32 artigos com a expressão ChatGPT no período,
sendo 14 de informação e 18 de opinião. O Expresso publicou 13 artigos de informação
e 8 de opinião. A diferença entre as publicações não foi considerada significativa.
O resultado do teste do qui-quadrado para comparar as proporções de textos
positivos e textos negativos nos dois jornais também conclui que não há significância.
Para a categoria “positivo”, o valor-p obtido foi 0,3284. Considerando um nível de
significância de 0,05, não há evidências suficientes para afirmar que existe uma diferença
estatisticamente significativa entre os jornais Público e Expresso na categoria “positivo”.
Para a categoria “negativo”, o valor-p obtido foi de 0,1039, levando à mesma conclusão.
Ou seja, não é possível dizer que um ou outro jornal é mais ou menos favorável ao
ChatGPT. Todas as ocorrências por jornal e polaridade estão apresentadas na tabela 1, a
seguir.
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 13
Em relação à nossa primeira hipótese, qual seja, “O jornal semanário (Expresso)
terá mais profundidade e será mais crítico na cobertura do tema do que o jornal diário
(Público)”, o resultado foi negativo.
Tabela 1Polaridades nos jornais Público e Expresso (n=53)
Polaridade
Público
Expresso
Positivo
13
8
Negativo
14
5
Neutro
5
8
Fonte: Dados da pesquisa (2023)
Após uma revisão cuidadosa, consideramos que os principais achados da análise
não residem na comparação entre os jornais, mas na comparação entre as categorias de
Opinião e de Informação, especialmente no que tange à análise de sentimentos e à variável
de profundidade dos textos. No que diz respeito às emoções encontradas com auxílio do
modelo BERTimbau, as seguintes combinações apareceram no corpus, conforme mostra
a Tabela 2:
Tabela 2Emoções no corpus (n=53)
Emoção
Ocorrências
Alegria
13
Surpresa
9
Raiva + medo
9
Alegria + surpresa
8
Raiva
5
Medo
4
Medo + alegria
1
Medo + surpresa
1
Nenhuma emoção
3
Fonte: Dados da pesquisa (2023)
Não houve nenhuma ocorrência das demais combinações possíveis, isto é: raiva e
alegria; raiva e surpresa; raiva, medo e alegria; raiva, medo e surpresa; raiva, alegria e
surpresa; medo, alegria e surpresa; raiva, medo, alegria e surpresa. Três textos
apresentaram “nenhuma emoção” frente às opções analisadas.
A correlação entre as variáveis de Opinião/Informação e as 16 variáveis de
emoção (individualmente e combinadas) revelou diferenças estatisticamente
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 14
significativas que, de modo geral, apontam que os textos opinativos são mais pessimistas
em relação aos informativos, que, por sua vez, contêm mais as emoções de alegria e
surpresa. Em relação à frequência dessas emoções por categoria de texto, o resultado
encontrado foi conforme a Tabela 3 indica, com todas as combinações possíveis entre as
variáveis de emoção:
Tabela 3Emoções por tipo de texto (n=53)
Polaridade
Opinião
Alegria
6
Surpresa
4
Raiva
2
Medo
2
Alegria + surpresa
2
Alegria + raiva
0
Alegria + medo
1
Surpresa + raiva
0
Surpresa + medo
0
Raiva + medo
8
Alegria + surpresa + raiva
0
Alegria + surpresa + medo
0
Alegria + raiva + medo
0
Surpresa + raiva + medo
0
Alegria + surpresa + raiva + medo
0
Nenhuma emoção
1
Fonte: Dados da pesquisa (2023)
A princípio, dois resultados chamaram a nossa atenção, comparativamente, na
tabela 3. O primeiro, a prevalência da categoria “raiva + medo” em textos de opinião (8)
sobre os de informação (1). Em segundo lugar, uma combinação positiva: alegria +
surpresa, que aparecem seis vezes em informação e apenas duas em opinião.
Para determinar se a ocorrência de “raiva + medo” em Opinião é estatisticamente
significativa em relação a Informação, realizamos um teste de hipótese, o teste do qui-
quadrado de independência. O valor-p obtido no caso foi de aproximadamente 0,024. Se
considerarmos um nível de significância de 0,05, e que a probabilidade de observar essa
diferença por acaso é inferior a 5%, podemos concluir que a ocorrência de raiva e medo
em Opinião é estatisticamente significativa em relação a Informação, uma vez que o
valor-p é menor que o nível de significância, o que sugere haver uma associação entre a
tipologia dos textos e a presença conjunta de raiva e medo.
O mesmo teste, contudo, ao ser realizado sobre a variável de alegria e surpresa,
indicou um valor-p de aproximadamente 0,274, o que não nos permitiu concluir que a
ocorrência de alegria e surpresa em Informação seja estatisticamente significativa em
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 15
relação a Opinião, uma vez que o valor-p é maior que o nível de significância. Isso sugere
que não há uma associação clara entre a tipologia dos textos e a presença conjunta de
alegria e surpresa, conforme a tabela 3 poderia deixar indicar.
Isso confirma parcialmente nossa segunda hipótese, Os textos classificados como
Opinião expressam mais emoção negativa do que os de Informação, que não expressam
emoção”. Apesar da primeira parte ser verdadeira, a segunda não o é, ou seja, mesmo nos
textos informativos houve grande incidência de emoção, o que pode estimular futuros
estudos que se debrucem sobre a questão do uso retórico da emoção no texto jornalístico
informativo.
Também não foi encontrada correlação entre data de publicação e as emoções
listadas: ou seja, a hipótese H3, de que conforme o tempo passasse haveria uma mudança
na emoção dos textos não foi confirmada, ao menos não no intervalo de 58 dias que
analisamos.
Por fim, destacamos que, embora os textos de informação possuam mais
ocorrência de profundidade considerada baixa, o que era de certa forma esperado, não
houve correlação estatística significativa entre as variáveis profundidade e tipologia
textual. A Tabela 4 mostra as ocorrências totais, no corpus, de profundidade por texto de
Opinião e de Informação.
Tabela 4 Profundidade por tipo de texto (n=53)
Profundidade
Informação
Opinião
Média
16
8
Alta
9
8
Baixa
8
4
Fonte: Dados da pesquisa (2023)
Em todos os casos, os valores-p obtidos foram maiores do que o nível de
significância, sugerindo que não existe associação clara entre a tipologia dos textos e a
profundidade, o que invalida H4: “Os textos de opinião são mais profundos do que os de
Informação, na abordagem do ChatGPT”.
A análise dos dados revela que não há uma diferença estatisticamente significativa
entre o Público e o Expresso em termos de profundidade de cobertura ou polaridade nos
textos sobre o ChatGPT, sejam eles positivos, negativos ou neutros. O Público publicou
32 artigos (14 informativos e 18 de opinião), enquanto o Expresso veiculou 21 artigos (13
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 16
informativos e 8 de opinião), sem diferença significativa na proporção de tipos de texto
ou polaridades (p > 0,05).
Em suma, é interessante notar que mesmo jornais de orientações tão distintas, um
diário mais focado em hard news e um semanário que se posiciona como analítico, houve
grande similaridade nos padrões de cobertura do tema ChatGPT. Uma análise
aprofundada das categorias de Opinião e Informação foi o que revelou padrões distintos
de emoção e conteúdo. Com base na análise de sentimentos com o modelo BERTimbau,
encontramos que os textos de opinião expressam predominantemente emoções negativas
(combinando raiva e medo), enquanto os textos informativos tendem a associar alegria e
surpresa.
Esses achados destacam que, embora o tipo de jornal não tenha tido uma
influência significativa, as categorias de Opinião e Informação trazem diferenças
emocionais importantes. Este padrão de emoções pode fortalecer hipóteses de estudo
sobre o papel retórico da emoção no discurso jornalístico, indicando potenciais áreas de
investigação sobre a construção narrativa em textos informativos.
Outra questão que merece aprofundamento é a da correlação entre temas de
cobertura e emoções. Assim como na abordagem realizada por Canavilhas e Essenfelder
(2022), identificamos que as “boas notícias” concentram-se principalmente na seção de
Economia (aumento de produtividade, novos produtos e serviços, investimentos e lucros
de empresas de tecnologia), enquanto as “más opiniões” aparecem com mais frequência
no campo da Política/Sociedade, em discussões sobre desinformação, ameaças à
democracia e desafios regulatórios.
Nesse sentido, o estudo dialoga com outro, mais amplo, realizado no Brasil por
Essenfelder e Ranieri (2024), que, ao analisar 104 textos de Folha de S.Paulo e O Globo,
encontrou poucos resultados de opiniões positivas, em contraste com o gênero
informativo. Mais interessante, contudo, foi a constatação de que:
Entre os dois temas que encabeçam a análise, Economia e Política, há uma clara distinção
de abordagens. Enquanto em Economia a cobertura é majoritariamente positiva, com a
IA sendo associada a ideias como solução, eficiência, ganho, oportunidade, em Política a
cobertura é majoritariamente negativa, com campos semânticos associados a riscos,
ameaças, desinformação e fake news, manipulação, desregulação e descontrole padrão
que se manteve estável nos dois jornais analisados” (Essenfelder; Ranieri, 2024, p. 164).
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 17
4 Considerações finais
A análise dos dados confirmou algumas de nossas hipóteses, enquanto outras
foram desmentidas. Primeiramente, a hipótese de que o jornal semanário (Expresso) teria
mais profundidade e seria mais crítico na cobertura do tema do que o jornal diário
(Público) foi desmentida, uma vez que não houve diferença estatisticamente significativa
entre os jornais nos critérios de profundidade e distribuição de textos entre polos
positivos, negativos e neutros.
Em relação à segunda hipótese, de que os textos classificados como Opinião
expressam mais emoção negativa do que os de Informação, tivemos confirmação parcial:
embora os textos de opinião expressassem significativamente mais emoções negativas,
os textos informativos também apresentaram uma incidência considerável de emoções,
desmentindo a suposição de que não expressariam emoção.
A terceira hipótese, que previa uma mudança na emoção dos textos conforme o
tempo passasse, não foi confirmada no intervalo de 58 dias analisado. Por fim, a hipótese
de que os textos de opinião seriam mais profundos do que os de informação também foi
invalidada, pois não houve correlação estatística significativa entre tipologia textual e
profundidade.
Os principais achados da análise estão relacionados à comparação entre as
categorias de Opinião e Informação, especialmente em relação à análise de sentimentos.
As emoções mais frequentes encontradas no corpus foram alegria, surpresa, raiva e medo,
com algumas combinações positivas como alegria e surpresa sendo mais frequentes em
textos de informação. Por outro lado, a ocorrência de raiva e medo foi mais prevalente
em textos de opinião em comparação com textos de informação, sendo essa diferença
estatisticamente significativa.
Esses resultados sugerem que os textos opinativos tendem a ser mais pessimistas
em relação aos informativos. No entanto, é importante destacar que a análise dos dados
tem suas limitações e não permite conclusões definitivas. Futuras pesquisas podem
aprofundar a compreensão dessas diferenças e investigar outros aspectos relevantes na
análise de textos jornalísticos, como a influência de diferentes contextos (incluindo a
formação dos jornalistas responsáveis pela cobertura de tecnologia, a disponibilidade de
recursos materiais para essa cobertura, o acesso a fontes etc.), ou em espaços de tempo
mais alargados. Também pode ser aprofundada a análise qualitativa sobre os textos,
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 18
considerando aspectos que não foram objeto de maior atenção de nossa parte, como o tipo
de fonte ouvida nas matérias, a extensão e didatismo dos textos. Também há espaço,
acreditamos, para estudos de recepção, que discutam a percepção dos leitores sobre um
tema ao mesmo tempo tão técnico e tão presente em nossas vidas.
A questão do pessimismo da opinião versus um suposto otimismo da informação
pode ser aprofundada também, por meio de entrevistas com os autores dos textos,
formadores, chefes de redação, que possam elucidar o que pode estar em jogo nessas
diferentes visões de mundo.
A metodologia empregada neste estudo, que combina a análise de sentimentos, a
análise de polaridade e a análise de conteúdo, demonstra um mérito significativo e pode
servir como um modelo inspirador para futuras pesquisas na área da comunicação. Ao
utilizar o SentiLex-PT para a classificação de polaridade e o modelo BERTimbau para a
identificação de emoções, conseguimos obter uma visão detalhada e multifacetada das
características emocionais e valorativas presentes nos textos jornalísticos. Além disso, a
análise de conteúdo permitiu uma compreensão mais profunda do contexto e das nuances
dos artigos, enriquecendo os insights obtidos. Essa abordagem integrada não apenas
proporciona uma análise mais robusta e abrangente, mas também abre novas
possibilidades para explorar a complexidade da cobertura midiática sobre tecnologias
emergentes, como o ChatGPT, incentivando a realização de estudos futuros que possam
ampliar e aprofundar essas descobertas.
Os resultados desta pesquisa abrem espaço para uma agenda de investigações
futuras que aprofunde a compreensão de como a mídia tem retratado tecnologias tão
complexas e tão transformadoras como a IA. Sugerimos a realização de estudos
comparativos entre a cobertura da IA em mídias de diferentes países, permitindo
identificar convergências e divergências culturais na abordagem do tema.
Adicionalmente, uma análise longitudinal da percepção do ChatGPT e de outras
tecnologias de IA, incorporando dados mais recentes, contribuiria para identificar
tendências de longo prazo e possíveis mudanças de atitude.
Finalmente, recomendamos estudos qualitativos que incluam entrevistas com
jornalistas e editores. Essas investigações permitiriam entender melhor os desafios e as
oportunidades percebidas no uso do ChatGPT e outras IA nas redações, proporcionando
uma visão mais detalhada dos impactos nas práticas jornalísticas e na autonomia editorial.
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 19
Justamente em função da onipresença da tecnologia em nossas vidas, e em
especial das novas ferramentas de inteligência artificial, consideramos que há necessidade
de aprofundar as discussões sobre o tema não apenas a partir da perspectiva do trabalho
efetivamente realizado por jornalistas e comentadores na imprensa, mas também em
relação à questão mais ampla do debate público e social sobre o tema. Questões como
regulação, propriedade intelectual, automatização do trabalho, parecem-nos urgentes de
serem debatidas no contexto do surgimento de tecnologias de IA generativa cada vez mais
avançadas.
Referências
AIAAIC. Belgian man commits suicide after bot relationship. (s.d.). Disponível em:
https://www.aiaaic.org/aiaaic-repository/ai-and-algorithmic-incidents-and-
controversies/belgian-man-commits-suicide-after-bot-relationship. Acesso em: 10 jan.
2024.
BITTAR, Nora H. A Longitudinal Sentiment Analysis of Swedish News Headlines in
2000-2022. OSF, 29 abr. 2023. Disponível em:
https://doi.org/10.17605/OSF.IO/HD58W.
BOCZKOWSKI, Pablo J.; MITCHELSTEIN, Eugenia. The news gap: When the
information preferences of the media and the public diverge. Cambridge, MA: MIT
Press, 2013.
CANAVILHAS, João; ESSENFELDER, Renato. Apocalypse or redemption: how the
Portuguese media cover artificial intelligence. In: VÁZQUEZ-HERRERO, Jorge (ed.).
Total Journalism: Models, Techniques and Challenges. Springer International
Publishing, 2022. p. 255-270.
CARVALHO, Paula; SILVA, Mário J. SentiLex-PT: principais características e
potencialidades. Oslo Studies in Language, v. 7, n. 1, 2015.
CHANDRA, Rohitash; SAINI, Ritij. Biden vs Trump: Modeling US General Elections
Using BERT Language Model. IEEE Access, v. 9, p. 128494-128505, 2021. doi:
10.1109/ACCESS.2021.3111035.
CHRISTOFOLETTI, Rogério. Ética no jornalismo. Editora Contexto: São Paulo,
2015.
ESSENFELDER, Renato; RANIERI, Paulo. Discursos sobre inteligência artificial na
mídia brasileira: análise dos jornais Folha de S.Paulo e O Globo. In: PENSAR LA
COMUNICACIÓN, 7., 2024, Medellín. Anais [...]. Medellín, Colômbia: Sello Editorial
de la Universidad de Medellín, 2024.
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 20
GILLESPIE, Tarleton; BOCZKOWSKI, Pablo J.; FOOT, Kirsten A. (orgs.). Media
technologies: Essays on communication, materiality, and society. Cambridge: MIT
Press, 2014. Disponível em: https://mitpress.mit.edu/9780262525374/media-
technologies/. Acesso em: 13 fev. 2024.
HABERMAS, Jürgen. The theory of communicative action: Reason and the
rationalization of society. Vol. 1. Beacon Press, 1984.
HAMMES, Luiz Otávio Alves; DE FREITAS, Larissa Astrogildo. Utilizando
BERTimbau para a classificação de emoções em português. In: SIMPÓSIO
BRASILEIRO DE TECNOLOGIA DA INFORMAÇÃO E DA LINGUAGEM
HUMANA (STIL). SBC, 2021. Anais […], SBC, p. 56-63, 2021.
HAVENSTEIN, Heather. Spring comes to AI winter. Computer World, 2005.
Disponível em: https://www.computerworld.com/article/1720304/spring-comes-to-ai-
winter.html. Acesso em: 24 out. 2024.
KEMPER, Jonathan. Incidents of AI misuse are rapidly increasing. The Decoder, 5 abr.
2023. Disponível em: https://the-decoder.com/incidents-of-ai-misuse-are-rapidly-
increasing/. Acesso em: 11 nov. 2024.
KOVACH, Bill; ROSENSTIEL, Tom. The elements of journalism, revised and
updated 4th edition: What newspeople should know and the public should expect.
New York: Crown, 2021.
KRIPPENDORFF, Klaus. Content analysis: An introduction to its methodology.
Thousand Oaks, California: Sage Publications, 2018.
LEAL, Laurindo. A melhor TV do mundo: o modelo britânico de televisão. São Paulo:
Summus Editorial, 1997.
MASLEJ, Nestor; FATTORINI, Loredana; BRYNJOLFSSON, Erik; ETCHEMENDY,
John; LIGETT, Katrina; LYONS, Terah; MANYIKA, James; NGO, Helen; NIEBLES,
Juan Carlos; PARLI, Vanessa; SHOHAM, Yoav; WALD, Russell; CLARK, Jack;
PERRAULT, Raymond. Artificial Intelligence Index Report 2023. arXiv preprint,
arXiv:2310.03715, 2023. Disponível em: https://arxiv.org/abs/2310.03715. Acesso em:
7 out. 2024.
METZ, Cade; SCHMIDT, Gregory. Elon Musk and others call for pause on A.I., citing
'profound risks to society'. The New York Times, 29 mar. 2023. Disponível em:
https://www.nytimes.com/2023/03/29/technology/ai-artificial-intelligence-musk-
risks.html. Acesso em: 11 abr. 2024.
OPENAI. GPT-4 Technical Report. arXiv, 2023. Disponível em:
http://arxiv.org/abs/2303.08774. Acesso em: 11 fev. 2024.
PERRAULT, Raymond; SHOHAM, Yoav; BRYNJOLFSSON, Erik; CLARK, Jack;
ETCHEMENDY, John; GROSZ, Barbara; LYONS, Terah; MANYIKA, James;
Boas notícias, más opiniões
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 21
MISHRA, Saurabh; NIEBLES, Juan Carlos. The AI Index 2019 Annual Report. AI
Index Steering Committee, Human-Centered AI Institute, Stanford University, Stanford,
CA, dez. 2019.
PLUTCHIK, Robert. The emotions. University Press of America, 1991.
PÚBLICO. Público foi o diário mais lido em Portugal em 2022 e cresceu 17% no
digital. Público, Lisboa, 28 fev. 2023. Disponível em:
https://www.publico.pt/2023/02/28/sociedade/noticia/publico-diario-lido-portugal-
cresceu-17-digital-2040618. Acesso em: 1 jul. 2024.
RAMOS, Daniela Osvald. Jornalismo de qualidade: questão de democracia.
MATRIZes, v. 8, n. 1, p. 295-298, 2014.
RUSSELL, Stuart J.; NORVIG, Peter. Artificial intelligence: A modern approach.
Pearson, 2016.
SIGFRIDS, Anton; LEIKAS, Jaana; SALO-PÖNTINEN, Henrikki; KOSKIMIES,
Emmi. Human-centricity in AI governance: A systemic approach. Frontiers in
Artificial Intelligence, v. 6, 2023. DOI: 10.3389/frai.2023.976887.
SINGH, Shubham. ChatGPT Statistics for 2023 (New Data + GPT-4 Facts). Demand
Sage, 18 nov. 2023. Disponível em: https://www.demandsage.com/chatgpt-statistics/.
Acesso em: 1 fev. 2024.
SOUZA, Frederico Dias; FILHO, João Baptista de Oliveira e Souza. BERT for
sentiment analysis: pre-trained and fine-tuned alternatives. In: INTERNATIONAL
CONFERENCE ON COMPUTATIONAL PROCESSING OF THE PORTUGUESE
LANGUAGE. 2022. Proceedings […]. Cham: Springer International Publishing, p.
209-218, 2022.
TRACY, Jessica L.; RANDLES, Daniel. Four models of basic emotions: A review of
Ekman and Cordaro, Izard, Levenson, and Panksepp and Watt. Emotion Review, v. 3,
n. 4, p. 397-405, 2011.
TUCHMAN, Gaye. Making News: A Study in the Construction of Reality. Free Press,
1978.
VARANASI, Lakshmi. OpenAI just announced GPT-4, an updated chatbot that can
pass everything from a bar exam to AP Biology. Here’s a list of difficult exams both AI
versions have passed. Business Insider, 2023. Disponível em:
https://www.businessinsider.com/list-here-are-the-exams-chatgpt-has-passed-so-far-
2023-1. Acesso em: 12 nov. 2023.
VASWANI, Ashish; JONES, Llion; SHAZEER, Noam; PARMAR, Niki;
USZKOREIT, Jakob; GOMEZ, Aidan N.; KAISER, Łukasz; POLOSUKHIN, Illia.
Attention is all you need. Advances in Neural Information Processing Systems
(NeurIPS), v. 30, 2017.
Nomes dos autores
Comunicação & Inovação | v. 25 | e20249691 | jan.-dec. | 2024 | ISSN 2178-0145. https//doi.org/10.13037/ci.vol25.e20249691
Copyright: © 2024, the authors. Licensed under the terms and conditions of the Creative Commons Attribution-
NonCommercial-NoDerivatives License 4.0 (CC BY-NC-ND 4.0) (https://creativecommons.org/licenses/by-nc-nd/4.0/). p. 22
i Professor e investigador em Ciências da Comunicação e coordenador do doutorado na mesma área da
Universidade Fernando Pessoa (Porto, Portugal). É doutor em Ciências da Comunicação pela Universidade
de São Paulo (USP) e em 2021 realizou seu pós-doutoramento na Universidade da Beira Interior (Covilhã,
Portugal), com investigação pioneira sobre as ameaças e as oportunidades que a Inteligência Artificial trazia
ao campo do Jornalismo. Suas áreas preferenciais de pesquisa são: Jornalismo e Novas Tecnologias,
Inteligência Artificial, Ética e Narratologia.
ResearchGate has not been able to resolve any citations for this publication.
Article
Full-text available
Human-centricity is considered a central aspect in the development and governance of artificial intelligence (AI). Various strategies and guidelines highlight the concept as a key goal. However, we argue that current uses of Human-Centered AI (HCAI) in policy documents and AI strategies risk downplaying promises of creating desirable, emancipatory technology that promotes human wellbeing and the common good. Firstly, HCAI, as it appears in policy discourses, is the result of aiming to adapt the concept of human-centered design (HCD) to the public governance context of AI but without proper reflection on how it should be reformed to suit the new task environment. Second, the concept is mainly used in reference to realizing human and fundamental rights, which are necessary, but not sufficient for technological emancipation. Third, the concept is used ambiguously in policy and strategy discourses, making it unclear how it should be operationalized in governance practices. This article explores means and approaches for using the HCAI approach for technological emancipation in the context of public AI governance. We propose that the potential for emancipatory technology development rests on expanding the traditional user-centered view of technology design to involve community- and society-centered perspectives in public governance. Developing public AI governance in this way relies on enabling inclusive governance modalities that enhance the social sustainability of AI deployment. We discuss mutual trust, transparency, communication, and civic tech as key prerequisites for socially sustainable and human-centered public AI governance. Finally, the article introduces a systemic approach to ethically and socially sustainable, human-centered AI development and deployment.
Conference Paper
Full-text available
Neste trabalho propomos realizar o fine-tuning dos modelos BERTimbau-base e BERTimbau-large na tarefa de Classificação de 27 tipos de emoções em sentenças, baseado no dataset GoEmotions traduzido para a língua portuguesa, por meio de ferramentas de tradução automática. Comparamos os resultados de nossos experimentos com os resultados disponibilizados pelos autores do dataset GoEmotions e obtivemos um ganho de desempenho ao qual atribuímos ao algoritmo de balanceamento utilizado.
Article
Full-text available
This paper is based on a review of how previous studies have defined and operationalized the term “fake news.” An examination of 34 academic articles that used the term “fake news” between 2003 and 2017 resulted in a typology of types of fake news: news satire, news parody, fabrication, manipulation, advertising, and propaganda. These definitions are based on two dimensions: levels of facticity and deception. Such a typology is offered to clarify what we mean by fake news and to guide future studies.
Chapter
BERT has revolutionized the NLP field by enabling transfer learning with large language models that can capture complex textual patterns, reaching the state-of-the-art for an expressive number of NLP applications. For text classification tasks, BERT has already been extensively explored. However, aspects like how to better cope with the different embeddings provided by the BERT output layer and the usage of language-specific instead of multilingual models are not well studied in the literature, especially for the Brazilian Portuguese language. The purpose of this article is to conduct an extensive experimental study regarding different strategies for aggregating the features produced in the BERT output layer, with a focus on the sentiment analysis task. The experiments include BERT models trained with Brazilian Portuguese corpora and the multilingual version, contemplating multiple aggregation strategies and open-source datasets with predefined training, validation, and test partitions to facilitate the reproducibility of the results. BERT achieved the highest ROC-AUC values for the majority of cases as compared to TF-IDF. Nonetheless, TF-IDF represents a good trade-off between the predictive performance and computational cost.
Chapter
Artificial intelligence (AI) occupies an increasingly important place in the contemporary societies. One of the most visible aspects is the personalization of online content, news or advertising, but the emergence of personal assistants and autonomous vehicles are phenomena that also attracts the attention of the media and, by this way, reach the population. This article studies the Portuguese reality by analyzing the coverage of artificial intelligence by five national newspapers. The conclusions allow us to say that, although it was considered huge, the coverage proved to be superficial, with a high rate of reuse of sources from other texts, presents little diversity in opinions, and does not stimulate debate in society. Among the most common approaches are economics and political. The coverage was positive in most cases, especially in the health area, where the media never criticized the effects of AI.KeywordsArtificial intelligenceJournalismTechnologyPublic debate
Article
This paper describes the main characteristics of SentiLex-PT, a sentiment lexicon designed for the extraction of sentiment and opinion about human entities in Portuguese texts. The potential of this resource is illustrated on its application to two types of corpora, the SentiCorpus-PT, a social media corpus, consisting of user comments to news articles, and a literary piece of the early twentieth century, The Poor (Os Pobres), by Raul Brandão. The data were processed by UNITEX, a natural language processing system based on dictionaries and grammars.
Book
An analysis of divergent online news preferences of journalists and consumers and what this means for media and democracy in the digital age. The websites of major media organizations—CNN, USA Today, the Guardian, and others—provide the public with much of the online news they consume. But although a large proportion of the top stories these sites disseminate cover politics, international relations, and economics, users of these sites show a preference (as evidenced by the most viewed stories) for news about sports, crime, entertainment, and weather. In this book, Pablo Boczkowski and Eugenia Mitchelstein examine the divergence in preferences and consider its implications for the media industry and democratic life in the digital age. Drawing on analyses of more than 50,000 stories posted on twenty news sites in seven countries in North and South America and Western Europe, Boczkowski and Mitchelstein find that the gap in news preferences exists regardless of ideological orientation or national media culture, and that it is not affected by innovations in forms of storytelling, such as blogs and user-generated content on mainstream news sites. Drawing upon these findings, they explore the news gap's troubling consequences for the matrix that connects communication, technology, and politics in the digital age.
Book
This Palgrave Policy Essential draws together recent developments in the field of science in government, policy and public debate. Practice and academic insights from a wide variety of fields have advanced in the last decade and this book provides a consolidated survey of the established but scattered insights into the provision of deeply technical expertise in policy making: models of climate or disease, risk, Artificial Intelligence and ethics amongst others. It goes on to link this to emerging ideas about futures thinking, public engagement, narrative, and the role of values and sentiment alongside the place of scientific and scholarly insights in public decision-making and debate. The book offers an accessible overview aimed at practitioners, policy-makers looking to understand how to work with researchers, researchers looking to work with policy-makers, and the increasing numbers and types of “brokers” - people working at the interface, in science advice, public engagement and communication of science, and in expert support to decision-making in the public and private sectors. Claire Craig CBE is Chief Science Policy Officer at the Royal Society. She previously led the Government Office for Science on behalf of two UK Government Chief Scientific Advisors. She established the UK’s Foresight programme of science-based strategic futures projects, covering topics from flood risk to cognitive enhancement and was a Faculty member of the World Economic Forum. Claire has worked extensively on strategy and science in decision-making. Her career includes periods at McKinsey & Co and the Prime Minister’s Delivery Unit. She helped launch a hands-on science centre in Bristol, and has held Board roles at a variety of research and teaching institutions including the Council of King’s College London and the Governing Body of Newnham College Cambridge.
Article
The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely. Experiments on two machine translation tasks show these models to be superior in quality while being more parallelizable and requiring significantly less time to train. Our model achieves 28.4 BLEU on the WMT 2014 English-to-German translation task, improving over the existing best results, including ensembles by over 2 BLEU. On the WMT 2014 English-to-French translation task, our model establishes a new single-model state-of-the-art BLEU score of 41.0 after training for 3.5 days on eight GPUs, a small fraction of the training costs of the best models from the literature. We show that the Transformer generalizes well to other tasks by applying it successfully to English constituency parsing both with large and limited training data.