Available via license: CC BY-NC-SA 4.0
Content may be subject to copyright.
¿Son bots? Automatización en redes sociales
durante las elecciones presidenciales de
Chile 2017
Are they bots? Social media automation during Chile’s 2017
presidential campaign
São bots? Automatização nas redes sociais durante a campanha
presidencial no Chile 2017
LUIS E. SANTANA, Universidad Adolfo Ibáñez, Sant iago, Chile (luis.san tana@uai.cl)
GONZALO HUERTA CÁNEPA, Uni versidad Adolfo Ibáñez, Viña del Mar, Chile (gonzalo.huerta@uai.cl)
ABSTRACT
This research sought for automated
strategies of creation or diffusion of electoral
propaganda in social media during Chile’s
2017 presidential campaign. We collected
and analyzed almost 2 million tweets that
utilized election hashtags or were linked to
one of the candidates or their campaigns;
we also collected and analyzed 2,927 official
Facebook posts of the candidates and 453,668
comments. While on Facebook the behavior
was relatively normal, we discovered that on
Twitter there were digital brigades who act
autonomously in astroturfing campaigning
during the first round of the election.
Keywords: bots; propaganda; elections;
social media; democracy.
RESUMEN
En esta investigación se buscaron estra-
tegias automatizadas de creación o difu-
sión de propaganda electoral en redes
sociales durante la campaña presiden-
cial de Chile de 2017. Se recolectaron
y analizaron casi 2 millones de tuits
sobre la elección o vinculados a alguno
de los candidatos o sus campañas; en
Facebook, se analizaron 2.927 publica-
ciones oficiales de los candidatos y sus
453.668 comentarios. Mientras que en
Facebook el comportamiento fue relati-
vamente normal, en Twitter se descubrió
en primera vuelta que hubo brigadistas
digitales que actúan de forma autónoma
tratando de crear una ilusión de apoyo
en las bases.
Palabras clave: bots; propaganda;
elecciones; social media; democracia.
RESUMO
A pesquisa buscou, estratég ias
automatizadas de criação ou difusão de
propaganda eleitoral em redes sociais
durante a campanha presidencial do
Chile em 2017. Do Twitter obtivemos
quase 2 milhões de tweets que ocuparam
hashtags eleitorais ou ligados a um
dos candidatos ou suas campanhas,
enquanto o Facebook analisou 2.927
publicações oficiais dos candidatos
e 453.668 comentários. No que diz
respeito ao Facebook o comportamento
era relativamente normal, no Twitter foi
descoberto que havia legiãos digitais
que agem autonomamente tentando
criar ilusão de apoio nas bases durante
o primeiro turno.
Palavras- chave: bots; propaganda;
eleições; redes sociais; democracia.
CUADERNOS.INFO Nº 44 ISSN 0719-3661
Versión electrónica: ISSN 0719-367x
http://www.cuadernos.info
https://doi.org/10.7764/cdi.44.1629
Forma de citar:
Santana, L. & Huerta Cánepa, G. (2019). ¿Son bots? Automatización en redes sociales durante las elecciones presidenciales
de Chile 2017. Cuadernos.info, (44), 61-77. htt ps://doi.org /10.7764/cdi.44.1629
61
Recibido: 10-12-2018 / Aceptado: 17-04-2019
SANTANA, L. & HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
62
INTRODUCCIÓN
Estar informado del acontecer político y social es de
primordial importancia para poder tomar decisiones
adecuadas a la hora de elegir a nuestras autoridades.
Actualmente, la información política circula en eco-
logías multimediales que combinan medios de comu-
nicación tradicionales y medios sociales que permiten
oportunidades de atención selectiva y producción de
contenidos distintas a las ya conocidos, generando
un ambiente comunicacional complejo (Bennett,
Segerberg, & Yang, 2018; Persily, 2017). Esta nueva
esfera pública y las interacciones que a través de ella
suceden facilitan la circulación de ideas políticas y
sobre políticas públicas que influyen en los resultados
de ciertos procesos políticos (Arnaudo, 2017; Howard,
Wooley, & Calo, 2018). Es en este contexto que existe
creciente evidencia internacional que sugiere que los
actores políticos usan propaganda computacional,
como la fabricación de noticias falsas (fake news), el uso
de algoritmos y la automatización de bots (programas
computacionales planeados para ejecutar tareas sim-
ples y repetitivas), para manipular la opinión pública,
desmovilizar oponentes y generar falsos apoyos a cier-
tas posiciones (Howard, 2015; Gallacher, Kaminska,
Kollanyi, & Howard, 2017).
En Latinoamérica, el tipo de estrategia de propaganda
computacional que se usa depende del país; en varios
países se han descubierto ciber-tropas, que son grupos
políticos o gubernamentales mandatados para manipu-
lar la opinión pública, quienes orquestan este tipo de
desinformación (Bradshaw & Howard, 2018; Filer &
Fredheim, 2017; Forelle, Howard, Monroy-Hernandez,
& Savage, 2018; Puyosa, 2017). Si bien los estudios
sobre desinformación, propaganda y bots han cobrado
relevancia a partir de los resultados eleccionarios en
Estados Unidos, Europa y ciertos países con inestabi-
lidad política, también resulta interesante cuestionar si
estas dinámicas se repiten en países con distintos sis-
temas de producción y consumo de medios, así como
regulaciones electorales particulares.
En especial, algunos países con estabilidad política
y presumible limitado rédito para la intromisión de
potencias extranjeras y sus aparataros de propaganda,
como Chile, permitirían enfocarse en dinámicas más
naturales que pudieran suceder entre los electores de
esta nueva esfera pública. Este es el caso investigado
en este artículo, cuyo objetivo principal es identificar
si existieron estrategias automatizadas o semiauto-
matizadas de creación o difusión de contenidos en las
discusiones/conversaciones que se llevaron a cabo en
Tw itt er y Fa ceb oo k du ra nte la s el ecc io nes pre si denc ia -
les de Chile de 2017.
Este trabajo hace una revisión bibliográfica de lo
que es la nueva esfera pública en red y sus implicancias
para la participación ciudadana, incluyendo las formas
y evidencia de manipulación de la opinión pública.
Luego, detalla cómo se recolectaron los contenidos de
Twitter y Facebook que tenían participación en la dis-
cusión de la campaña presidencial en Chile de 2017.
Finalmente, presenta los resultados sobre la existencia
o no de automatización y estrategias de manipulación
de la opinión pública.
MARCO TEÓRICO
LA ESFERA PÚBLICA DIGITAL
La esfera pública política se entiende como un sistema
de comunicaciones que intermedia la deliberación de las
instituciones políticas formalmente organizadas en la
sociedad con aquellas deliberaciones cara a cara que se
dan en las bases del sistema político (Habermas, 2006).
Durante la segunda mitad del siglo XX, la esfera pública
estaba mediada por una elite profesional, periodistas
y otros profesionales del sistema de medios, así como
por actores políticos en sus diversas formas (Habermas,
2006; Papachar issi, 2010). Actualmente, la infraestruc-
tura tecno-social que permiten las tecnologías digitales
recibe, además de los actores ya conocidos, el inter-
cambio de ciudadanos individuales e incluso agentes
anónimos que se conectan e intercambian contenidos
entre ellos, generando una esfera pública híbrida en
red, en parte digital y en parte análoga (Benkler, 2006;
Chadwick, 2013; Papacharissi, 2010). Esta nueva esfera
pública ha facilitado la circulación de ideas políticas
y sobre políticas públicas, y por lo tanto influye en la
opinión pública y en los resultados de ciertos procesos
políticos (Arnaudo, 2017; Howard et al., 2017).
A medida que el siglo veintiuno avanza, las elites
profesionales de los medios de comunicación de masa
han ido perdiendo su poder, a la vez que las plataformas
comerciales de redes sociales y sus reglas de funcio-
namiento cobran importancia (Persily, 2017; Tufekci,
2016). El uso de redes sociales con fines políticos ha
tenido resultados positivos en algunos ámbitos de la
participación cívica. Por ejemplo, se ha documentado
que en Latinoamérica son un predictor importante de
la protesta política, reduciendo las brechas de parti-
cipación tradicionalmente asociadas a edad, género
y otras características socio-psicológicas individua-
les, ya que quienes más usan estas plataformas para
SANTANA, L. y HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
63
propósitos políticos, también protestan físicamente
más que quienes no lo hacen (Valenzuela, Arriagada,
Somma, & Scherman, 2016). La redes sociales también
han permitido la creación y expresión de campañas
cívico-digitales en países tradicionalmente con baja
participación, conservadores y más autocráticos,
significativamente más que en otros países con una
tradición de participación ciudadana activa (Santana,
2015).
En términos electorales, al menos en Latinoamérica,
parece ser que las apariciones de las redes sociales mar-
can un cambio de patrón en las relaciones entre las eli-
tes políticas y los ciudadanos. Al reducirse los costos
operacionales y técnicos de mantener una presencia
en línea por medio de estas plataformas, se universa-
liza el uso de herramientas digitales como recursos de
campaña y fuentes de información política (Allcott &
Gentzkow, 2017; Braga & Carlomagno, 2018). Se ha
descubierto de esta forma una correlación positiva entre
la presencia en línea de los candidatos y los porcenta-
jes de votación, tanto en Brasil (Braga & Carlomagno,
2018) como en México, donde los candidatos que se
involucraban activamente respondiendo a comenta-
rios en redes sociales también generaban más partici-
pación cívica (Howard, Savage, Flores Saviaga, Toxtli,
& Monroy-Hernandez, 2017). Tal como en el resto del
mundo, la posibilidad de direccionar mensajes indivi-
dualizados, el llamado microtargeting, a grandes núme-
ros de personas a través de las redes sociales aumenta
la percepción de cercanía de los electores al poder
(Bradshaw & Howard, 2018). Todas estas dinámicas
explican por qué las campañas políticas de todos los
sectores ven en las plataformas de redes sociales una
forma efectiva de vincularse con sus posibles electores
(Howard et al., 2017).
La campaña electoral de 2016 en Estados Unidos, en
la que Donald Trump resultó electo, hizo muy visible
un cambio en las dinámicas tradicionales de cómo se
llevaban las campañas políticas en democracias occi-
dentales. Ciertos límites que antes eran claros eran
ahora difíciles de determinar; por ejemplo, saber quié-
nes son parte de la campaña y quiénes no, o el límite
entre atención mediática y avisaje, o la diferencia entre
noticias y entretenimiento. Incluso la diferencia entre
fuentes nacionales o extranjeras de información era
difusa en esta nueva esfera pública que funciona en
parte digitalmente (Persily, 2017). También se pudo
evidenciar el uso estratégico de la generación de tuits
para determinar la agenda de los medios tradicionales:
cuando el candidato tenía poca cobertura, tuiteaba en
mayor cantidad que cuando recibía mayor cobertura
(Persily, 2017).
Esta tendencia de uso creciente de estrategias
digitales para campañas políticas también se encuen-
tra en Latinoamérica. Si bien en el pasado la brecha
digital era un problema para las campañas digita-
les, a medida que la penetración de Internet se incre-
menta en la población, por medio del uso masivo de
redes sociales en dispositivos móviles, esta brecha casi
desaparece. En Brasil, elección a elección los candi-
datos van monitoreando la plataforma más popular y
enfocan sus esfuerzos en esa plataforma, en desmedro
de aquellas menos eficientes o más caras de mantener
(Braga & Carlomagno, 2018).
POR QUÉ LA DISCUSIÓN PÚBLICA EN REDES
SOCIALES NO ES NATURAL
Parece ser que ciertas dinámicas que suceden en
las redes sociales, tanto a partir de las características
no digitales de los individuos (Vosoughi, Roy, & Aral,
2018) como de las características cambiantes de las
plataformas (Howard et al., 2017) son propicias para
generar condiciones que cambian la forma y distor-
sionan la legitimidad de la participación y el debate
público, aumentando la vulnerabilidad de la demo-
cracia en occidente (Persily, 2017).
Las teorías de la información y de decisión baye-
siana sugieren que la atención humana es atraída por
lo novedoso, ya que contribuye a la toma de decisiones
productivas y a una actualización del entendimiento
del mundo, promoviendo en las personas el compar-
tir esa información para contribuir al bienestar de sus
familiares y amigos (Vosoughi et al., 2018). Así, se ha
comprobado que las noticias falsas, al ser novedosas, se
propagan más rápido y más extensamente que noticias
verdaderas en las redes sociales (Vosoughi et al., 2018).
Esto podría explicar por qué la desinformación, enten-
dida como las acciones intencionales de individuos y
grupos que —sabiéndolo o no— difunden contenidos
maliciosos y noticias falsas (Bennett & Livingston, 2018;
Hwang, 2017), se ha convertido en un fenómeno tan
relevante y desafiante para un debate público saluda-
ble y, consecuentemente, para la toma de decisiones
electorales (Bennett & Livingston, 2018; Hwang, 2017).
En cuanto a las plataformas, diversos investigadores
han demostrado que los algoritmos de visualización
que tienen, reconocen contenidos populares y los prio-
rizan en las pantallas de los usuarios para aumentar el
tráfico y rentabilizarlas gracias al avisaje (Noble, 2018;
Tufekci, 2016). Por lo tanto, un contenido que viaja
SANTANA, L. & HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
64
más rápido y llega a más personas de forma orgánica
es catalizado por el algoritmo, aumentando su alcance
(Hurlock & Wilson, 2011), especialmente dentro de
una misma plataforma que ha sido diseñada para con-
trolar la experiencia de los usuarios para evitar que la
abandonen (Tufekci, 2016). Así es como la desinfor-
mación puede propagarse a una escala y velocidad que
desafía al sistema político y al de medios.
En cuanto al contenido que se comparte, se sabe que
las personas tienden voluntariamente a compartir más
contenidos o noticias de un encuadre moral (valores,
prescripciones morales, mensajes normativos y conte-
nidos religiosos o culturales) que otros tipos de conteni-
dos con encuadres más objetivos (Valenzuela, Piña, &
Ramírez, 2017). Respecto de la posición ideológica, en
general las personas se ven más expuestas a contenidos
que confirman sus ideas y los tienden a aislar de ideas
contrarias (Pariser, 2012), especialmente cuando su red
de contactos es poco heterogénea (Bakshy, Messing,
& Adamic, 2015). De todas formas, no está del todo
claro si estas dinámicas de burbujas están activando o
desincentivando la forma de participación en el espacio
público (Bakshy et al., 2015; Bond & Messing, 2015;
Pariser, 2012; Savage & Monroy-Hernández, 2015),
lo que deja mucho espacio para preguntarse por sus
efectos y cómo poder moverse políticamente en ellas.
Bajo estas condiciones difusas y cambiantes de la
esfera pública actual, no es raro que ciertos actores quie-
ran sacar provecho para afectar los resultados políticos.
Aunque se ha documentado en extenso cómo ciertos
movimientos y partidos de extrema derecha fabrican
contenidos falsos para movilizar simpatizantes contra
partidos de centro y contra los medios profesionales de
prensa (Bennett & Livingston, 2018), el fenómeno no es
solo atribuible a un grupo de actores políticos aislados.
Esto ya que el uso de las redes sociales para desinfor-
mar, desacreditar oponentes, manufacturar consensos,
manipular la opinión pública y socavar los procesos
democráticos, interfiriendo elecciones y deslegitimando
la confianza en las organizaciones democráticas, es
un fenómeno extendido mundialmente (Bennett &
Livingston, 2018; Bradshaw & Howard, 2018).
EL NUEVO REPERTORIO DE HERRAMIENTAS DE
PERSUASIÓN Y PROPAGANDA
La propaganda se entiende como “el uso delibe-
rado de información imprecisa para influir las actitu-
des acerca de un tema o hacia un candidato”1 (Persily,
2017, p. 68). Actualmente, en una esfera pública en red,
esta propaganda se puede originar en cualquier nodo
de la red, desde las campañas electorales, de aliados o
contribuyentes individuales, medios de comunicación,
actores extranjeros o los mismos candidatos (Persily,
2017). Sin embargo, se denomina ciber-tropas a la pro-
paganda dirigida por actores gubernamentales, milita-
res o de partidos políticos comprometidos a manipular
la opinión pública en las redes sociales (Bradshaw &
Howard, 2017).
Las ciber-tropas operan principalmente a través de
cuentas falsas, que pueden ser automatizadas, como
los bots, o cuentas humanas falsas, que cumplen los
mismos objetivos pero mediante una coordinación de
operadores que manualmente administran cuentas;
también hay cuentas hibridas o ciborg, cuyos operado-
res manuales combinan automatización para aumentar
el volumen o la velocidad de dispersión con elemen-
tos de curatoría humana para hacerlos parecer cuentas
legítimas (Bradshaw & Howard, 2018).
La documentación internacional muestra que las
ciber-tropas usan frecuentemente comentadores en
línea que, amparados en cuentas falsas, se involucran
activamente en conversaciones y debates con usuarios
genuinos a través de mensajes y de cambio de valencia
(influir o desvi ar el sentido de las conversaciones), ges-
tionan boicots para eliminar cuentas legítimas oposito
-
ras, o actúan como trolls, que dirigen mensajes de odio
y hostigamiento directamente a individuos, comuni-
dades y organizaciones (Bradshaw & Howard, 2018).
Entre las estrategias más conocidas de intentos de
manipulación de la opinión en redes sociales se encuen-
tran la generación de noticias falsas y los bots. Las noti-
cias falsas son “falsedades, intencionalmente creadas, y
distribuidas en formato de noticias o documental y que
buscan avanzar ciertos objetivos políticos”2 (Bennett
& Livingston, 2018), y su estudio se ha incrementado
en los últimos años debido a que su formato plantea
desafíos a la prensa profesional. El poder de las noticias
falsas depende de su nivel de viralización y, tal como se
mencionó anteriormente, en esto juegan un rol impor-
tante el tipo de contenido y el algoritmo de visualiza-
ción de las plataformas, pero también la posibilidad
de automatizar las interacciones de esos contenidos
a través de softwares mandatados para eso, como los
bots (Persily, 2017). De ahí la relevancia que adquieren
estos agentes en la esfera pública actual.
Los bots son la analogía de un robot, pero que fun-
ciona en el espacio digital en vez del espacio físico,
“generalmente diseñados para ahor rar tiempo y ener-
gía de un autor humano, ya que diseccionan y orga-
nizan información a gran velocidad, ahorrándoles el
SANTANA, L. y HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
65
trabajo a los humanos”3 (Howard et al., 2018, p. 82).
Si bien en un principio eran softwares diseñados para
realizar tareas simples y repetitivas, como recolectar
datos o responder a preguntas simples, los programa-
dores actualmente usan la palabra bot para referirse a
“toda clase de algoritmos, tanto para secuencias sim-
ples de código programadas… como los socialmente
orientados y automatizados para suplantar cuentas en
twitter…” (Howard et al., 2018, p. 83). Los bots pueden
ser legítimos y beneficiosos, como aquellos que cumplen
tareas como dar noticias o interpretar datos climato-
lógicos o censales (Howard et al., 2018) o maliciosos:
aquellos que intentan sesgar y manipular encuestas en
línea, distribuir información falsa o desinformación,
o que buscan generar tendencias artificiales a través
de la promoción automatizada de hashtags, historias o
Me gusta (Persily, 2017).
Los bots sociales (social-bots) son cuentas de redes
sociales controladas autónomamente por un programa
(Hwang, 2017). Estos bots sociales no se comunican
con la plataforma, sino que lo hacen directamente con
el código, mediante la Interfaz de Acceso Programático
(API, por sus siglas en inglés) que la plataforma pro-
vee para que los desarrolladores puedan interactuar
con ella. La mayoría de los bots sociales personifican
a un usuario real y, si bien en un principio eran fácil de
detectar (cuentas con un huevo como foto de perfil y
sin información en sus biografías), hoy son mucho más
sofisticados, tienen cuidado de las fotos que ocupan y
respuestas prefabricadas y estándar, pero bien redac-
tadas y con objetivos políticos (Howard et al., 2018).
Los bots políticos se refieren a los softwares que
interactúan con otras cuentas de usuarios y cuyo inter-
cambio es sobre política (Howard et al., 2018). El uso
de estos bots en campañas electorales pone en aprietos
a los reguladores de campaña, ya que la identidad de
los originadores de los bots es desconocida y a veces
imposible de descifrar, incluso con métodos sofistica-
dos. Por ejemplo, toda la preocupación del siglo pasado
sobre el origen oscuro del financiamiento de avisos
de campaña en la televisión de Estados Unidos parece
superflua “cuando se compara con una red de miles de
bots de origen geográfico incierto y que crean mensajes
automáticos para calumniar candidatos y desinformar
votantes”4 (Persily, 2017, p. 70). Esta investigación está
orientada a identificar si existieron estrategias automa-
tizadas en la esfera pública chilena durante la campaña
presidencial de 2017.
Una estrategia relevante en redes sociales es la de
campañas de astroturng, que consiste en buscar la
victoria electoral o legislativa por medio de la ampli-
ficación artificial de la imagen de apoyo público que
simpatiza con una demanda. Este proceso está dise-
ñado para crear la idea de un consenso público en un
tema en el que no existe tal consenso, una manufac-
tura de la percepción de apoyo de bases (Bradshaw &
Howard, 2018). Los encargados de las campañas sim-
patizan con estas estrategias comunicacionales, ya que
hacen parecer como si grandes números de personas
apoyaran a su candidato o a su posición particular.
Estrategias ya usadas anteriormente y explicadas con la
teoría del espiral del silencio, en la cual los individuos
omiten dar su opinión cuando se perciben en minoría
y luego la intención de voto de las personas se va acer-
cando al candidato percibido como ganador conforme
como se acerca la elección (Noelle-Neumann, 1984).
Las campañas del siglo XXI utilizan estos aprendiza-
jes del siglo XX usando bots con el objetivo de hacer
parecer más grande su red de apoyo.
LA EVIDENCIA DE INTENTOS MANIPULACIÓN DE LA
OPINIÓN PÚBLICA EN EL MUNDO Y LATINOAMÉRICA
De acuerdo al Inventario Global de Manipulación
Organizada en Redes Sociales, en 2018 hubo un incre-
mento de 28 a 48 en el número de países en los que se
identificaban campañas formalmente organizadas de
manipulación de opinión pública a través redes socia-
les (Bradshaw & Howard, 2018). Entre ellos, varios
países latinoamericanos: Argentina, Brasil, Colombia,
Ecuador, México y Venezuela. En todos ellos, un par-
tido político o una agencia gubernamental orquestaba
estas actividades de propaganda (Bradshaw & Howard,
2018). La interferencia no siempre es generada en el
mismo país; por ejemplo, se ha descubierto que redes
de bots localizadas en Argentina y Venezuela ataca-
ban directamente al candidato oficialista en las elec-
ciones de Ecuador en 2017 (Puyosa, 2017). O lo más
documentado, que Rusia contrata equipos de personas
que actúan como trolls en otros países para influir en
la opinión pública (Persily, 2017).
Si bien la mayor parte de la propaganda se despliega
en Facebook y Twitter, en un quinto de los países men-
cionados en el inventario, especialmente en el mundo
en desarrollo, se encontró evidencia de campañas de
desinformación operando a través de aplicaciones como
Whatsapp, Telegram y WeChat (Bradshaw & Howard,
2018). Es el caso de las elecciones de México en 2018,
en donde se ve que el consumo de contenidos gene-
rados con el objeto de confundir es bajo en Facebook
y Twitter, pero se reconoce que la desinformación
SANTANA, L. & HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
66
podría estar sucediendo en servicios como Whatsapp
y Facebook Messenger (Glowacki et al., 2018).
No son necesariamente los agentes políticos quienes
difunden su propia propaganda; en muchos países se
contratan agencias de marketing o de comunicación
para hacerlo. El Inventario Global de Manipulación
Organizada en Redes Sociales encontró evidencia de
esta práctica en Austria, Brasil, Colombia, Ecuador,
Estado Unidos, India, Kirguistán, Malasia, México,
Nigeria, Filipinas, Polonia, Reino Unido y Sudáfrica
(Bradshaw & Howard, 2018). Otra táctica es el recluta-
miento de jóvenes con conocimiento en tecnología para
que apoyen los esfuerzos de manipulación. El mismo
informe documentó estas acciones en Azerbaiyán,
Israel, Rusia y Turquía (Bradshaw & Howard, 2018).
En Latinoamérica, el uso de automatización como
estrategia de propaganda difiere de país en país. En
Argentina, durante las elecciones de 2015, se encon-
traron bots, pero con una función poco sofisticada,
ya que ambas candidaturas los usaron como forma de
simular mayor popularidad en apoyo a sus candida-
tos; sin embargo, los bots no entraron en interacciones
automatizadas con los oponentes (Filer & Fredheim,
2017). En Ecuador, un par de años después, se descu-
brió el uso intensivo de redes de bots políticos, tanto a
favor del gobierno como del candidato opositor (Puyosa,
2017). Ahí, “el uso principal de los botnets en Twitter
fue posicionar etiquetas con ataques contra los candi-
datos adversarios y apuntalar tácticas de guerra sucia
electoral” (Puyosa, 2017, p. 56), que incluían —entre
otras cosas— reportar contenidos legítimos para que
sean temporalmente y erróneamente removidos de una
red social (Bradshaw & Howard, 2018). En Venezuela,
en un momento convulsión política, se descubrió el uso
de bots por parte de la oposición más radical, con una
característica específica: los bots simulan ser líderes
políticos, agencias gubernamentales y partidos políti-
cos más que ciudadanos (Forelle et al., 2015).
Algunos gobiernos han establecido mecanismos para
contrarrestar estas ofensivas. Por ejemplo, Colombia
inicio un programa de fact checking para contenidos
compartidos por Whatsapp, e Italia generó un portal
para que los ciudadanos pudieran denunciar noticias
falsas que se encuentran en redes sociales (Bradshaw &
Howard, 2018). Sin embargo, también se ha encontrado
que algunos gobiernos y agencias gubernamentales
ocupan estas aplicaciones para legitimar la censura o
para lanzar campañas artificiales propias; hay ejemplos
de esto en Brasil, Ecuador, Israel y Serbia (Bradshaw
& Howard, 2018).
LA ELECCIÓN PRESIDENCIAL EN CHILE
Aun cuando son muchos los factores que determi-
nan cómo y cuánto los actores políticos están usando
estrategias digitales, la gran mayoría las integra en sus
campañas de acuerdo a cómo perciben las condicio-
nes que ofrecen las plataformas y la opinión pública
(Howard et al., 2017). En cada país, además, hay legis-
laciones que norman específicamente el uso de redes
sociales para las elecciones. En el caso de Chile, es el
Servicio Electoral (Servel) el que da estas directrices a
los candidatos y a la ciudadanía. En lo referente al uso
de redes sociales y medios digitales, el Servel determina
que se entiende como propagan electoral todas aquellas
comunicaciones “que trascienden el círculo personal
de contactos y que dichos servicios sean contratados”
(Servicio Electoral de Ch ile, 2017, p. 23) y los candi-
datos y sus campañas deben informar si incurrieron
en gastos en este sentido. Por otra parte, el reglamento
indica que “toda aquella actividad en medios digita-
les que no implique una contratación y pago de estos
servicios no será considerada propaganda electoral”
(Servicio Electoral de Chile, 2017, p. 24), ya que se con-
sidera que todas las comunicaciones mediante redes
sociales son esencialmente privadas, ya sea dirigidas
a una o a varias personas, y constituyen parte del ejer-
cicio de la libre expresión y debate de ideas (Servicio
Electoral de Chile, 2017).
Considerando las características de la esfera pública
en red y de las dinámicas de redes sociales, así como
la múltiple evidencia de intentos de manipulación de
la opinión pública en el mundo, este artículo se enfoca
en dos preguntas de investigación:
• PI1. ¿Se utilizaron bots para influir la discusión
en plataformas de redes sociales durante la cam-
paña presidencial de 2017?
•
PI2. ¿Qué tipo de estrategias automatizadas o
semi-automatizadas existieron en la elección pre-
sidencial de 2017 en Chile?
La siguiente sección explica los métodos usados para
responder estas preguntas a través del análisis de los
contenidos de Facebook y Twitter.
METODOLOGÍA
El objetivo principal de esta investigación es
identificar si existieron estrategias automatizadas
o semi-automatizadas de creación o difusión de
SANTANA, L. y HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
67
contenidos en las discusiones/conversaciones sobre las
elecciones que se llevaron a cabo en Twitter y Facebook
durante las elecciones de 2017 en Chile. Además, se
busca reconocer qué tipos de contenidos son los que
adquieren mayor alcance durante el periodo de cam-
paña. Las muestras de datos de Twitter y Facebook están
compuestas por la intencionalidad, al menos expresa,
en participar de las conversaciones relacionadas con
las elecciones presidenciales en Chile en 2017. A conti-
nuación, se detalla la metodología de captura de datos
para ambas plataformas.
CAPTURA Y PROCESAMIENTO DE DATOS
Los datos utilizados en este análisis fueron captura-
dos usando un software propio desarrollado utilizando
el lenguaje de programación Python.
Para Twitter, el programa utiliza una cuenta creada
para la investigación y la Interfaz de Acceso Programá-
tico (API, por sus siglas en inglés) de Twitter para seguir
cuentas existentes. Al seguir las cuentas, el programa
recibe notificaciones de publicaciones de estas cuen-
tas, o que hagan mención a ellas, por lo que recolecta
el contenido sin necesidad de hacer una consulta per-
manente de las cuentas de los candidatos.
Al momento de recibir una de estas notificaciones
y obtener el contenido, el programa procesa el texto,
extrayendo primero los metadatos del mensaje: autor,
fecha, menciones, URL y los hashtags (etiquetas) uti-
lizados; luego, normaliza el texto, eliminando todas
las menciones y signos de puntuación, para quedar
solamente con el texto plano del contenido y con las
etiquetas, que son las secciones que poseen informa-
ción del objetivo del mensaje. Una vez normalizado el
texto, se utilizó el módulo Rake para extraer las pala-
bras asociadas a cada tuit, de forma de categorizarlos
posteriormente. Finalmente, se creó un identificador
único para cada tuit, calculado mediante una codifi-
cación de tamaño fijo de su contenido, para realizar
comparaciones más rápidas.
Las relaciones encontradas a través de los metadatos
se almacenan en una base de datos orientada a grafos,
Neo4J, que permite mantener y consultar este tipo de
relaciones de forma sencilla. Como se mencionó con
anterioridad, se extrajo el texto puro de los tuits y se
obtuvo un identificador único de texto. Este identi-
ficador de texto fue comparado entre todos los tuits,
generando relaciones de contenido original con con-
tenido replicado. A la vez, se crearon arcos que unen
usuarios de la red social según menciones o retuits de
contenido de otros usuarios. De esta forma, se crearon
dos grafos que representan la relación entre todos los
autores de tuits relacionados con la campaña dentro del
período de la primera y la segunda vuelta electoral. La
figura 1 explica la diagramación del análisis. El conte-
nido fue almacenado en una base de datos relacional,
PostgreSQL, con datos de fecha/hora, autor, contenido
e identificador único (hash).
Los tuits se recolectaron a partir de los identificadores
(Tuit ha nd le s) de las cuentas de los candidatos, los cuatro
hashtags más usados asociados a cada candidato y cua-
tro hashtags ge n ér ic o s r e la t iv os a la s el ec c io ne s
5
. Si bien
en un principio se siguieron solamente estas cuentas
Hashtags
Tweet
Usuario Usuario
Tweet
ID único
Incluye
Postea
Menciona
Retuitea
Tiene
Figura 1. Diagrama de análisis en Twitter
Nota: cada tuit es un nodo asociado a un autor, a otros tuits que retuitean el nodo original, lo citan o mencionan,
a otras cuentas que son mencionadas, a hashtags que utilizan y a un identicador de contenido.
Fuente: Elaboración propia.
SANTANA, L. & HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
68
y hashtags, el programa realizado agregaba, de forma
automática, otras cuentas existentes que superaban
un límite preestablecido de publicaciones que hacían
mención a los candidatos. De esta forma, el número
de cuentas seguidas por nuestro programa aumentó a
más de 200. Dado esto, se tuvieron que agregar nuevas
cuentas de investigación al programa (en total cuatro),
para que cada una siguiera, en paralelo, a un número
determinado de cuentas de forma tal de no sobrepasar
los límites impuestos por la API de Twitter.
Una vez capturados los tuits, se procedió a limpiar
los datos (eliminando aquellos tuits que no tenían
relación con el contexto, por ejemplo, tuits de Japón
que usaban un hashtag equivalente al de uno de los
candidatos presidenciales). Para realizar la limpieza,
utilizamos el módulo NLTK (Natural Language Toolkit)
de Python, determinando el idioma en que estaban
escritos los tuits, y dejando solamente aquellos que
eran reconocidos como español. Debemos notar que
Twitter entrega un idioma de tuits, pero este no reconoce
chilenismos, por lo que utilizamos el corpus español
cess_esp de NLTK, modificado con ciertos chilenis-
mos, para reconocer en forma correcta los tuits refe-
rentes a las elecciones.
Para Facebook, también se desarrolló un programa
específico, que consultaba las páginas de los candi-
datos cada una hora, para obtener nuevas publica-
ciones o cambios en los comentarios. El programa
utiliza el API Graph de Facebook mediante el módulo
requests, obteniendo un JSON con todo el contenido, el
cual es almacenado en una base de datos documental,
MongoDB. Sobre el contenido almacenado, se utilizó
NLTK para hacer análisis de sentimientos (sentimental
analysis) respecto de las publicaciones usando los módu-
los NLTK y corpus.
MUESTRA
La muestra de datos de Twitter se recolectó para la
primera y segunda vuelta de la elección presidencial
en Chile en el año 2017. Para la primera vuelta, se ana-
lizaron 461.507 tuits generados entre el 1 y el 20 de
noviembre de 2017 por 72.939 usuar ios únicos (pri-
mera vuelta presidencial con seis candidatos). Esta
muestra asume que existe intencionalidad de los crea-
dores del contenido, de los repetidores y de los enla-
zadores en querer participar en la discusión acerca de
las elecciones en Chile, debido a que se conectan con
alguno de los candidatos o los hashtags de las elec-
ciones. Para la segunda vuelta se hizo la recolección
entre el 11 y el 19 de diciembre de 2017 (una semana
antes y dos días después de la elección), se eliminaron
todos los hashtags y cuentas asociadas a los candidatos
que no pasaron al balotaje, manteniendo solo los de
los dos candidatos que irían en la papeleta (Guillier y
Piñera). Así, se recolectaron 340.873 tuits de 78.954
usuarios únicos. Además, se agregaron palabras clave
relacionadas con la elección general, que permitieron
aumentar la muestra total analizada a 1.505.137 tuits
de 268.828 usuarios únicos.
La muestra de Facebook se obtuvo a partir de las pági
-
nas oficiales de Facebook de los candidatos durante la
primera v uelta electoral. Se recolectaron 2.927 publica-
ciones oficiales, acompañadas de los 453.668 comen-
tarios que habían hecho otros usuarios sobre estas
publicaciones en Facebook.
ANÁLISIS
Para los contenidos de Twitter se realizaron dos
tipos de análisis. El primero consiste en identificar
contenidos idénticos que hubieran sido posteados
por usuarios distintos, tanto al mismo tiempo como
en momentos diferidos. En caso de contenido idén-
tico, nos encontramos con uno de tres casos: 1) Si el
contenido idéntico es posteado como contenido origi-
nal, pero por distintas cuentas, indicaría alguna coor-
dinación; 2) si este contenido es posteado al mismo
tiempo en múltiples cuentas involucra algún grado
de automatización, y 3) si el contenido es posteado
al mismo tiempo, pero por retuits, implica una cierta
automatización de respuesta.
El segundo tipo de análisis fue a partir de la iden-
tificación de las cuentas que habían participado en
las discusiones de Twitter relativas a la campaña en
Chile, pero que luego de la campaña se encontraban
inactivas o suspendidas, presumiblemente por infrin-
gir las normas de publicación de Twitter, entre las que
se encuentra el spam, la automatización, la falsifica-
ción de usuario u otros riesgos de seguridad detecta-
dos por Twitter (About suspended accounts, n.d.). Las
100 cuentas con más actividad de la primera y segunda
vuelta se sometieron a análisis de contenido para iden-
tificar qué tipo de contenido publicaban y si hacían o
no referencia a algún candidato.
Para el análisis de la muestra de Twitter se procedió
a crear relaciones no explícitas entre usuarios dados los
contenidos de los tuits. Para ello, se utilizó una meto-
dología similar a la de Arroba Rimassa, Llopis, Muñoz
y Gutiérrez (2018) que usa Twitter como predictor de
decisión política. En un análisis cualitativo simple,
para poder evaluar el tipo de contenido de las cuentas
SANTANA, L. y HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
69
identificadas como relevantes —sospechosas de auto-
matización—, se usó una codificación manual; tres
codificadores debían asignar el contenido de cada uno
de los 200 tuits más repetidos como contenido idéntico a
una de las 15 categorías posibles (Conservador-religioso;
Conservador anti-movimientos sociales y/o étnicos;
Derecha Económica; Pro-Kast; Pro-Piñera; Pro-Goic;
Pro-Guillier; Pro-Enriquez-Ominami; Pro-Navarro;
Pro-Artes; Liberal-Valórico; Movimientos sociales
y étnicos-contra derecha; No político-noticioso;
Gobierno-oficial, Noticias), obteniendo una fiabili-
dad entre codificadores de 0,889 alfa de Krippendorff.
Los resultados de este análisis solo se mencionan para
identificar el tipo de contenido de las cuentas, no así
un análisis de contenido para evaluar el tipo de mate-
rial siendo transado.
RESULTADOS
El primer paso para identificar ciber-tropas fue bus-
car por contenido idéntico que hubiera sido generado
como contenido original por al menos 10 cuentas dis-
tintas durante la primera vuelta presidencial. Así, se
identificaron 198 contenidos, de los cuales 189 corres-
pondían a las elecciones en Chile. De estos:
•
25 de los contenidos son información distribuida
por cuentas oficiales del gobierno de Chile y sus
distintas agencias. La mayor parte invitaba a par-
ticipar de las elecciones, del estilo: “@SenceChile
6
:
Participar en las #Elecciones2017 es la única
manera de hacer valer tu opinión. ¡No te restes,
súmate!” (Sence Chile, 2017). Ningún contenido
gubernamental hacía referencia a algún candi-
dato o manifestaba contenido de tipo proselitista.
•
15 contenidos contenían información con un
encuadre noticioso, sin contenido proselitista,
y que corresponden principalmente a un par
de cadenas de radios comunales, cuyos con-
tenidos informativos tienen el siguiente estilo:
“@redcomunc ales: #VotoRegional Toda la
información de los resultados de la Región de
Coquimbo estará disponible con gráficos y mul-
timedia en las secciones de #Elecciones2017 de
los medios de @redcomunales”7. Esta red de
bots publicó hasta 48 veces distintas al instante
un mismo contenido. Solo un par de los conte-
nidos repetidos y posteados como original fue
posteado por un diario nacional: “@latercera:
#EleccionesLT ¿Cómo funcionará la Ley Seca el
día de las votaciones? Acá te lo explicamos” (La
Tercera, 2017a) y “@latercera: #EleccionesLT | ¿Vas
a votar y no sabes hasta qué hora puedes hacerlo?
Acá te contamos” (La Tercera, 2017b).
Excluyendo estos contenidos no proselitistas guber-
namentales y de encuadre noticioso, observamos que
82 de los otros contenidos fueron generados como
originales por un mínimo de dos cuentas y de hasta
48 cuentas distintas en el mismo momento. Conside-
rando la poca eficiencia en escribir el contenido hasta
48 veces distintas y siendo algo imposible de hacer con
una coordinación humana, presuponemos que la coor-
dinación es a nivel de código y no humana, por lo que
serían redes de bots.
Setenta y uno de esos contenidos corresponden a
información que promueve a un candidato a dipu-
tado que también usa los hashtags de la elección y de
la candidata de centro democratacristiana, Carolina
Goic. El tipo de contenido refiere primordialmente a
la elección de ese diputado y, secundariamente, a la
candidatura presidencial; por ejemplo, el siguiente
contenido se publicó en 33 cuentas distintas al mismo
tiempo: “Carolina Goic a la presidencia! Y en el distrito
10 Nicolás Muñoz debe ser diputado! Hagamos las cosas
bien con ética y responsabilidad #GanemosConGoic
#YoMeAtrevo #PorLoJusto”. Sin embargo, cuando ana-
lizamos las relaciones entre las cuentas y contenidos,
estos últimos fueron posteados por solo dos redes de
bots y estas redes son autocontenidas; es decir, si bien
hacen referencia y mencionan a las cuentas y hashtags
oficiales de la candidatura de Goic, las cuentas oficia-
les de la candidata no mencionan a las de los usuarios
involucrados en estas redes. Al revisar la rendición de
gasto electoral de esta candidata, se puede observar una
inversión importante en medios digitales ($5.000.000;
US$7.300) y asesorías comunicacionales ($10.000.000;
US$14.600) (Servicio Electoral de Chile, 2018).
Debemos hacer notar que estas redes desaparecen
en la segunda vuelta (esa candidata no pasa a segunda
vuelta y el candidato a diputado no resultó electo) y
muchas de las cuentas dentro de la red (por ejem-
plo, @votaporlojusto) dejan de postear apenas ter-
mina la primera vuelta electoral. Otras cuentas, como
@Vale_XLoJusto y @Scott_Pilgrim24, que son parte
de estas redes, si bien están activas durante la segunda
vuelta presidencial, dejan de postear el mismo día,
el 28 de diciembre de 2017. Las otras redes de pri-
mera vuelta están compuestas por una red de diarios
SANTANA, L. & HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
70
comunales que posteó seis contenidos, y uno con con-
tenido pro-Guillier y otro pro-Kast (José Antonio Kast,
candidato conservador de derecha).
Para la segunda vuelta —una segunda votación
entre los dos más votados cuando ninguno de los can-
didatos logra más de 50% de los votos en la primera
vuelta— recolectamos 10 días de datos para esos dos
candidatos. Los tuits marcados como originales, pero
que fueron tuiteados por distintas cuentas, llegan a 20.
Sin embargo, todos son posteados con posterioridad al
resultado de la elección y como forma de difundir los
resultados. Durante la segunda vuelta, por ende, con
esta metodología, no se detectaron de redes de bots.
En un segundo tipo de análisis, considerando la
posibilidad de analizar la data ex-post, se analizaron
las 100 cuentas con más actividad de los dos meses
previos a la primera vuelta y las 100 más activas de los
10 días que corresponden a la muestra de la segunda
vuelta, usando como filtro que estuvieran suspendi-
das por Twitter hasta 10 meses después de la elección.
Así, para la primera vuelta se identificaron 23 cuen-
tas que usaban los hashtags p o lí t ic os m en c io na d os . S i n
embargo, al hacer análisis de contenidos de los tuits solo
tres de ellas efectivamente mantenían conversaciones
políticas, y las demás parecen ser cuentas automatiza-
das que hacen retuits a otras cuentas que aumentan el
alcance de esos contenidos, por ejemplo, programas de
televisión, radio, y hashtags populare s del día.
La tabla 1 muestra los usuarios de las tres cuentas que
efectivamente participaban activamente en conversacio-
nes políticas, retuiteando, respondiendo o posteando
contenido propio. Las dos cuentas con mayor número
de interacciones (@patrickfischer y @El_exorcista_)
tienen patrones irregulares de posteos: uno o dos el
primer día, aumentan a cinco o siete, vuelven a bajar
y luego tienen 25, 30, 40 hasta 50, intercalados con
días con poca interacción. Ambos fueron suspendi-
dos después de un día con mucha interacción. Ambas
cuentas parecen tener algún grado de automatización,
ya que sus conversaciones son principalmente RT de
otros tuits que apoyan sus causas. De la misma forma,
la frecuencia irregular de los posteos parece un movi-
miento estratégico del software, o del administrador,
para no infringir las normas de Twitter. Aun cuando
no es posible corroborarlo, estas dos cuentas podrían
corresponder a cuentas ciborg, cuentas hibridas cuyos
operadores manuales combinan automatización para
aumentar volumen o velocidad de dispersión con ele-
mentos de curatoría humana para hacerlos parecer
cuentas legítimas.
El tercer usuario con alta conversación suspendido
(@A lhf red do) tiene mayor núm ero de contenido pro-
pio. Y podría ser catalogado como un troll de i zq u ie r da .
Para la segunda vuelta, y a partir del análisis del
análisis de las 100 cuentas más activas y suspendi-
das, se analizaron las 10 primeras para ver si presen-
tan un comportamiento particular. Destaca el usuario
@AShumman, la cuenta con más publicaciones; en el
período de dos semanas que duró este estudio, tiene un
patrón interesante de retuits de otras cuentas. La cuenta
a la que más da RT es a la de la Presidenta Bachelet,
en ejercicio en ese momento, así como a otras cuen-
tas de personeros y agencias de gobierno. Si hacemos
un análisis específico, podemos ver que la mayoría de
las interacciones son el día de la elección, retuiteando
muchas veces el mismo contenido de otras cuentas
pro-gobierno o en contra del candidato de derecha; solo
en un par de oportunidades agrega algún comentario
propio sobre su apoyo explícito al candidato Guillier
o sobre la supuesta manipulación de la derecha. Los
tuits son del siguiente estilo “@AShumman: En con-
clusión a la mayoría de los chilenos les gusta pagar
por salud, educación y le gustan las AFP. No entiendo
#EleccionesChile”8. El patrón y contenido de publica-
ciones muestra un ánimo de amplificar su postura polí-
tica, sin reconocerse una manipulación automatizada.
En el análisis de las cuentas que quedaron inactivas
después de la elección y dentro de los tres días siguien-
tes, se eligieron las 20 con mayor número de seguido-
res para observar en mayor detalle. Así se descubren
dos tendencias: 1) Son los casos en los que las cuentas
estaban asociadas a redes de seguidores de candidatos
en particular, por ejemplo, el candidato oficialista de
la coalición de centroizquierda (como @RedGullier),
que claramente luego de la elección no tenían propó-
sito de seguir existiendo, y 2) son cuentas antiguas con
gran número de seguidores que fueron revividas para
la época de campaña, y que luego no publicaron más,
como el caso de @Chains1984. Esta última es un caso
a estudiar más en detalle, dado que estuvo dentro de
los usuarios no activos que más hicieron retuits de pos-
teos asociados a la campaña de Guillier.
Otro fenómeno encontrado tiene relación con la repe-
tición de contenido por varios autores en forma cons-
tante. Por ejemplo, el usuario @nacionales_cl, cuya
cuenta fue suspendida por Twitter, publicó el mismo
contenido 163 veces durante el período de campaña.
Ahora bien, su contenido no era de mayor influen-
cia, ya que redireccionaba a la página del diario en
línea nacionales.cl, donde se mostraban noticias de la
SANTANA, L. y HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
71
campaña electoral. Pero este ejemplo demuestra como el
uso de hashtags asociados a los candidatos puede tener
un impacto no solo en la decisión, sino también en el
aumento de visitas a un sitio en particular.
FACEBOOK
Tal como s e mencionó en la metodología, s e reco-
lectaron 2.927 publicaciones entre julio y noviembre
de 2017, acompañadas de 453.668 comentarios sobre
estas publicaciones escritas en las páginas oficiales de
los candidatos presidenciales en Facebook.
El estudio de Facebook nos permite corroborar la
existencia de redes de colaboración y publicación que
difieren en gran medida entre candidato y candidato.
Si bien la cantidad de publicaciones realizadas en el
período es similar entre todos los candidatos (oscilando
entre 258 y 512), el número de comentarios muestra
diferencias significativas: van de los 258 en el caso del
candidato independiente de más a la izquierda, cuya
base de apoyo era muy pequeña, de apellido Artes (o
sea, en promedio un comentario por publicación) a
165.000 para el candidato Marco Enríquez-Ominami,
un candidato independiente de centroizquierda que ha
participado en las últimas tres elecciones y cuyo mejor
resultado fue un 20% en la elección de 2009. Es sor-
prendente notar la cantidad de comentarios atribuidos
a las publicaciones de Enríquez-Ominami, siendo que
es un candidato que solo obtuvo 5,71% de los votos para
la votación oficial de 2017, siendo el antepenúltimo en
términos de votación.
Con la posibilidad de acceso a datos financieros de
su campaña a través de su reporte al Servel, se pudo
notar que Enríquez-Ominami y Artes son los únicos
dos candidatos que no declararon haber invertido
en avisos de campaña en medios digitales (Servicio
Electoral de Chile, 2018). Es muy improbable que el
número de comentarios sea orgánicamente tan supe-
rior al obtenido por el candidato de centroderecha
que resultó ganador de la elección, Sebastián Piñera,
quien además invirtió la mayor cantidad de recursos
en publicidad en medios digitales: 40% del total. Lo
siguen Goic, que gastó 39%, Kast, con el 16%, Guillier,
4%, Navarro, 3%, y Sánchez, 2% del total de lo gastado
en total por todos los candidatos (Servicio Electoral de
Chile, 2018). Por ello, se presupone el uso de estrate-
gias de automatización de interacciones o bien haber
contratado servicios no informados al servicio electoral.
Para corroborar la reflexión anterior sobre la auto-
matización de comentarios en Facebook, analizamos la
posible existencia de comunidades en los comentarios.
En esta metodología, comunidades se refiere a grupos de
usuarios que podrían estar actuando coordinadamente
para postear mensajes similares en los comentarios de
un candidato o distintos candidatos, o interactuando
de la misma forma en contenidos específicos (dando
Me gusta, denunciando o reproduciendo contenidos).
Para crear comunidades no se usaron como base los
candidatos (lo que hubiese retornado comunidades
claras), sino que se utilizaron los nodos de los usuarios
que comentaron. Se procedió a evaluar comunidades
Usuario Tipo de
conversación Contenidos N de
Conversaciones N_RT_ Alcance Promedio RT
patrickrfischer RT < 5 Original
Liberal moral;
pro-movimientos
sociales y/o
étnicos.
1.647 32.150 20
El_Exorcista_ RT < 5 Original
Conser vador
anti-movimien tos
sociales y/o
étnicos; derecha
económica, pro-
Kast; pro-Piñera.
588 1.097 1,86
Alhfreddo Original y RT
Liberal moral;
pro-movimientos
sociales y/o
étnicos; contra
derecha.
238 945 3,9
Tabla 1. Resumen de cuentas con alta conversación política suspendidas
durante los dos meses previos a la elección en primera vuelta
Fuente: Elaboración propia a partir de los datos obtenidos.
SANTANA, L. & HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
72
usando el algoritmo de detección de comunidades en
grafos de Louvain (Blondel, Guillaume, Lambiotte, &
Lefebvre, 2008), incluido en el paquete algo de Neo4J.
Al ejecutarlo no se encuentra ninguna comunidad en
forma clara, es decir, no hay coordinación entre usua-
rios para publicar comentarios en un post en particular.
Dado que no se obtuvieron resultados a nivel de
comunidades, se procedió a analizar a los 20 usua-
rios que más comentan en toda la muestra obtenida
con nuestro programa, siempre con el objetivo de tra-
tar de entender la actuación de aquellos usuarios que
más quieren influir la discusión. Si bien se observa que
durante todo el periodo de la primera vuelta presiden-
cial hay usuarios que comentan mucho más que el resto,
al analizar el contenido de los comentarios y su com-
portamiento posterior a las elecciones, donde siguen
vigentes y comentando regularmente, se deduce que
no son cuentas automatizadas. De los casos analizados,
una usuaria comenta 985 veces en las publicaciones
de Sebastián Piñera y Alejandro Guillier (incluso más
de un comentario por publicación en algunos casos,
ya que la sumatoria de publicaciones de ambos can-
didatos es solo de 604 publicaciones); otro usuario
comenta 448 veces en las publicaciones de Alejandro
Guillier, José Antonio Kast y Sebastián Piñera; cuatro
usuarios comentan entre 200 y 300 veces cada uno, y
14 comentan más de 140 veces, pero menos de 200.
Es importante destacar que, de los 20 usuarios, solo
cuatro postean en las cuentas de un solo candidato.
Todos los demás hacen comentarios en publicaciones
de dos o más candidatos, por lo que se presupone que
no solo son mensajes de manifestación de apoyo sino
también críticas o diálogos con las otras candidaturas.
Visto lo anterior, con respecto a Facebook no se
encontró evidencia de comportamiento anormal con
base en estrategias automatizadas; sin embargo, se
evidencia la participación activa de ciertos usuarios
que comentan mucho más que los demás en las publi-
caciones de diversos candidatos. En esta etapa de la
investigación no se realizó un análisis de contenido de
los textos de los comentarios, por lo que no podemos
conocer su intencionalidad.
DISCUSIÓN Y CONCLUSIONES
La discusión e intercambio de opiniones políticas
entre ciudadanos previo a una elección general no solo
es un derecho, es a la vez una práctica deseable para que
los ciudadanos estén informados y puedan tomar deci-
siones adecuadas a la hora de elegir a sus representan-
tes. Sin embargo, si la discusión o el intercambio están
mediados o interferido por softwares computacionales
que crean falsos consensos o atacan oponentes, se pro-
duce una distorsión maliciosa de este debate esperable
(Bennett & Livingston, 2018; Bradshaw & Howard,
2018; Persily, 2017). Esta investigación buscaba iden-
tificar si existieron o no estrategias automatizadas o
semi-automatizadas de creación o difusión de conteni-
dos en las discusiones/conversaciones de redes sociales
sobre las elecciones presidenciales de Chile de 2017.
0
20000
40000
60000
80000
100000
120000
140000
160000
180000
NoviembreOctubreSeptiembreAgostoJulio
Sebastián
Piñera
Marco
Enríquez-
Ominami
José
Antonio
Kast
Eduardo
Artés
Carolina
Goic
Beatriz
Sánchez
Alejandro
Navarro
Alejandro
Guillier
44.016
13.795
22.719
11.754
258
57.947
164.347
138.822
Figura 2. Número total de comentarios de todas las publicaciones en Facebook por mes
Fuente: Elaboración propia a partir de los datos descargados.
SANTANA, L. y HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
73
Como conclusión general, se puede decir que no
existe evidencia que la discusión eleccionaria presi-
dencial en Chile estuviera cooptada o secuestradas
por ciber-tropas, es decir, no hubo grandes grupos de
individuos mandatados por partidos políticos, candi-
datos presidenciales o por el gobierno cuyo objetivo
fuera desvirtuar la conversación. Sin embargo, sí se
descubrieron algunas redes de bots informativas y
una red de bots de una campaña local a diputado que
a su vez generaba contenido para una de las candida-
turas presidenciales.
De las redes informativas, se descubrieron redes auto-
matizadas de información del gobierno y de prensa.
Por ejemplo, aquellas agencias de gobierno que invi-
taban a la elección, o daban información respecto de
las elecciones, por lo que aun siendo bots son de carác-
ter legítimo o beneficioso de acuerdo las categorías de
tipos de bots explicada por Bradshaw y Howard (2018).
Tal como se ejemplificó en la sección de resultados, su
contenido era de tipo informativo y útil dentro de la
ecología informativa en el contexto de una elección.
Otros actores que también ocupan automatización
para la entrega de mensajes son los medios de comuni-
cación. El periodismo tradicionalmente ha jugado un
rol en moldear el discurso público, y el uso de estas
herramientas parece legítimo en la medida en que se
guíen por las normas profesionales que rigen el ejerci-
cio de la función. Las redes de bots de noticias encon-
tradas no son programadas por las grandes cadenas
de medios; como se mencionó en los resultados, solo
dos de los tuits fueron generados por un medio escrito
de carácter profesional y nacional y su contenido fue
informativo respecto de la elección. Los otros con-
tenidos son programados por radios comunales que
entregan contenido informativo y no proselitista. Por
lo tanto, se puede presumir que estos bots están siendo
programados como forma de aumentar el alcance de
sus contenidos o bien para aumentar su audiencia per-
cibida, tal como otras estrategias de astroturng men-
cionadas en la caracterización de Howard et al. (2018).
Sería interesante conocer en futuras investigaciones las
motivaciones de estos actores para ocupar bots, ya que
no queda claro si lo hacen como forma de aumentar su
audiencia, avisadores, engañar el algoritmo de visua-
lización de sus contenidos o por alguna otra razón.
Aun cuando en Twitter no se hayan detectado gran-
des volúmenes de manipulación a nivel de organiza-
ciones políticas, sí es posible reconocer redes de bots
asociadas a un candidato a diputado en la primera
vuelta, que a su vez generaba contenido proselitista para
una de las candidatas presidenciales. Estas redes de bots
eran autocontenidas y no tenían conexiones digitales
desde la candidata presidencial mencionada. Esta
red tuiteó hasta 48 veces instantáneamente el mismo
contenido. De acuerdo a los autores de este trabajo,
y con base en la literatura revisada, esto no podría
considerarse una ciber-tropa, ya que parece no haber
ligazón con la campaña oficial ni con el partido político.
Son un par de redes autocontenidas y sin conexiones
con las páginas u otras cuentas de la campaña oficial
de la candidata a presidenta.
Este sería un nuevo tipo de fenómeno de comuni-
cación política, y parece ser la automatización de con-
tenidos de una campaña local y que puede enlazarse
con una candidatura presidencial en particular. Es una
suerte de emprendimiento ciudadano que tiene el inte-
rés de mostrar un mayor nivel de apoyo del que efec-
tivamente tiene su candidato o candidata, como una
estrategia de astroturng o g e ne ra c ió n d e fa l so s ap oy o s.
En el caso de Facebook, si bien no se encuentra evi-
dencia de automatización o de cuentas falsas comen-
tando o interactuando con las publicaciones de los
candidatos en sus perfiles de campaña, sí se identi-
fica la participación activa de usuarios particulares
que comentan significativamente más que el resto,
incluso varias veces por día, en las publicaciones de
diversos candidatos. Como se ha visto, las plataformas
comerciales de redes sociales se han convertido en un
espacio muy relevante para la discusión política; en
las elecciones en Chile, tanto el número de publica-
ciones en Facebook de los candidatos, más de 2900,
y el número de comentarios, más de 450 mil, reflejan
esta tendencia de las candidaturas a usar plataformas
comerciales como estrategia electoral, algo que coin-
cide con la experiencia internacional (Persily, 2017;
Braga & Carlomagno, 218). Sin embargo, como se dis-
cute más adelante, en la nueva esfera pública en red, la
participación de algunos pocos individuos que parti-
cipen activamente podría tener efectos sobre toda la
red, especialmente cuando quien puede generar estos
contenidos tiene el tiempo o las habilidades técnicas
para hacerlo. Así, unos pocos individuos podrían lle-
gar a tener una gran influencia en la discusión total
(Bennett et al., 2018).
Nosotros consideramos que la evidencia encontrada
relativa a los bots de una candidatura local, y las accio-
nes de un grupo de individuos que comentan masiva-
mente, aunque no automatizada ni coordinadamente,
en las publicaciones de candidatos en Facebook corres-
ponderían a dinámicas similares de comportamiento
SANTANA, L. & HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
74
político en la esfera pública en red. Los generadores
de estos contenidos y estrategias se comportan como
brigadistas voluntarios de propaganda digital. Briga-
das que actúan de forma autónoma, e incluso quizás
sin conocimiento desde el core de la organización de
la campaña presidencial o mandato desde el partido
(no encontramos evidencia de reciprocidad o siquiera
enlaces desde el partido o candidatos). Sin embargo,
tienen el interés, individual o grupal, de manufacturar
la percepción de consensos y falsos apoyos hacia su can-
didato de preferencia, tal como lo hacen las ciber-tro-
pas, aunque sin el mandato explícito del gobierno o del
partido o un apoyo técnico para hacerlo masivamente.
Si bien estas dinámicas encontradas no son masivas,
en cuando al número de bots y su posible alcance, el
intento de manipulación de la opinión pública existe, y es
necesario tomarlo en consideración, ya que otros autores
han mostrado cómo la fuerza de actores periféricos, en
términos de centralidad de una red, puede llegar a ser
central en sus propios círculos y así aumentar el alcance
e impacto de los mensajes, llegando a lugares extremos
comparados con la red central. “(…) No siempre son
los actores centrales los que dominan los resultados.
Las redes periféricas pueden jugar un rol significativo
en el proceso de networked framing, particularmente en
las interfaces —fronteras—borrosas del social media
y de los medios tradicionales”
9
(Bennett et al., 2018,
p. 68). Las audiencias distantes pueden ser capturadas
por actores periféricos con importantes efectos en la
atención pública y en el encuadre (Bennett et al., 2018).
Estos brigadistas de propaganda podrían, en futuras
elecciones, mover mensajes importantes de regreso al
centro de la red provocando resultados inesperados.
Es importante reconocer que el significado de ciertos
periodos o eventos no es impuesto por los medios tra-
dicionales o por los activistas o partes interesadas en el
evento; es más bien el resultado de “complejos proceso
de redes de negociación y atención social” (Bennett et
al., 2018, p. 3) en los que las periferias de la red pue-
den tener parte importante que decir.
La investigación previa en otros países daba cuenta
de grandes intentos de manipulación de la opinión
pública a través de propaganda producida por gobier-
nos extranjeros, partidos políticos o gobiernos. En el
caso estudiado en nuestro trabajo, parece ser que son
individuos los que intentan generar estas ideas de falso
consenso a partir de un emprendimiento político no
vinculado a las instituciones políticas mismas, lo que
abre el debate sobre si es legítimo o no como parte de
la libertad de expresión el usar estas herramientas de
automatización para mover intereses políticos parti-
culares por medio de la distorsión de la percepción de
las audiencias.
En futuras investigaciones, pretendemos analizar
cualitativamente los tipos de contenidos que se gene-
ran en estas campañas y otras dinámicas de creación
de significado e intercambios de mensajes. La ecología
multimedial de la esfera pública híbrida es un campo
inmenso para el estudio de los procesos políticos y
de políticas.
NOTAS
1. Tradu cci ón propia.
2. Tradu cci ón prop ia.
3. Tradu cci ón prop ia.
4. Tradu cci ón propia.
5. Lista de cuentas y hashtags usados para recolectar conversaciones de Twitter: #EleccionesChile;
#FranjaElectoral; #elecciones2017; #Franjaelectoral2017; #Servel; @carolinagoic; #YoMeAtrevo; #GoicPresidenta;
#Vota1; #Votagoic; @joseantoniokast; #kastPresidente; #Kast; #Kast2davuelta; #familiamilitarconkast;
@SebastianPinera; #PiñeraPresidente; #Piñera; #TiemposMejores; #Vota3; @guillier; #ElPresidenteDeLaGente;
#Guillier; #guillierpresidente; #guillierdaconfianza; @labeasanchez; #BeatrizPresidenta: #Vota5; #FrenteAmplio;
#BeatrizSanchez; @marcoporchile; #ChileDeLosLibres; #PresidenteMarco; #Yomarco6; #MEO; @eduardo_ar tes;
#yoestoyconar tés; #UnionPatriotica; #EduardoArtes; #ArtesPresidente; @navarrobrain; #LaFuerzaDeLaGente;
#Navarropresidente; #Vota8; #EnPrimeraConNavarro.
6. Sence es el Servicio Nacional de Capacitación y Empleo, es un organismo técnico del Estado de Chile.
SANTANA, L. y HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
75
7. Estos ejemplos no se incluyen en la lista de referencias, pues ya no están disponibles en Internet; sin embargo, están
dentro de la muestra analizada para esta investigación. Se presentan acá para ejemplificar el estilo de los contenidos, no
para llevar al lector a la cita directa de estos.
8. Este ejemplo tampoco se incluyen en la lista de referencias, por las mismas razones explicadas en la nota ant erior.
9. Traducción prop ia.
REFERENCIAS
About suspended accounts. (n.d.). Twitter. Retrieved from https://help.twitter.com/en/managing-your-
account/suspended-twitter-accounts
Allcott, H. & Gentzkow, M. (2017). Social Media and Fake News in the 2016 Election. Journal of Economic
Perspectives, 31(2), 211-236. Retrieved from https://ww w.aeaweb.org/articles?id=10.1257/jep.31.2.211
Arnaudo, D. (2017).Computational Propaganda in Brazil: Social Bots During Elections. Working Paper No.
2017.8. Oxford: Project on Computational Propaganda. Retrieved fromhttps://blogs.oii.ox.ac.uk/
politicalbots/wp-content/uploads/sites/89/2017/06/Comprop-Brazil-1.pdf
Arroba Rimassa, J., Llopis, F., Muñoz, R., & Gutiérrez, Y. (2018). Using the Twitter social network as a
predictor in the political decision. Paper presented at CICLing 2018, 19th International Conference on
Computational Linguistics and Intelligent Text Processing, Hanoi, Vietnam. Retrieved from http://
hdl.handle.net/10045/76464
Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on
Facebook. Science, 348(6239), 1130 -1132. https: //doi.org /10.1126/s cienc e.aaa1160
Benkler, Y. (2006). The wealth of networks: How social production transforms markets and freedom. New
Haven: Yale University Press.
Bennett, W. L. & Livingston, S. (2018). The disinformation order: Disruptive communication and the
decline of democratic institutions. European Journal of Communication, 33(2), 122-139.
https://doi.org/10.1177/0267323118760317
Bennett, W. L., Segerberg, A., & Yang, Y. (2018). The Strength of Peripheral Networks: Negotiating
Attention and Meaning in Complex Media Ecologies. Journal of Communication, 68(4), 659-684.
https://doi.org/10.1093/joc/jqy032
Blondel, V., Guillaume, J., Lambiotte, R., & Lefebvre, E.(2008). Fast unfolding of communities in large
networks. Journal of Statistical Mechanics: Theory and Experiment, 2008(10).
https://doi.org/10.1088/1742-5468/2008/10/P10008
Bond, R. & Messing, S. (2015). Quantifying Social Media’s Political Space: Estim ating Ideology from
Publicly Revealed Preferences on Facebook. American Political Science Review, 109(1), 62-78.
https://doi.org/10.1017/S0003055414000525
Bradshaw, S. & Howard, P. N. (2017). Troops, Trolls and Troublemakers: A Global Inventory of Organized
Social Media Manipulation. Oxford Internet Institute. Retrieved from https://ora.ox.ac.uk/objects/
uuid:cef7e8d9-27bf-4ea5-9fd6-855209b3e1f6
Bradshaw, S. & Howard, P. N. (2018). Challenging Truth and Trust: A Global Inventory of Organized Social
Media Manipulation. Oxford Internet Institute. Retrieved from http://comprop.oii.ox.ac.uk/wp-
content/uploads/sites/93/2018/07/ct2018.pdf
Braga, S. & Carlomagno, M. (2018). Eleições como de costume? Uma análise longitudinal das mudanças
provocadas nas campanhas eleitorais brasileiras pelas tecnologias digitais (1998-2016) (Elections as usual?
longitudinal analysis of the changes caused by digital technologies in Brazilian electoral campaigns (1998-
2016)). Revista Brasileira de Ciência Política, (26), 7-62. https://doi.org/10.1590/0103-3352201826 01
Chadwick, A. (2013). The hybrid media system: politics and power. Oxford University Press.
https://doi.org/10.1093/acprof:oso/9780199759477.001.0001
SANTANA, L. & HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
76
Filer, T. & Fredheim, R. (2017). Popular with the Robots: Accusation and Automation in the Argentine
Presidential Elections, 2015. International Journal of Politics, Culture, and Society, 30(3), 259-274.
https://doi.org/10.1007/s10767-016-9233-7
Forelle, M., Howard, P. N., Monroy-Her nandez, A., & Savage, S. (2015). Political Bots and the
Manipulation of Public Opinion in Venezuela. arXiv preprint arXiv:1507.07109. Retrieved from
https://arxiv.org/abs/1507.07109
Gallacher, J. D., Kaminska, M., Kollanyi, B., & Howard, P. N. (2017). Junk News and Bots during the 2017
UK General Election: What Are UK Voters Sharing Over Twitter? Technical report, Data Memo 2017.5.
Project on Computational Propaganda, Oxford. Retrieved from https://blogs.oii.ox.ac.uk/wp-content/
uploads/sites/89/2017/06/Junk-News-and-Bots-during-the-2017-UK-General-Election.pdf
Glowacki, M., Narayanan, V., Maynard, S., Hirsch, G., Kollanyi, B., Neudert, L., … & Bara sh, V. (2018,
June 29). News and Political Information Consumption in Mexico: Mapping the 2018 Mexican
Presidential Election on Twitter and Facebook. The Computational Propaganda Project. Retrieved from
http://comprop.oii.ox.ac.uk/research/working-papers/mexico2018/
Habermas, J. (2006). Political Communication in Media Society: Does Democracy Still Enjoy an
Epistemic Dimension? The Impact of Normative Theory on Empirical Research. Communication
Theory, 16(4), 411-426. https://doi .org /10.1111/j.146 8-28 85. 20 06 .0 0280.x
Howard, P. N. (2015). Pax Technica: How the Inter net of Things May Set Us Free or Lock Us Up. New Haven:
Yale University Press.
Howard, P. N., Savage, S., Flores Saviaga, C., Toxtli, C., & Monroy-Hernandez, A. (2017). Social Media,
Civic Engagement, and the Slacktivism Hypothesis: Lessons From Mexico’s “El Bronco”. Journal of
International Affairs, 70(1), 55-73. Retrieved from https://www.jstor.org /stable/90012597
Howard, P. N., Woolley, S., & Calo, R. (2018). Algorithms, bots, and political communication in the US 2016
election: The challenge of automated political communication for election law and administration. Journal
of Information Technology & Politics, 15(2), 81-93. https://doi.org/10.1080/19331681.2018.1448735
Hurlock, J. & Wilson, M. L. (2011, July). Searching Twitter: Separating the Tweet from the Chaff. In Fifth
International AAAI Conference on Weblogs and Social Media (pp. 161-168). AA AI Publications. Retrieved
from https://www.aaai.org/ocs/index.php/ICWSM/ICWSM11/paper/viewPaper/2819
Hwang, T. (2017). Dealing with Disinformation: Evaluating the Case for CDA 230 Amendment (SSRN
Scholarly Paper Nº ID 3089442). Retr ieved from Social Science Research Network website:
https://papers.ssrn.com/abstract=3089442
La Tercera. (2017a, November 16). #EleccionesLT ¿Cómo funcionará la Ley Seca el día de las votaciones?
Acá te lo explicamos #EleccionesChile (#EleccionesLT How will alcohol prohibition work on voting
day? We explain it to you #EleccionesChile) (Twitter post). Retrieved from
https://twitter.com/latercera/status/931372075465433088
La Tercera. (2017b, November 14). #EleccionesLT | ¿Vas a votar y no sabes hasta qué hora puedes hacerlo?
Acá te contamos #EleccionesChile (#EleccionesLT | You are going to vote and do not know until what
time can you do it? We tell you! #EleccionesChile) (Tw itter post). Retr ieved from
https://twitter.com/latercera/status/930408641575948288
Noble. (2018). Algorithms of oppression: how search engines reinforce racism. New York: New York University Press.
Noelle-Neumann, E. (1984). The spiral of silence: public opinion, our social skin. Chicago: University of
Chicago Press.
Papacharissi, Z. (2010). A Private Sphere: Democracy in a Digital Age. Malden: Polity Press.
Pariser, E. (2012). The Filter Bubble: How the New Personalized Web is Changing what We Read and how We
Think. London: Penguin Books.
Persily, N. (2017). The 2016 U.S. Election: Can Democracy Survive the Internet? Journal of Democracy,
28(2), 64-76. https: //doi.org/10.1353/jod.2017.0025
SANTANA, L. y HUERTA CÁNEPA, G.. ¿Son bots? Automatización en redes sociales durante las elecciones...
CUADERNOS.INFO Nº 44 / JUNIO 2019 / ISSN 0719-3661 / Versi ón elect rónic a: ww w.cuade rnos.info / IS SN 0719-36 7x
77
Puyosa, I. (2017). Bots políticos en Tw itter en la campaña presidencial #Ecuador2017 (Political Bots on
Twit ter in #Ecu ador2 017 P re sid ent ia l C amp aigns). Contratexto, (027), 39-60.
https://doi.org/10.26439/contratexto.2017.027.002
Saa, M. (2017, November 13). Carolina Goic a la presidencia! Y en el distrito 10 Nicolás Muñoz debe ser
diputado! Hagamos las cosas bien con ética y responsabilidad #GanemosConGoic #YoMeAtrevo
#PorLoJusto (Carolina Goic for president! And in the 10th distr ict, Nicolás Muñoz must be a deputy!
Let’s do things well with ethics and responsibility #GanemosConGoic #YoMeAtrevo #PorLoJusto)
(Twitter post). Retrieved from https://twitter.com/ManuelSaa5/status /930162386434174977
Santana, L. E. (2015). From the Village to the Global Village: An Alternative Model of Collective Action in
Digital Media Networks (Doctoral dissertation). Retrieved from https://digital.lib.washington.edu/
researchworks/handle/1773/33130
Savage, S. & Monroy-Hernández, A. (2015). Participatory Militias: An Analysis of an Armed Movement’s
Online Audience. In Proceedings of the 18th ACM Conference on Computer Supported Cooperative Work &
Social Computing - CSCW ’15 (pp. 724-733). New York: ACM. https://doi.org/10.1145/2675133.2675295
Sence Chile. (2017, November 5). Participar en las #Elecciones2017 es la única manera de hacer valer
tu opinión. ¡No te restes, súmate! (Participating in #Elecciones2017 is the only way to assert your
opinion. Don’t stay apart, come on!) (Twitter post). Retrieved from https://twitter.com/SenceChile/
status/927289421115936770
Servicio Electoral de Chile. (2017). Manual de Consulta de Campaña y Propaganda Electoral 2017 (Campaign
and Electoral Propaganda 2017 Handbook) (PDF file). Retrieved from https://www.servel.cl/wp-
content/uploads/2017/08/Manual_de_Propaganda_Electoral_21-08-2017.pdf
Servicio Electoral de Chile. (2018). Ingresos y gastos de candidatos (Candidate’s earnings and spending).
Retrieved from https://www.servel.cl/ingresos-y-gastos-de-candidatos/
Tufekc i, Z. ( 2016). As t he pir ates be com e C EOs: The clos ing of the op en in ternet. Daedalus, 145(1), 65-78.
https://doi.org/10.1162/DAED_ a_00366
Valenzuela, S., Arriagada, A., Somma, N., & Scherman, A. (2016). Social Media in Latin Amer ica:
Deepening or Bridging Gaps in Protest Participation? Online Information Review, 40(5), 695-711.
https://doi.org/10.1108/OIR-11-2015-0347
Valenzuela, S., Piña, M., & Ramírez, J. (2017). Behavioral Effects of Framing on Social Media Users:
How Conflict, Economic, Human Interest, and Morality Frames Drive News Sharing. Jour nal of
Communication, 67(5), 803 -826. https://doi.org /10.1111/jcom.12325
Vosoug hi , S., R oy, D., & Aral, S . (2018). The spread of t ru e a nd fals e news on line. Science, 359(6380),
1146 -1151. https://doi.org /10.1126/s cienc e.aap9559
SOBRE LOS AUTORES
Luis Santana, doctor en Comunicación y máster en Administración Pública de la Universidad de Washington.
Actualmente es profesor asistente de la Escuela de Comunicaciones y Periodismo de la Universidad Adolfo
Ibáñez. Su investigación se enfoca en la relación entre medios digitales, participación ciudadana y políticas
públicas. Ha trabajado en coordinación y dirección de programas de participación ciudadana en diversas
organizaciones sin fines de lucro.
Gonzalo Huerta Cánepa, doctor en Información y Comunicaciones de KAIST, Corea del Sur e Ingeniero Civil de
la Universidad de Chile. Actualmente es profesor asistente de la Universidad Adolfo Ibáñez, donde trabaja en
líneas de investigación relacionadas con automatización, Internet de las cosas, y tecnología en la educación.
Además del ámbito académico, ha sido un emprendedor serial y un impulsor del uso de metodologías ágiles
en las empresas de desarrollo de software.