ArticlePDF Available

Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos

Authors:

Abstract

El big data i l’IA han fracassat en la prevenció, però poden ser molt útils enfront de la covid-19, fins i tot per a evitar confinaments i altres restriccions de drets que provoca. La IA pot ser extremadament útil per integrar, estructurar i extreure informació i coneixement d’una ingent quantitat i varietat de big data per a la recerca biomèdica. També és útil per millorar l’atenció i la informació ciutadana i de salut, la telemedicina i l’assignació dels recursos humans i materials. Més amenaçador per a la privacitat pot ser el desenvolupament d’aplicacions, passaports biològics electrònics, sistemes de geolocalització, traçabilitat i monitoratge de persones implementats per a fer enfront a la COVID-19, especialment si se segueix el cas asiàtic. No obstant això, de moment, no sembla que sigui el que se segueix a la UE. Aquest article analitza el règim jurídic aplicable, la legitimació legal dels diferents tractaments de dades, la necessitat d’una base legal de qualitat, especialment per al cas de les apps i rastrejos. I més enllà de la base legal i de la legitimació, té en compte les necessàries garanties d’aquests tractaments massius, especialment les de les aplicacions. El Consell Constitucional francès i especialment les institucions europees han marcat el camí a seguir, amb una acció més discreta a Espanya, que al juny ha regulat amb força de llei alguns aspectes del tractament de dades de manera molt insuficient. Hi ha dos grans models europeus (PEPP-PT i el DP-3T pel qual s'ha decantat Espanya) més o menys centralitzats i més o menys segurs, així com desenvolupaments propis. I segons sembla, per a la seva utilitat han d'integrar-sota les API i desenvolupaments conjunts d'Apple i Google, fet que genera suspicàcies. Se sosté que el Dret impulsa que tecnològicament sí sigui possible maximitzar tant l'eficàcia de la lluita contra la COVID-19 com tots els nostres drets. Se sosté que el Dret impulsa que tecnològicament sí que sigui possible maximitzar l’eficàcia de la lluita contra la COVID-19 com tots els nostres drets. El tema, sens dubte, exigirà una anàlisi contínua d'experts, societat civil i autoritats de dades. El Consejo Constitucional francés y especialmente las instituciones europeas han marcado el camino a seguir, con una acción más discreta en España, que en junio ha regulado con fuerza de ley algunos aspectos del tratamiento de datos de manera muy insuficiente. Existen dos grandes modelos europeos (PEPP-PT y el DP-3T por el que se ha decantado España) más o menos centralizados y más o menos seguros, así como desarrollos propios. Y al parecer para su utilidad deben integrarse bajo las APIs y desarrollos conjuntos de Apple y Google, lo que genera suspicacias. Se sostiene que el Derecho impulsa que tecnológicamente sí sea posible maximizar tanto la eficacia de la lucha contra la COVID-19 como todos nuestros derechos.
www.uoc.edu/idp
ARTÍCULO
Inteligencia artificial, big data
y aplicaciones contra la COVID-19:
privacidad y protección de datos
Lorenzo Cotino Hueso
Universidad de Valencia
Fecha de presentación: abril de 2020
Fecha de aceptación: julio de 2020
Fecha de publicación: julio de 2020
Resumen
El
big data
y la IA han fracasado en la prevención, pero pueden ser muy útiles frente a la COVID-19 e
incluso para evitar confinamientos y otras restricciones de derechos que provoca. La IA puede ser ex-
tremadamente eficaz para integrar, estructurar y extraer información y conocimiento de ingente can-
tidad y variedad de
big data
para la investigación biomédica. También es útil para mejorar la atención
e información ciudadana y de salud, la telemedicina y la mejor asignación de los recursos humanos y
materiales. Más amenazante para la privacidad puede ser el desarrollo de
apps,
pasaportes biológicos
electrónicos o sistemas de geolocalización, trazabilidad y monitoreo de personas implementados para
hacer frente a la COVID-19, en especial si se sigue el caso asiático. No obstante, de momento no es
el que parece seguirse en la UE. Se analiza el régimen jurídico aplicable, la legitimación legal de los
diferentes tratamientos de datos, la necesidad de una base legal de calidad, especialmente para el
caso de
apps
y rastreos. Y más allá de la base legal y legitimación se tienen en cuenta las necesarias
garantías de estos tratamientos masivos, especialmente de las
apps
. El Consejo Constitucional fran-
cés y especialmente las instituciones europeas han marcado el camino a seguir, con una acción más
discreta en España, que en junio ha regulado con fuerza de ley algunos aspectos del tratamiento de
datos de manera muy insuficiente. Existen dos grandes modelos europeos (PEPP-PT y el DP-3T por el
que se ha decantado España) más o menos centralizados y más o menos seguros, así como desarrollos
propios. Y al parecer para su utilidad deben integrarse bajo las APIs y desarrollos conjuntos de Apple
y Google, lo que genera suspicacias. Se sostiene que el Derecho impulsa que tecnológicamente sí sea
posible maximizar tanto la eficacia de la lucha contra la COVID-19 como todos nuestros derechos. El
tema, sin duda, exigirá un análisis continuo de expertos, sociedad civil y autoridades de datos.
Palabras clave
COVID-19, protección de datos, inteligencia artificial, geolocalización, privacidad
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
1
Lorenzo Cotino Hueso
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
2
Lorenzo Cotino Hueso
Artificial intelligence, big data and applications against Covid-19,
and privacy and data protection
Abstract
Big data and AI did not succeed in preventing Covid-19, but they can be very useful in the fight against
it and even for avoiding confinements and other restrictions on rights which it brings about. AI can be
extremely useful for integrating, structuring and extracting an enormous quantity and variety of big
data information and knowledge for biomedical research. It is also useful for improving civic and health
assistance and information, telemedicine and the best assignment of human resources and materials.
Even more threatening for privacy could be the development of apps, electronic biological passports,
geolocation systems, and the traceability and monitoring of people in the fight against Covid-19, parti-
cularly if the Asian model is followed. However, it seems that this not being followed in the EU. There
is an analysis of the applicable legal set of rules, the legal legitimation of the various data processing
systems, and the need for a legal basis of quality, especially in the case of apps and searches. And be-
sides the legal basis and legitimation, the necessary guarantees of these mass processing systems are
considered, particularly of the apps. The impetus of law means that it is indeed technologically possible
to maximise the efficiency of the fight against Covid-19 and to maximise all our rights.
Keywords
Covid-19, data protection, artificial intelligence, geolocation, privacy
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
3
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
1. Introducción. El virus de la
amenaza
El coronavirus SARS-CoV-2 no se ve ni se aprecia en
el momento, sino tarde y cuando se dan sus conse-
cuencias, pudiendo estar atacando de modo silente los
derechos COVID-19 y, en particular, la privacidad. El co-
ronavirus se expandió de China a todo el mundo y espe-
remos que, en una segunda oleada
,
no exporte también
el control social y la vigilancia totalitaria de la mano del
big data
, la IA, las
apps
covid y los pasaportes biológicos
electrónicos. Entre los peligros de la IA (Cotino, 2019a),
Han nos ha venido alertando desde hace años de la
psicopolítica
digital data
; ahora lo hace con respecto a la
biopolítica
digital
, en la que se controlan todos nuestros
biodatos (Han, 2020). Al parecer, frente al coronavirus,
la
d
de la
d
isciplina asiática ha sido mucho más eficaz
que la
d
escoordinación europea o el
d
arwinismo nor-
teamericano (Ferràs, 2020). Han nos recuerda que la
mentalidad autoritaria asiática –procedente del con-
fucionismo– conduce a la obediencia, donde impera el
colectivismo y no hay conciencia crítica ante la vigilan-
cia digital. La infraestructura de control social de la IA
china parece ser sumamente eficaz contra la pandemia
y ahora genera incluso admiración. Ello puede llevarnos
a la
biopolítica
, o en términos de Harari (2020), a una
«vigilancia hipodérmica». Hasta hace poco, imperaba
una «vigilancia epidérmica»: «el Gobierno quería saber
sobre qué clicaba exactamente nuestro dedo». Ahora
quiere conocer nuestra temperatura, nuestra presión
arterial y muchos otros datos relativos a nuestra salud
para saber si estamos enfermos antes que nosotros,
dónde hemos estado y con quién nos hemos reunido.
No solo los Gobiernos han fallado. La IA y el
big data
,
las plataformas o redes sociales no han servido para
predecir y alertar sobre la magnitud y propagación del
coronavirus: ha habido un «fallo colosal del capitalismo
de vigilancia» (Ortega, Balsa-Barreiro y Cebrián, 2020),
que no lidia bien con las sorpresas, y tampoco la IA ha
sabido integrar información de calidad de modo cohe-
rente. La competencia económica entre inteligencias
artificiales parece que ha ido en contra de la inteligen-
1. Recomendación CM / Rec (2019) 2 del Comité de Ministros a los Estados miembros sobre la protección de datos relacionados con la salud,
de 27 de marzo de 2019.
2. Ortega, 2019, págs. 176-178; Alcalde y Alfonso, 2019, págs. 60 y sigs.
cia colectiva. Sin embargo, la IA y el
big data
pueden
ser unas herramientas formidables contra la COVID-19,
pero como toda herramienta dependerá del uso acerta-
do de la misma.
Señala Harari (2020) que, «cuando a la gente se le da a
elegir entre la intimidad y la salud, suele elegir la salud».
También se ha afirmado que «anteponer el derecho a
la privacidad al derecho a la vida o al de libertad de
movimientos no tiene sentido, [y] es un dislate» (Pedre-
ño, 2020). Plantear este tipo de debates en términos
binarios es peligroso e incluso demagógico. El sistema
constitucional política y jurídicamente tiene la virtud de
saber deliberar, ponderar y armonizar derechos funda-
mentales entre sí y con otros bienes constitucionales.
Como se verá, hay soluciones de carácter tecnológico
que, guiadas por el Derecho, permiten una maximiza-
ción de la eficacia contra el coronavirus minimizando
los impactos en la privacidad, la libertad de circulación
y otros derechos. Se trata de una cuestión cambiante,
como lo ha sido desde el momento de entrega del pre-
sente estudio en abril hasta su revisión final dos meses
después.
2. Usos esenciales de la IA y el big
data frente a la COVID-19
2.1. IA y big data para estructurar y extraer
información y conocimiento en la
investigación biomédica
En el área de la sanidad, cada vez es más importante «el
procesamiento de datos personales relacionados con la
salud en los sectores público y privado mediante herra-
mientas digitales» (apdo. 2.1)
1
. Y cada vez son más variadas
las fuentes y su naturaleza. Se tratan datos estructurados,
semiestructurados y, mayoritariamente, no estructurados
2
y brutos, procedentes de sensores, de grandes transaccio-
nes de datos, de registros médicos electrónicos y de datos
biométricos (huellas dactilares, información genética,
escáneres de retina, rayos X y otras imágenes médicas,
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
4
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
la presión arterial, el pulso y lecturas de oximetría de
pulso y otros tipos similares de datos), pero también de
historias clínicas, imágenes, pruebas, publicaciones, webs
y redes sociales. Asimismo, también pueden ser de espe-
cial importancia los datos de tráfico, la geolocalización, los
metadatos y la información procedente de aplicaciones
COVID-19 y operadores de telecomunicación.
Algunos son datos primarios propiamente relativos a
la salud, con un régimen jurídico relativamente nítido,
pero cada vez se barajan más datos secundarios muy
heterogéneos, en sus fuentes y tipología (German Ethics
Council, 2017, núm. 99). Esta variedad de orígenes y usos
primarios y secundarios genera cada vez más problemas
e incertidumbres jurídicas (núm. 19). Estos datos se cana-
lizan, integran o vierten en datahubs con fuente central,
lagos de datos o de modo centralizado en data ware-
house. La IA es esencial para que estos datos de usos
secundarios y especialmente desestructurados puedan
ser datos útiles para la investigación y los usos médicos
(Montalvo, 2019, págs. 47-48).
En las acciones frente a la COVID-19 se ha de facilitar el
flujo de estos datos entre los sectores público y privado
de los distintos países –dentro y fuera de la UE– a fines
de salud pública. Para extraer información y conocimiento
se precisan tratamientos de ingentes cantidades de
datos –principalmente secundarios y desestructurados– a
los que aplicar esquemas de lectura y escritura y otros
sistemas de IA. Esta se emplea asimismo para llevar a
cabo un profundo análisis de datos clínicos de pacientes
infectados, hospitalizados, en cuarentena o sospechosos
(Martínez, 2020a). De especial interés con redes neurona-
les para el reconocimiento inteligente y la lectura natural
de imágenes relativas o para el apoyo a la asignación se-
lectiva e individualizada de fármacos.
2.2. IA para la atención e
información ciudadana y de salud,
la telemedicina y la asignación de
recursos
La Comisión Europea (2020 c) ha subrayado los tres ejes
o “funcionalidades” del tratamiento de datos frente al CO-
VID-19: funcionalidad de información, de comprobación de
síntomas y de telemedicina y de rastreo de contactos y de
alerta. La IA puede jugar un papel importante a la hora de
facilitar atención e información ciudadana y de salud. Puede
canalizar las muchas consultas de la ciudadanía, generar
datos y extraer conocimiento de las mismas. Es de interés
gestionar el origen y localización de llamadas para la gestión
de los riesgos granularizada por territorios y otros factores.
Al respecto, hoy en día es posible gestionar datos de las
conversaciones a través de la analítica de las emociones, una
técnica habitualmente utilizada en el neuromarketing. La IA
también es capaz de facilitar los mensajes perfilados e indi-
vidualizados para cada tipología de consulta. Permite tam-
bién el uso de chatbots que descongestionen las líneas de
atención e incluso que proporcionen información de calidad
y perfilada. Al respecto, el ICO (Information Commissioner’s
Office) ha señalado que es posible el envío de mensajes de
salud pública, «ya que estos mensajes no son marketing
directo» (ICO, 2020). Otra cuestión es, obviamente, cómo se
efectúa el perfilado y selección de los destinatarios.
La IA y el big data también pueden ser muy útiles para
proponer una farmacología adecuada y para implementar
una asignación estratégica de recursos médicos humanos y
materiales, así como para distribuir o derivar a los pacien-
tes, según necesidades concretas derivadas de la COVID-19,
maximizando así la eficiencia de los sistemas sanitarios.
Esta trazabilidad, por supuesto, también podría potenciar la
eficacia de nuestro hospitales y centros de salud.
Asimismo, la telemedicina (la seria) puede facilitar la pres-
tación de servicios sanitarios, descongestionar la atención
presencial y reutilizar al personal médico infectado y en
cuarentena que siga estando operativo, pudiendo generar
un estimable big data luego utilizable. El ICO (2020) ha
recordado que la normativa «tampoco les impide utilizar
la última tecnología para facilitar consultas y diagnósticos
seguros y rápidos». Esencialmente, lo que hay que asegu-
rar es la seguridad informática.
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
5
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
3. El régimen jurídico aplicable,
legitimación legal y cumplimiento
normativo en España y Europa.
La constitucionalidad de la
regulación francesa
La IA atrae casi por defecto la aplicación del régimen de
protección de datos, el cual, en ocasiones, es casi el único
régimen jurídico hoy día claramente aplicable. Y esto es así
porque la IA implica el perfilado y activación de decisiones
automatizadas que afectan a las personas (Grupo de tra-
bajo del artículo 29, 2018, págs. 7-8). Para que el régimen
de protección de datos pueda ser aplicado debe darse la
premisa de que los variados macrodatos que alimentan la
IA sean datos de personas identificadas, identificables o
reidentificables. Como se ha recordado con ocasión de la
crisis de la COVID-19, no se aplicará la normativa si existe
una anonimización que garantice que los datos no vuelvan
a ser personales
3
. Pero ello es realmente difícil puesto
que, como ha recordado el Libro blanco de la IA (Comisión
Europea, 2020, págs. 21 y sigs.), estas mismas tecnologías
se utilizan para «rastrear y desanonimizar datos relativos
a personas (…) con relación a conjuntos de datos que, en sí
mismos, no contienen datos personales».
En cuanto a la legitimación del tratamiento de datos en
razón de la pandemia, tanto las autoridades comunitarias
4
como españolas (AEPD y APDCAT) de protección de datos
han señalado que «las reglas (…) actualmente vigentes en
Europa son lo suficientemente flexibles» (SEPD, 2020a).
En concreto, hay que seguir el considerando 46 y los ar-
tículos 6.2 párrafos c, d y e y el artículo 9.2, párrafos c, g,
h e i) 6 y 9 del RGPD. Así, el EDPB (2020a) afirma que el
RGPD «permite a las autoridades de salud pública com-
petentes y a los empleadores procesar datos personales
en el contexto de una epidemia, de conformidad con la
legislación nacional y en las condiciones establecidas en
ella por parte de las autoridades públicas competentes».
Ello es aplicado «estrictamente a la duración de la emer-
gencia» (EDPB, 2020a), pues las restricciones «no están
3. Alberto Sáiz, 2017, págs. 40 y sigs.; Grupo de trabajo del artículo 29, Dictamen 5/2014.
4. EDPB en un documento más informal al inicio y más concreto después, Supervisor Europeo de Protección de datos SEPD, Comisión Europea
en sus dos documentos, posiblemente los más definidos y concretos. También en Reino Unido en primer lugar el ICO y luego sucesivas
autoridades nacionales.
aquí para quedarse después de la crisis» (SEPD, 2020a).
La Comisión Europea ha ido en la misma línea (2020 b y
c), pero con acierto señala que «cuanto mayor sea la re-
percusión de cara a las libertades de la persona, mayores
deben ser las correspondientes salvaguardias previstas en
la legislación pertinente». Es más, la Comisión concreta la
necesaria previsión legal del detalle del tratamiento y la
finalidad, excluyendo expresamente otros fines, determi-
nación del responsable, así como las garantías específicas
(2020 c 3.3). Algo que ni por asomo se da en la legislación
española al momento de cerrar estas páginas.
En consecuencia, para el Derecho de la UE y en general es
relativamente fácil legitimar legalmente los tratamientos
de datos ordinarios y especialmente protegidos como
los de salud, entre otros, con el fin de prevenir, atender
y gestionar los servicios sanitarios, así como para la in-
vestigación médica. Hay que advertir que por lo general
se requiere que haya una ley nacional, salvo en caso de la
concreta excepción por la protección de intereses vitales
del interesado u otras personas físicas (artículo 6.1.d) o por
tratarse de datos sensibles (artículo 9, 2.º c, del RGDP).
Como ha recordado el EDPD, el papel del legislador na-
cional es muy importante, al punto que «las condiciones
y el alcance de dicho tratamiento [de datos frente al CO-
VID-19] varían en función de las disposiciones legislativas
promulgadas en cada Estado miembro» (2020 b) 69. 2º).
Pues bien, por cuanto a la regulación en España, la AEPD
(2020b) y la APDCAT (2020) no han dudado en acudir al
genérico artículo 3 de la Ley Orgánica 3/1986, de 14 de
abril. Asimismo, los artículos 5, 9 y 84 de la Ley 33/2011,
de 4 de octubre, General de Salud Pública contienen
genéricas habilitaciones para el control de pacientes, la
comunicación de datos y otras afectaciones de derechos
que pueden valer también para la protección de datos. De
modo más concreto, el artículo 16, 3.º de la Ley 41/2002 de
autonomía del paciente regula el acceso concreto y moti-
vado por profesional sanitario en caso de riesgos graves
de salud. Asimismo, la legislación ordinaria excepcional
de protección civil puede en su caso ser igualmente pro-
yectable. En la última revisión cabe destacar, de un lado,
la Orden SND/404/2020, de 11 de mayo, de medidas de
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
6
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
vigilancia epidemiológica dirigida a la adecuación de sis-
temas informáticos y los tratamientos y comunicaciones
de datos, que se legitiman por «interés público esencial en
el ámbito específico de la salud pública […] y para la pro-
tección de intereses vitales» (art. 9). No parece que dicha
norma infralegal fuera la más adecuada. En este sentido,
y con mayor importancia a inicios de junio, destaca el Real
Decreto-ley 21/2020, de 9 de junio de medidas urgentes de
prevención, contención y coordinación para hacer frente a
la crisis sanitaria ocasionada por la COVID-19. Esta norma
con fuerza de ley dedica un capítulo a la detección, control
y vigilancia. Por lo que aquí interesa, se impone la obliga-
ción de facilitar al sector de salud información y datos de
contacto para la trazabilidad a «establecimientos, medios
de transporte o cualquier otro lugar, centro o entidad pú-
blica o privada en los que las autoridades sanitarias identi-
fiquen la necesidad de realizar trazabilidad de contactos».
Todo ello bajo la legitimación del «interés público esencial
en el ámbito específico de la salud pública, y para la pro-
tección de intereses vitales de los afectados y de otras
personas físicas». No hay delimitación concreta de datos,
finalidades muy específicas, previsión de reutilización, ni
siquiera para la investigación. Tampoco hay previsiones
específicas respecto de las garantías o medidas de segu-
ridad. No se da cobertura alguna a pasaportes biológicos
y, especialmente, a aplicaciones de rastreo. Aunque se
brinda cierta cobertura legal, ciertamente no es la res-
puesta legal que sería precisa en España y a buen seguro
no pasaría el tamiz del Consejo Constitucional francés, por
ejemplo, ni las especificaciones europeas. Más preocupan-
te si cabe es para Cataluña su Decreto Ley 27/2020, de 13
de julio, que en su escondido Anexo III permite obligar a
“registrar a los asistentes” a lugares de culto y “todas las
reuniones tienen que registrar a los asistentes”, para su
posible cesión. Todo ello sin mayor concreción o garantía.
Además de la referida legitimación del RGPD y la base legal
nacional, en el caso del uso de IA y big data para la investi-
gación y lucha contra la COVID-19 hay que tener en cuenta el
régimen claramente favorable a la investigación biomédica
(artículos 5, 9 y 89 del RGPD) y prestar especial atención a
la LO 3/2018 en el artículo 9 y especialmente su disposición
adicional 17
5
. Este régimen facilita la investigación de la CO-
5. Sobre el tema cabe seguir los estudios de A. Troncoso o R. Martínez y, en especial, el ya citado monográfico de Revista de derecho y
genoma humano, núm. extra 1, 2019.
6. Entre otros, Dictamen Autoridad Catalana de Protección de Datos CNS 15 y el 18/2019 y el «Informe 073667/2018», de la AEPD.
VID-19 por parte del sector público y privado con legitimación
sin consentimiento directo, así como las cesiones de datos
de fuentes variadas para usos secundarios y reutilización en
«líneas» o «áreas» de investigación afines en lucha contra la
COVID-19. Ello, no obstante, bajo garantías de minimización,
seudonimización, confidencialidad, separación funcional
e incluso de participación de comités de ética e informes
particulares del DPD. Aunque no solo, hay que tener sobre
todo en cuenta su apartado c 2.º, que permite únicamente
a autoridades e instituciones públicas sanitarias estudios de
salud sin consentimiento «en situaciones de excepcional re-
levancia y gravedad para la salud pública», como es el caso
6
.
Más allá de la necesidad del consentimiento, hay que
centrarse en el cumplimiento normativo y sus garantías.
El EDPB recuerda que, «incluso en estos tiempos excep-
cionales, el responsable y el encargado de datos deben
garantizar la protección de los datos personales de los
interesados» con el cumplimiento de los principios de pro-
porcionalidad, limitación al período de emergencia y a los
fines específicos y explícitos e información transparente
–incluyendo el tiempo de retención–, así como implemen-
tar las medidas de seguridad y políticas de confidenciali-
dad adecuadas, que deben documentarse apropiadamente
(EDPB, 2020). En la misma dirección, la AEPD (2020a)
insiste en que hay que controlar solo aquellos datos que
sean verdaderamente necesarios para la finalidad, «sin
que pueda confundirse conveniencia con necesidad».
Asimismo, hay que evitar innecesarias comunicaciones
a terceros, «como empresarios, compañías de seguros o
entidades bancarias, traten los datos personales con otros
fines» (considerando 54) (AEPD, 2020b, pág. 7). Sin perjui-
cio de la base legal y la no necesidad de consentimiento, se
ha de seguir el régimen general de protección –principios,
legitimación del tratamiento, transparencia, derechos,
responsabilidad proactiva y privacidad– en el diseño o el
régimen de las transferencias internacionales de datos.
Igualmente, y por defecto, se exigirá el estudio de impac-
to. Será necesaria la articulación de un buen entramado
jurídico entre responsables, corresponsables, encargados
y todos aquellos sujetos que participan en la compleja
cadena de valor de la IA que garantice el cumplimiento
normativo y las distintas responsabilidades.
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
7
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
Además, el uso de la IA respecto de los humanos es el ámbi-
to potencial de proyección del «derecho» a no ser sometido
a decisiones automatizadas reconocido en el artículo 22
del RGPD de la UE con las garantías añadidas que implica
(Cotino, 2019b). Tanto el Grupo de trabajo del artículo 29-UE
(2018, págs. 35, 37-38) como la AEPD (2020a) van detallan-
do las garantías del cumplimiento normativo respecto de la
IA y las decisiones automatizadas, que no solo son relativas
al derecho a expresar e impugnar decisión o las reforzadas
garantías de transparencia (artículos 13. 2.º f, 14. 2.º g y 15.
1.º h del RGPD). En cuanto al ámbito de salud, este «dere-
cho» emanado del artículo 22 también supone una prohi-
bición más intensa de tratamientos automatizados si estos
se basan en datos especialmente protegidos. No obstante,
el consentimiento explícito o una legislación específica en
razón de un «interés público fundamental» pueden levantar
esta prohibición (artículo 9. 2 a y g del RGPD).
Igualmente, el empleo sanitario de la IA es sin duda un uso
de alto riesgo para el Libro blanco de la IA de la Comisión
Europea (2020, págs. 21 y sigs.). En estos casos se deben
cumplir más severamente las garantías; y tanto es así que
se prevé un sistema de control previo.
Además, si se trata del uso público de la IA por parte de
los poderes públicos, habrá que modular y, por lo ge-
neral, intensificar muchas garantías, tal y como hemos
perfilado desde 2019 en la Red de Derecho Administra-
tivo e IA (DAIA)
7
y en diferentes monografías
8
, así como
en otros estudios de Cerrillo (2019), Boix (2020) o Sierra
(2020).
La reciente sentencia de 5 de febrero de 2020 del Tribunal
de Distrito de la Haya (C / 09/550982 / HA ZA 18-388)
es un buen recordatorio de que sí que se puede utilizar
la IA para finalidades públicas, si bien bajo fuertes garan-
tías de transparencia y caja blanca frente a la opacidad
(Cotino, 2020b). De igual modo, deben darse garantías de
separación funcional, control y auditorías independientes,
seudonimización o confidencialidad.
7. Ver las conclusiones de Toledo de 1 de abril (http://links.uv.es/PHAPt3I) y la declaración final de Valencia de 24 de octubre (http://links.
uv.es/e2w7MCR).
8. Monográficos de la Revista general de Derecho Administrativo, núm. 50 (febrero de 2019) y de la Revista catalana de derecho público,
núm. 58 (2019).
9. Ley que extiende el estado de emergencia de salud hasta el 10 de julio y complementa sus disposiciones, http://www.assemblee-nationale.
fr/dyn/15/textes/l15t0418_texte-adopte-seance
En la revisión de este estudio, hay que destacar la regulación
del tratamiento de datos frente a la COVID-19 en Francia de
9 de mayo
9
y su admisibilidad por el Consejo Constitucional
(2020) el 11 de mayo. El extenso artículo 11 (1.500 palabras)
regula los tratamientos de datos determinando claramente
cuatro finalidades: identificación de personas infectadas y
en riesgo de infección, orientación y apoyo, y vigilancia epi-
demiológica e investigación). Expresamente «Se excluye de
estos propósitos el desarrollo o despliegue de una aplicación
informática destinada al público y disponible en equipos móvi-
les que permita informar a las personas que han estado cerca
de personas diagnosticadas con COVID-19». Los tratamientos
serán por el tiempo estrictamente necesario o como máximo
seis meses para tratar y comunicar datos sin consentimiento
por el sistema de información de salud y distintas entidades.
Se señala un plazo de conservación de tres meses, hasta seis.
Hay remisiones al desarrollo reglamentario, pero no en blanco,
así como prescripciones de información y control parlamenta-
rio. El Consejo Constitucional da una amplia respuesta (núm.
59-82) a las diversas alegaciones de inconstitucionalidad y es
prácticamente favorable a toda la regulación. Se pone de ma-
nifiesto del valor de la salud, señala que expresamente se ex-
cluye el desarrollo de app de este precepto (por lo que no hace
valoración alguna sobre el tema), considera bien delimitados
los datos a recabar, comunicar y utilizar y todos acordes a cada
finalidad. Se admite igualmente como adecuado quiénes serán
los cesionarios de los datos y se aceptan las remisiones regla-
mentarias. También se reputan como suficientes las garantías
para la subcontratación y, especialmente de interés, se recuer-
da que esta regulación especial no exime del régimen jurídico
general europeo y francés respecto de garantías, seguridad,
derechos, transferencias, etc. Asimismo, se reafirman las com-
petencias de la CNIL (autoridad francesa de datos), así como
las atribuciones de las distintas autoridades, sin perjuicio del
control parlamentario. Es más, para dicho control parlamen-
tario no procede la remisión de datos personales sensibles.
Se trata de un referente importante tanto la regulación legal,
como la constitucionalidad de las diversas medidas a adoptar.
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
8
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
4. Apps, pasaportes biológicos
electrónicos, sistemas de
geolocalización, trazabilidad
y monitoreo de personas frente
a la COVID-19
Preocupa sobre todo la captación y tratamiento masivo
de datos especialmente protegidos (incluso hipodérmicos,
en términos de Harari), así como de metadatos, datos de
geolocalización y de tráfico a través de webs, plataformas
y aplicaciones, principalmente aplicaciones creadas como
medida frente al coronavirus. Siguiendo el caso de China, se
especula con pasaportes biológicos electrónicos en razón de
estas aplicaciones. Tales herramientas pueden resultar muy
útiles para gestionar las relaciones, contactos y movilidad de
los afectados o para controlar el cumplimiento de confina-
mientos generales y particulares, así como la ubicación de
enfermos y contagiados. Además de para el control sanitario,
y en su caso de seguridad, también puede ser esencial para
la previsión y asignación de servicios de salud, sociales y de
cualquier otro tipo. De igual modo, los sistemas y aplicaciones
informáticas podrían posibilitar el autodiagnóstico a través
de la introducción de datos o a partir de los datos captados
directamente de los terminales y aplicaciones, implementar
evaluaciones para saber si procede hacer test, aconsejar la
permanencia en casa o acudir al ambulatorio o al hospital,
entre muchos otros servicios. Estas herramientas también
pueden servir para liberar servicios de atención.
Además de las finalidades anteriores, estos tratamientos
y aplicaciones pueden ser una fuente de big data muy
variada de la que extraer información y conocimiento para
la investigación frente a las consecuencias de la COVID-19.
Como señalamos al inicio, según cómo estén configuradas,
estas aplicaciones son capaces de extraer información
hipodérmica, al tiempo que efectuar tratamientos profun-
dos de datos. Es esencial fijar lo que se pretende de modo
concreto, ya se trate de tratamientos informativos, asesora-
miento, autodiagnóstico, diagnóstico médico y farmacoló-
10. https://www.google.com/Covid19/mobility/
11. https://asistencia.Covid19.gob.es/; https://www.lamoncloa.gob.es/serviciosdeprensa/notasprensa/asuntos-economicos/
Paginas/2020/060420-asistencia-Covid19.aspx
12. https://www.lamoncloa.gob.es/serviciosdeprensa/notasprensa/asuntos-economicos/Paginas/2020/080420-consulta.aspx
gico, prestación de servicios sociales y médicos, o medidas
de control (barreras de acceso a servicios de transporte,
establecimientos o actividades económicas y laborales), in-
cluidas posibles medidas de control administrativo, policial
e incluso penal. Obviamente ello puede ser muy relevante
para determinar el impacto y graduar las garantías, medi-
das de seguridad y deberes de transparencia.
Entre las apps vinculadas con la COVID-19 destacó Corea
del Sur (app pública self-quarantine safety protection, o
privadas: Corona 100m, Corona map o Corona Alert). Y, por
supuesto, el control social chino previo y especialmente
posterior a la pandemia. Además de aplicaciones, Google
ha facilitado alguna información de movilidad comunita-
ria
10
y muy posiblemente las grandes plataformas cuenten
con datos muy profundos que podrían ser de total interés
para hacer frente a la presente pandemia. En España,
desde los poderes públicos, también ha habido tempranas
iniciativas autonómicas en cascada: CoronaMadrid; Stop
COVID-19 CAT en Cataluña; Salud Responde en Andalucía;
Test COVID-19 en Castilla y León; CoronaTest en Navarra;
COVID-19.EUS en Euskadi; web Coronavirus Sergas en
Galicia, o coronavirusautotest.san.gva.es en la Comunidad
Valenciana, entre otras. Aunque pueden haber implicado
una captación de datos, se trata de iniciativas básicamente
informativas. En todo caso, el Estado, a finales de marzo,
inició sus pasos con la Orden SND/297/2020, de 27 de
marzo, que encomendó a la Secretaría de Estado de Di-
gitalización e Inteligencia Artificial (SGAD) «el desarrollo
de soluciones tecnológicas y aplicaciones móviles para la
recopilación de datos». Sus finalidades parecen bastante
limitadas a la «autoevaluación», «ofrecer información»
y dar «consejos» y «recomendaciones», en ningún caso
«diagnóstico» o «prescripción». Así, el Gobierno lanzó
en abril AsistenciaCOVID-19 para el autodiagnóstico, se
encomendó una web informativa y el desarrollo de chat-
bot para ser utilizado por aplicaciones de mensajería tipo
WhatsApp (apartado 1.º)
11
y se dispuso Hispabot-Covid19
12
.
En cuanto al más sensible tema de la geolocalización se
pretende «contar con información real sobre la movilidad
de las personas en los días previos y durante el con-
namiento» para «ver cómo de dimensionadas están las
capacidades sanitarias en cada provincia» y «a los solos
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
9
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
efectos de verificar que se encuentra en la comunidad
autónoma en que declara estar» (apartado 1.º). También
a través del INE se pretende, junto con los operadores, «el
análisis de la movilidad de las personas en los días previos
y durante el confinamiento» (apartado 2.º).
Está bien claro que con aquella orden no está «vaciándose
de contenido» el derecho de protección de datos (Piñar,
2020) y que estábamos «muy lejos del apocalipsis orwe-
lliano» (Martínez, 2020b). Era sólo un primer paso que
debía haber venido acompañado de una cobertura legal.
Y en la ley es donde han de recogerse usos y finalidades
de esta u otras herramientas, incluso para el control de la
salud, de la seguridad, laboral, etc. Además, y de especial
importancia, hay que hacer un seguimiento de los datos
que se están introduciendo y su posible comunicación y
reutilización con las garantías oportunas.
En abril de 2020 el SEPD (2020b) abogó por un «European
model COVID-19 mobile application». En la misma dirección
y con mayor concreción, el 8 de abril la Comisión Europea
(2020 b) recomendó la rápida adopción de tecnologías, la
implicación de los estados y las autoridades europeas de
protección de datos. Con una visión claramente garantista
se insiste (núm. 10) en limitar estrictamente los tratamientos
y datos empleados, revisar continuamente lo que se haga
garantizando su terminación con la evolución de la pande-
mia y la destrucción irreversible de los datos salvo «su valor
científico» a criterio de los consejos de ética y autoridades
de datos. El núm. 16 concreta diversas garantías de la pri-
vacidad y opciones técnicas (bluetooth, cifrado, seguridad,
ciberseguridad, finalización de las medidas cuando la pan-
demia esté bajo control, anonimato, transparencia). En esta
línea ya destacaban iniciativas cooperativa y abiertas, como
la Pan-European Privacy-Preserving Proximity Tracing Pro-
ject (www.pepp-pt.org) centralizada, con sede en Alemania
(aunque no empleada por ese país) y, en paralelo, iniciativa
descentralizada y con sede en Suiza, el protocolo DP3T.
Ambos protocolos confieren muchas garantías y normaliza-
13. https://twitter.com/SEDIAgob/status/1249610155408449537
14. https://www.cnil.fr/fr/lapplication-mobile-stopcovid-en-questions
15. De especial interés, MÉNDEZ, M. A. “El fiasco de España con la ‘app’ de rastreo del covid nos deja tres amargas leccioneshttps://
blogs.elconfidencial.com/tecnologia/homepage/2020-06-21/app-rastreo-contactos-covid-canarias-carme-artigas-sedia-sanidad-fernando-
simon_2644739/
16. https://asistencia.covid19.gob.es/
17. https://twitter.com/AEPD_es/status/1263475663887044609
18. Así, cabe seguir la exposición del protocolo para la AEPD por Carmela Troncoso en mayo https://t.co/lKFON9jjfG?amp=1
ción técnica interoperable. A la iniciativa PEPP-PT se sumó
inicialmente la SGAD desde el 13 de abril
13
, si bien finalmente
parece haber apostado por el protocolo DP3T integrado con
APIs Apple y Google. Esta línea es la seguida por Suiza, Aus-
tria, Estonia, Finlandia o Alemania. La mala experiencia de
desarrollos propios no fácilmente integrables, como Reino
Unido, pueden haber influido esta opción. Francia, aunque
expresamente no ha regulado específicamente el desarrollo
de una covapp, en mayo lanzó su app propia con el aval de
su autoridad de datos (CNIL)
14
. Todo hay que decir que ya en
julio, el desarrollo español parece ser un fiasco
15
(Radar Co-
vid se puede descargar desde el 14 de julio) en contraste con
aplicaciones masivamente descargadas como la alemana.
El 17 de abril de nuevo la Comisión (2020 c) concretó sus
«orientaciones sobre las aplicaciones móviles» posible-
mente en el documento más concreto desde las institu-
ciones. Terminado este estudio, la AEPD (2020 d) en mayo
de 2020 ha analizado el uso de apps, discerniendo entre
las Apps para autotest o cita previa, las de información
voluntaria de contagios (COVapps). Por lo general se apre-
cian positivamente si no se aprovechan para acumular y
acceder a datos. Mayor atención implican las apps de se-
guimiento de contactos por bluetooth (Contact trace apps)
por la realización de mapas de relaciones entre personas,
reidentificación por localización implícita y la posible fragi-
lidad de los protocolos que emplean. Se muestra escéptica
sobre la eficacia de estos sistemas en general.
Finalizado este estudio, a fines de mayo, el Estado español
anunció la puesta en marcha de app Asistencia COVID-19
en junio
16
. Esta app (finalmente llamada Radar Covid) se
integra bajo las APIs desarrolladas por Apple y Google y
bajo el protocolo D3PT y no el inicialmente indicado PEPP-
PT. Ello ha generado preocupación, al punto que la AEPD
ha afirmado el inicio de «actuaciones de investigación su
valor científico» de la app
17
y ha realizado actividades para
conocer de cerca el protocolo D3PT
18
.
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
10
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
Hay que esperar la coordinación y supervisión permanen-
te de las autoridades de protección de datos y el EDPB. Sin
perjuicio de las iniciativas públicas, el 10 de abril Google y
Apple anunciaron que integrarán sus sistemas operativos
con los dispositivos para que los usuarios no tengan que
buscarlas, aunque sí consentir en su descarga y uso. Y lo
que es mucho más importante, que van a «habilitar una
plataforma más amplia de rastreo de contactos basada
en Bluetooth», preferidas a las que usan GPS (Islandia,
Canadá, China o Corea del Sur). No obstante, se prevé en
todo caso su integración en «un ecosistema más amplio de
aplicaciones y autoridades sanitarias gubernamentales»,
bajo «privacidad, la transparencia y el consentimiento»
19
.
Pues bien, a fines de abril ya pusieron a disposición su
tecnología. Como era previsible, no pocos países, incluido
España desde inicio de mayo han confirmado la adopción
e integración en las API de la app desarrollada.
5. Cuestiones específicas
que suscitan legitimación,
regulación legal de calidad y la
dudosa voluntariedad de estas
aplicaciones
Estas aplicaciones generan interrogantes jurídicos más
allá de los generales, especialmente por los datos de geo-
localización y la trazabilidad de los individuos. Además del
RGDP converge la particular normativa de telecomunica-
ciones. El SEPD afirma que hay que «usar solo datos anó-
nimos para mapear movimientos de personas». El EDPB
(2020a) parte de que los datos de localización solo pueden
ser utilizados por el operador cuando se hacen anónimos
o con el consentimiento de las personas. No obstante,
admite que, si no son útiles los datos anónimos o no se
cuenta con el consentimiento, cabe aplicar la excepción de
seguridad del artículo 15 de la Directiva 2002/58/CE de
privacidad y comunicaciones, que permite a los Estados
comunitarios adoptar disposiciones legales como «medida
necesaria proporcionada y apropiada en una sociedad de-
mocrática para proteger la seguridad nacional». El EDPB
(2020a, apartado 1.º) admite incluso medidas invasivas
–como el «rastreo»– en circunstancias excepcionales y en
19. https://www.apple.com/es/newsroom/2020/04/apple-and-google-partner-on-Covid-19-contact-tracing-technology/
función de las modalidades concretas del procesamiento.
En todo caso, insiste en la obligación de «establecer las
salvaguardias adecuadas»: minimización y proporcionali-
dad, el menor impacto posible con relación a la finalidad,
garantías, recursos ante autoridades y recursos judiciales,
medidas todas restringidas «estrictamente a la duración
de la emergencia». En la misma línea el SEPD (2020b)
insiste en que «la legalidad, la transparencia y la propor-
cionalidad son esenciales» y recuerda que «los grandes
datos significan una gran responsabilidad».
Hay que tener en cuenta los límites y garantías de la ex-
cepción del artículo 15 de la Directiva 2002/58/CE y espe-
cialmente hay que seguir el análisis del Grupo de trabajo
del artículo 29 (2016, págs. 7-12), en el que se destilaron
las «garantías esenciales europeas» frente a medidas de
vigilancia en transferencias electrónicas de datos, en sín-
tesis: a) «que el procesamiento se base en normas claras,
precisas y accesibles»; b) «demostración de la necesidad y
la proporcionalidad con respecto a los objetivos legítimos
que se persiguen»; c) «existencia de un mecanismo de
supervisión independiente», así como d) «disponibilidad
de recursos efectivos para el individuo». A ello hay que
añadir que la excepción del artículo 15 no permite (en la
lucha contra la delincuencia) «la conservación generali-
zada e indiferenciada de todos los datos de tráfico y de
localización de todos los abonados y usuarios registrados
en relación con todos los medios de comunicación elec-
trónica» (STJUE, Gran Sala, de 21 de diciembre de 2016,
asuntos C 203/15 y C 698/15).
Es preciso dotar de base legal de calidad y con garantías a
estas futuras aplicaciones. El referido artículo 15 permite a
los Estados «adoptar medidas legales» adecuadas. Según
vimos más arriba, los artículos 6.2 c y 9 apartado 2.º del
RGPD también abren la puerta a regulaciones legales. Así
pues, hay que acudir de nuevo al muy genérico artículo 3
de la Ley Orgánica 3/1986 (que menciona expresamente
la Orden SND/297/2020, de 27 de marzo) y a otra legisla-
ción relativa a salud y protección civil. Pero en este caso
es mucho más problemático. Con ocasión de la crisis de
la COVID-19, he tenido ocasión de analizar detenidamente
el Derecho excepcional ordinario tanto de salud como de
protección civil, que desarrolla el deber constitucional
fundamental del artículo 30, apartado 4.º, de la CE y ha-
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
11
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
bilita para adoptar medidas restrictivas de derechos, en
ocasiones muy indefinidas (Cotino, 2020a). Se dan insu-
ficiencias constitucionales en esta legislación por cuanto
pueden implicar severas restricciones de derechos muy
genéricas. Hay que considerar que, para la adopción de
medidas colectivas y generalizadas de impacto e intromi-
sión en derechos –como es el lanzamiento de aplicaciones
y herramientas para el tratamiento masivo de datos perso-
nales que afectan a las personas y que han de permanecer
en el tiempo– es imprescindible una acción legislativa que
legitime democráticamente la restricción, a ser posible
con el correspondiente debate y deliberación social. No
sería oportuna –ni bastaría– una legitimación con la inter-
vención judicial inmediata expost que regula el artículo 8
apartado 6.º de la Ley 29/1998, de 13 de julio (Salamero,
2020), que se mantiene en general bajo el Decreto de
alarma 463/2020, de 14 de marzo (disposición final 1.ª).
No está pensada para ejecutar medidas no urgentes y de
afectación de derechos no individualizados.
Para la regulación, valdrían las normas con valor de
ley de derecho constitucional de excepción (artículo
116 de la CE: declaración de alarma, excepción y sitio
(ATC 7/2012, FJ 9.º). Como no cabe suspensión del ar-
tículo 18 apartados 1.º y 4.º de la CE en ningún caso
estas normas excepcionales podrían afectar al conte-
nido esencial de estos derechos. Según el contenido
a regular, puede dudarse si bastaría una ley ordinaria
o un decreto ley. La excepcionalidad de la pandemia
y la clara tolerancia por parte del TC (Cotino, 2020c)
pueden justificar el uso del decreto ley. En todo caso,
la ley (y no el reglamento) debe contener los elementos
básicos, los requisitos de la restricción de derechos y,
principalmente, las garantías. Además de las exigen-
cias del artículo 23 del RGPD, precisamente respecto
de restricciones en el ámbito de datos sensibles, la
reciente STC 76/2019, de 22 de mayo (FJ apartado 8.º)
sobre perfilado de datos por partidos políticos ha sido
especialmente exigente en cuanto a las garantías y
calidad de la ley limitadora de derechos fundamenta-
les y las posibilidades de apoderar a un poder público
para restringir derechos. El mandato de calidad «no
puede quedar deferido a un ulterior desarrollo legal
o reglamentario, ni tampoco se puede dejar en manos
de los propios particulares». Asimismo, en el caso de
ser aplicable, deben tenerse en cuenta los mínimos del
artículo 41 apartado 2.º de la Ley 40/2015.
Pero, más allá de la base legal, hay que prestar atención a
la voluntariedad y consentimiento del interesado en estos
sistemas.
En España y en la UE desde el inicio se habla de aplicacio-
nes voluntarias, por ejemplo, la Comisión Europea insiste
en «garantizar que la persona siga teniendo el control»,
acompañado de garantías de transparencia y derechos
(2020 c) 3.2). Se afirma que para la legitimación «el con-
sentimiento […] sería la justificación más adecuada». La
eficacia de estas herramientas dependerá de su uso masi-
vo y, si no lo hay voluntariamente, no hay que descartar su
obligatoriedad sobre la base de una clara legalidad. Asimis-
mo, hay que ser cautos respecto de esta «voluntariedad».
En razón del artículo 7 apartado 4.º del RGPD y la doctrina
continuada del Grupo de trabajo del artículo 29 –y como
ha señalado la AGPD– salvo excepciones «la base jurídica
del tratamiento en las relaciones con la Administración (…)
no sería el consentimiento del interesado», siendo además
que no cabe el interés legítimo (AEPD, 2018, I. Conclusión).
No obstante, la voluntariedad real de los interesados en el
uso de aplicaciones puede ser un elemento de importancia
en cuanto al impacto y las garantías compensatorias pre-
cisas. Viendo el pasaporte biológico que utilizó China, en
ningún caso sería válida la legitimación por consentimien-
to si la instalación de la aplicación, su uso y transmisión de
datos es condición para la prestación de servicios sociales,
de salud, transporte, acceso a actividades y establecimien-
tos. La Comisión señala que «no debería haber ninguna
consecuencia negativa para el usuario» (2020 c) 3.3). Para
eludir el consentimiento sería precisa una legitimación le-
gal especialmente intensa. Con respecto a las aplicaciones
privadas, Google y Apple parten del consentimiento, que
legitima tanto el tratamiento de datos sensibles (artículo 9
apartado 2.º a) del RGPD) como los perfilados y tratamien-
tos automatizados (artículo 22 apartado 4.º del RGPD). No
obstante, habrá que estar vigilantes. Si este tipo de apps
privadas se consideran peligrosas cabría incluso una pro-
hibición por ley (artículo 9 apartado 2.º de la LO 3/2018).
Especialmente respecto de webs y apps privadas la AEPD
(2020b) advirtió pronto de los riesgos de facilitar datos
sensibles a estas plataformas y herramientas, «incluso en
aquellos casos en los que aparentemente esos datos no
se asocian a la identidad del usuario que utiliza la aplica-
ción», pues podrían producirse importantes carencias de
transparencia y delimitación de finalidades.
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
12
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
6. El diablo está en los detalles:
garantías específicas exigibles en
el diseño de estas aplicaciones
Según hemos visto, más allá de considerar si en prin-
cipio se pueden utilizar aplicaciones y rastreos frente
al COVID-19, hay que determinar exactamente
para qué
se quieren emplear. A partir de ello, la clave es
cómo
se
hace. Desde la finalización y entrega de este estudio no
han sido pocos los documentos que han ido concretan-
do estos aspectos por instituciones y organizaciones,
con más precisión por parte de la Comisión Europea
(2020 b y c) o el SEPD (2020 c) y no tanto por la AEPD
(2020 d).
La anonimización es esencial, pero, como esta no será
completa, resultará ineludible el cumplimiento del régi-
men de protección de datos con sus principios y garantías,
la privacidad y, por defecto, la evaluación de su impacto.
Reforzar la transparencia de los perfilados y tratamientos
automatizados es clave para la confianza social. Y lo mis-
mo podría decirse para el sector público con respecto al
inventario de actividades (artículo 31.2 de la LO 3/2018).
Anonimizar no es «simplemente eliminar identificadores
obvios como números de teléfono y números IMEI». En
este sentido, «el uso de identificadores temporales de ra-
diodifusión y de la tecnología Bluetooth para el rastreo de
contactos parece ser una vía útil para lograr la protección
efectiva de la intimidad y de los datos personales» (SEPD,
2020a). No obstante, como veremos, sí que es muy posible
la minimización, principalmente a través de la seudonimi-
zación y la separación de acceso a datos de los distintos
sujetos participantes en la cadena de valor (responsables
de las apps, sistemas operativos, terminales, operadores,
etc.). La minimización es, sin duda, un elemento de garan-
tía esencial como se ha subrayado desde el inicio y que ha
especialmente en conexión para el rastreo de contactos y
de alertas sobre la base de la distancia y duración de los
contactos, señalando que la tecnología Bluetooth de baja
energía (BLE) parece ser la más precisa y no permite el
rastreo, a diferencia de la geolocalización, por lo que la re-
comienda, además de que no se almacene «ni el momento
exacto ni el lugar del contacto», pero sí el día del contacto
para determinar síntomas y medidas a adoptar (Comisión
Europea 2020 c) 3.4).
Habrá que ser extremadamente cautos respecto de las
cesiones de los datos que se absorban a través de estas
apps. Para que estas aplicaciones o sistemas informáticos
puedan nutrir de big data a la investigación biomédica
contra la COVID-19, como prevé el sistema PEPP-PT, será
de especial interés prever cesiones de datos para la in-
vestigación biomédica y los detalles de seudonimización.
Así se complementaría o reforzaría la cobertura legal que
para ello puede brindar la Disposición adicional 17.ª apar-
tado 2.º de la LO 3/2018.
El SEPD (2020a) señala que incluso si se trata de datos
anónimos hay obligaciones de seguridad relativas a la
información y la confidencialidad que deben mantenerse
si se acude a terceros encargados (operadores, desarro-
lladores, etc.). La Comisión Europea es más concreta si
cabe (2020 c) 3.8) exigiendo «las técnicas criptográficas
más avanzadas» y si hay un servidor central, el acceso
al mismo bajo registro previo. El almacenamiento de los
datos «cifrado y pseudonimizado» y que «todas las trans-
misiones desde el dispositivo personal a las autoridades
sanitarias nacionales deberían cifrarse».
Si se trata de iniciativas del sector público será plenamen-
te aplicable el Real Decreto 3/2010, de 8 de enero, por
el que se regula el Esquema Nacional de Seguridad y su
Anexo. A falta de definir y concretar la aplicación, finalida-
des, funcionamiento e impacto, es muy posible que haya
que exigir un nivel de seguridad alto en las dimensiones
de confidencialidad y trazabilidad y un nivel medio en las
restantes (disponibilidad, autenticidad e integridad). Asi-
mismo, es probable que haya que concretar la excepción
de la obligación de bloqueo prevista en el artículo 32 de
la Ley Orgánica 3/2018 a fin de permitir la posibilidad de
utilizar datos y metadatos para otras finalidades.
Apple y Google (2020) desde inicio de abril anunciaron las
especificaciones técnicas de su propuesta, inicialmente
inspirado en el protocolo DP-3T, al que finalmente se ha su-
mado el Gobierno español y no como inicialmente en abril
a la también sólida iniciativa europea PEPP-PT. Estas ini-
ciativas suponen un sistema de aplicaciones que detectan
proximidad con otros posibles infectados con Bluetooth
y calcula riesgos individuales de contagio por exposición
a personas infectadas, pero manteniendo la información
anónima. La diferencia de los protocolos es que PEPP-PT
carga registros de los contactos en un servidor central
de informes y con DP-3T el servidor central no accede a
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
13
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artificial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
los datos ni es quien los trata e informa a los usuarios del
contacto. Hay debate sobre la eficacia de un sistema más
o menos centralizado. Expertos han concluido que los ata-
ques contra sistemas descentralizados son indetectables
y, por el contrario, los sistemas centralizados permiten
medidas de seguridad y auditoría más fuertes, aunque al
parecer tampoco del todo seguros (Vaudenay, 2020).
Los detalles recogidos en el Libro blanco (AA.VV., 2020,
págs. 2-3 y 29) no se pueden aquí más que abreviar en lo
esencial: se certifica la seguridad y cumplimiento normati-
vo bajo código abierto auditable y transparente. El sistema
está preparado para implementarse en cada país y para
su interoperabilidad. Se «insta firmemente» a adoptar un
sistema descentralizado y a que se almacenen datos ano-
nimizados con identificaciones efímeras y seudoaleato-
rias. Estos datos se utilizan para la investigación. Cuando
hay una declaración de infección, entonces se recaban los
datos almacenados para las alertas. En todo caso, los «da-
tos siempre permanecen en los teléfonos de los usuarios
y el cálculo del riesgo se realiza localmente». No hay un
backend centralizado a la asiática, que facilitaría el control
social: el servidor central solo tiene los identificadores
anónimos de los no infectados. Además de eliminar datos
en catorce días, el sistema se desmantelaría a sí mismo
elegantemente (graceful dismantling) conforme se dejara
de usar. Cabe apuntar que ante las dudas de seguridad y
suspicacias que puedan generarse (como en Noruega),
en Francia se acudió a una comunidad de hackers éticos
(Yeswehack) que han examinado la app antes que su lan-
zamiento. El tema, sin duda, exigirá un análisis continuo de
expertos, sociedad civil y autoridades de datos.
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
14
www.uoc.edu/idp
Universitat Oberta de Catalunya
Redes sociales y discurso del odio: perspectiva internacional
Lorenzo Cotino Hueso
Referencias bibliográficas
AA.VV. (2020). Decentralized Privacy-Preserving Proximity Tracing. White Paper (versión del 25 de
mayo de 2020), págs. 2-3 y 29. https://github.com/DP-3T/documents/blob/master/DP3T%20
White%20Paper.pdf
AEPD (2018). «Informe 175/2018, noviembre, sobre investigación biomédica».
AEPD (2020a). «Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial» (febrero).
https://www.aepd.es/media/guias/adecuacion-rgpd-ia.pdf
AEPD (2020b). «Informe 20/2020, de 12 de marzo, en relación con los tratamientos de datos resul-
tantes de la actual situación derivada de la extensión del virus COVID-19» https://www.aepd.es/es/
documento/2020-0017.pdf
AEPD (2020c). «Comunicado de la AEPD en relación con webs y apps que ofrecen autoevaluaciones
y consejos sobre el coronavirus» (16 de febrero). https://www.aepd.es/es/prensa-y-comunicacion/
notas-de-prensa/comunicado-de-la-aepd-en-relacion-con-webs-y-apps-que-ofrecen
AEPD (2020 d). «El uso de las tecnologías en la lucha contra el Covid19. Un análisis de costes y be-
neficios». Mayo de 2020, https://www.aepd.es/sites/default/files/2020-05/analisis-tecnologias-
COVID19.pdf
ALBERTO SÁIZ, C. (coord.) (2017). Código de buenas prácticas en protección de datos para proyectos
de Big Data. AEPD e ISMS Forum, págs. 40 y sigs. y especialmente Grupo de trabajo del artículo 29:
Dictamen 5/2014, de 10 de abril, sobre anonimización.
ALCALDE BEZHOLD, G.; ALFONSO FARNÓS, I. (2019). «Utilización de tecnología Big Data en investiga-
ción clínica». Revista de derecho y genoma humano, núm. extra 1, págs. 55-83.
APDCAT (2020). «Nota en relación a los tratamientos de datos personales relacionados con las medi-
das para hacer frente al COVID-19» (15 de marzo). https://apdcat.gencat.cat/es/actualitat/noticies/
noticia/Nota-en-relacio-amb-els-tractaments-de-dades-personals-relacionats-amb-les-mesures-
per-fer-front-al-COVID-19
APPLE-GOOGLE (2020). «Privacy-Preserving Contact Tracing» (abril). https://www.apple.com/Co-
vid19/contacttracing/
BOIX, A. (2020). «Los algoritmos son reglamentos: la necesidad de extender las garantías pro-
pias de las normas reglamentarias a los programas empleados por la administración para
la adopción de decisiones». Revista de Derecho Público: Teoría y Método, vol. 1, págs. 223-270. 
https://doi.org/10.37417/RPD/vol_1_2020_33
CERRILLO I MARTÍNEZ, A. (2019). «El impacto de la inteligencia artificial en el derecho administrativo,
¿nuevos conceptos para nuevas realidades técnicas?». Revista general de Derecho Administrativo,
núm. 50.
COMISIÓN EUROPEA (2020a). Libro blanco sobre la inteligencia artificial (19 de febrero). Bruselas: UE,
págs. 21 y sigs. https://op.europa.eu/es/publication-detail/-/publication/aace9398-594d-11ea-8b81-
01aa75ed71a1
COMISIÓN EUROPEA (2020b). Recomendación (UE) 2020/518 de la Comisión de 8 de abril de
https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=uriserv:OJ.L_.2020.114.01.0007.01.
SPA&toc=OJ:L:2020:114:TOC
COMISIÓN EUROPEA (2020c). Comunicación Comisión UE, de 17 de abril (2020/C 124 I/01) orienta-
ciones sobre las aplicaciones móviles de apoyo a la lucha contra la pandemia de covid-19 en lo
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
15
www.uoc.edu/idp
Universitat Oberta de Catalunya
Redes sociales y discurso del odio: perspectiva internacional
Lorenzo Cotino Hueso
referente a la protección de datos (2020/C 124 I/01). https://eur-lex.europa.eu/legal-content/ES/TX
T/?uri=CELEX%3A52020XC0417%2808%29
CONSEJO CONSTITUCIONAL (2020). Decisión núm. 2020-800 DC del 11 de mayo de 2020, https://www.
conseil-constitutionnel.fr/decision/2020/2020800DC.htm
COTINO HUESO, L. (2019a). «Riesgos e impactos del big data, la inteligencia artificial y la robótica y
enfoques, modelos y principios de la respuesta del Derecho». Revista General de Derecho Adminis-
trativo, núm. 50. https://bit.ly/37RifyJ
COTINO HUESO, L. (2019b). «Derecho y garantías ante el uso público y privado de inteligencia artificial,
robótica y big data». En: BAUZÁ, M. (dir.). El Derecho de las TIC en Iberoamérica. Montevideo: FIADI-
Thompson-Reuters, págs. 917-952, http://links.uv.es/BmO8AU7
COTINO HUESO, L. (2020a). «Los derechos fundamentales en tiempos del coronavirus. Régimen
general y garantías y especial atención a las restricciones de excepcionalidad ordinaria». IUSTEL
(monográfico «Coronavirus… y otros problemas»), págs. 88-101. www.elcronista.es
COTINO HUESO, L. (2020b). «SyRI, ¿a quién sanciono? Garantías frente al uso de inteligencia artificial
y decisiones automatizadas en el sector público y la sentencia holandesa de febrero de 2020». La
Ley Privacidad, Wolters Kluwer, núm. 2. www.academia.edu.
COTINO HUESO, L. (2020c). «La (in)constitucionalidad de la “intervención”, “mordaza” o “apagón”
de las telecomunicaciones e internet por el Gobierno en virtud del Real Decreto-Ley 14/2019», de
próxima publicación.
EDPB (2020a). «Statement of the EDPB Chair on the processing of personal data in the context of
the COVID-19 outbreak» (20 de marzo). https://edpb.europa.eu/news/news/2020/statement-edpb-
chair-processing-personal-data-context-Covid-19-outbreak_en
EDPB (2020 b). Directrices 03/2020 sobre el tratamiento de datos relativos a la salud con fines de
investigación científica en el contexto del brote de COVID-19 (Abril) https://edpb.europa.eu/our-
work-tools/our-documents/guidelines/guidelines-032020-processing-data-concerning-health-
purpose_es
FERRÀS, X. (2020). «Las tres D». La Vanguardia (4 de abril). https://www.lavanguardia.com/econo-
mia/20200404/48311997448/las-tres-d.html
GERMAN ETHICS COUNCIL (2017). «Big Data and Health: Data Sovereignty as the Shaping of Informa-
tional Freedom. Opinion». Berlín: Deutscher Ethikrat. https://www.ethikrat.org/fileadmin/Publika-
tionen/Stellungnahmen/englisch/opinion-big-data-and-health-summary.pdf
GRUPO DE TRABAJO DEL ARTÍCULO 29 (2016). «Working Document 01/2016 on the justification of
interferences with the fundamental rights to privacy and data protection through surveillance mea-
sures when transferring personal data (European Essential Guarantees)». WP 237, págs. 7-12. https://
ec.europa.eu/justice/article-29/documentation/opinion-recommendation/files/2016/wp237_en.pdf
GRUPO DE TRABAJO DEL ARTÍCULO 29 (2018). «Directrices sobre decisiones automatizadas» (6 de
febrero), págs. 7-8. https://www.aepd.es/sites/default/files/2019-12/wp251rev01-es.pdf
HAN, B. CHUL (2020). «La emergencia viral y el mundo de mañana». El País (22 de marzo). https://
elpais.com/ideas/2020-03-21/la-emergencia-viral-y-el-mundo-de-manana-byung-chul-han-el-
filosofo-surcoreano-que-piensa-desde-berlin.html
HARARI, Y. (2020). «El mundo después del coronavirus». La Vanguardia (6 de abril). https://www.lavan-
guardia.com/internacional/20200405/48285133216/yuval-harari-mundo-despues-coronavirus
.
html
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
16
www.uoc.edu/idp
Universitat Oberta de Catalunya
Redes sociales y discurso del odio: perspectiva internacional
Lorenzo Cotino Hueso
ICO (2020). «Data protection and coronavirus» (12 de marzo). https://ico.org.uk/about-the-ico/news-
and-events/news-and-blogs/2020/03/data-protection-and-coronavirus
MARTÍNEZ, R. (2020a). «Los tratamientos de datos personales en la crisis del COVID-19. Un enfoque
desde la salud pública». Diario La Ley, núm. 9.604 (30 de marzo). Wolters Kluwer. https://diariolaley.
laleynext.es/Content/Documento.aspx?params=H4sIAAAAAAAEAMtMSbF1CTEAAmMDc2NjM7Wy1
KLizPw8WyMDI6CYoSVIIDOt0iU_OaSyINU2LTGnOBUAZxgvATUAAAA=WKE
MARTÍNEZ, R. (2020b). «Protección de datos y geolocalización en la Orden SND/297/2020». Expansión
(blog Hay Derecho) (31 de marzo). https://hayderecho.expansion.com/2020/03/31/proteccion-de-
datos-y-localizacion-en-la-orden-snd-297-2020/
MONTALVO JÄÄSKELÄINEN, F. (2019). «Una reflexión desde la teoría de los derechos fundamentales
sobre el uso secundario de los datos de salud en el marco del Big Data». Revista de Derecho Político,
núm. 106, págs. 43-75. https://doi.org/10.5944/rdp.106.2019.26147
ORTEGA GIMÉNEZ, A. (2019). «Implicaciones jurídicas de la internalización de la tecnología del Big Data
y Derecho Internacional Privado». Revista de derecho y genoma humano: genética, biotecnología y
medicina avanzada, núm. extra 1, págs. 169-204.
ORTEGA, A.; BALSA-BARREIRO, J.; CEBRIÁN, M. (2020). «Los límites del capitalismo de vigilancia». El
País (8 de abril). https://elpais.com/elpais/2020/04/07/opinion/1586252351_094192.html
PEDREÑO, A. (2020). «La pandemia constata la hegemonía de Asia frente a Europa en Inteligencia
Artificial». El Independiente (6 de abril). https://www.elindependiente.com/opinion/2020/04/06/
la-pandemia-constata-la-hegemonia-de-asia-frente-a-europa-en-inteligencia-artificial/
PIÑAR MAÑAS, J. L. (2020). «Privacidad en estado de alarma y normal aplicación de la Ley». Expansión
(blog Hay Derecho) (9 de abril). https://hayderecho.expansion.com/2020/04/09/privacidad-en-
estado-de-alarma-y-normal-aplicacion-de-la-ley/
SALAMERO, L. (2020). «COVID-19 y jurisdicción contencioso-administrativa». www.academia.edu.
SEPD (2020a). «Comments to DG CONNECT of the European Commission on monitoring of COVID-19
spread» (25 de marzo). https://edps.europa.eu/sites/edp/files/publication/20-03-25_edps_com-
ments_concerning_Covid-19_monitoring_of_spread_en.pdf
SEPD (2020b). «EU Digital Solidarity: a call for a pan-European approach against the pandemic» (6
de abril). https://edps.europa.eu/sites/edp/files/publication/2020-04-06_eu_digital_solidarity_Co-
vid19_en.pdf
SEPD (2020c). TechDispatch on Contact Tracing with Mobile Applications, 7 de mayo, https://edps.eu-
ropa.eu/data-protection/our-work/publications/techdispatch/techdispatch-12020-contact-tracing-
mobile_en
SIERRA, S. (2020). «Inteligencia artificial y justicia administrativa: una aproximación desde la teoría del
control de la Administración Pública». Revista General de Derecho Administrativo, núm. 53.
VAUDENAY, S. (2020). «Centralized or Decentralized? The Contact Tracing Dilemma». IACR, mayo
https://eprint.iacr.org/2020/531.
Eloi Puig
IDP N.º 31 (Octubre, 2020) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
17
www.uoc.edu/idp
Universitat Oberta de Catalunya
Inteligencia artifi cial, big data y aplicaciones contra la COVID-19: privacidad y protección de datos
Lorenzo Cotino Hueso
Cita recomendada
COTINO HUESO, Lorenzo (2020). «Inteligencia artifi cial, big data y aplicaciones contra la COVID-19:
privacidad y protección de datos», IDP. Internet, Derecho y Política, núm. 31, págs. 1-17. UOC [Fecha de
consulta: dd/mm/aa] http://dx.doi.org/10.7238/idp.v0i31
.
3244
Los textos publicados en esta revista están —si no se indica lo contrario— bajo una licencia
Reconocimiento-Sin obras derivadas 3.0 España de Creative Commons. Puede copiarlos,
distribuirlos y comunicarlos públicamente siempre que cite su autor y la revista y la insti-
tución que los publica (IDP.
Revista de Internet, Derecho y Política
; UOC); no haga con ellos
obras derivadas. La licencia completa se puede consultar en: http://creativecommons.org/
licenses/by-nd/3.0/es/deed.es.
Sobre el autor
Lorenzo Cotino Hueso
cotino@uv.es
Catedrático de la Universidad de Valencia
Lorenzo Cotino Hueso (www.cotino.es) es Catedrático de la Universidad de Valencia, Investigador de
la Universidad Católica de Colombia (Proyecto “Derecho y Big Data”, Grupo de Investigación en De-
recho Público y TIC). IP Proyecto I+D+i Retos MICINN “Derechos y garantías frente a las decisiones
automatizadas en entornos de inteligencia artifi cial, IoT, big data y robótica” (PID2019-108710RB-I00,
2020-2022). Ha sido magistrado suplente del TSJ Comunidad Valenciana desde el año 2000 hasta
2019. Doctor y licenciado en Derecho (UVEG), máster en la especialidad de derechos fundamentales
en Barcelona (ESADE), licenciado y diplomado de Estudios Avanzados de Ciencias políticas (UNED).
Premio Extraordinario de Doctorado, Ministerio Defensa, Ejército, INAP, CAC. Profesor invitado en
Konstanz (Alemania) desde 2004 honorario en la Universidad Nacional de Colombia y en la Univer-
sidad Católica Cuenca, en Ecuador; con estancias de investigación en Utrech (Países Bajos) y Virginia
(Estados Unidos). Investigador principal de quince proyectos de investigación, miembro de otros vein-
tiuno, autor de diez libros y coordinador de catorce, así como de ciento cuarenta artículos o capítulos
científi cos. Ha impartido más de trescientas ponencias y conferencias. Dirige la red www.derechotics.
com desde 2004 y desde 2019 es cofundador de la Red DAIA (Derecho Administrativo de la Inteligencia
artifi cial). Profesor en la Universidad de Alcalá (2005-), en la UOC (2012-) y en la UNIR (2014-). ORCID
0000-0003-2661-0010. http://www.researcherid.com/rid/H-3256-2015.
... En el contexto particular de la pandemia de COVID-19 y el estado derivado conocido como la "nueva normalidad", 1 el uso de la IA por parte de los gobiernos ha adquirido mayor relevancia (Bonales et al., 2020;Cascón-Katchadourian, 2020;Cotino-Hueso, 2020;Rivera-Eisenmann, 2021). Esto se debe a que las administraciones públicas de todo el mundo se han visto en la necesidad de acelerar aún más sus estrategias de IA para la vigilancia y el monitoreo del comportamiento de la pandemia y de la población en general, para el seguimiento de los ciudadanos infectados con la enfermedad, para generar mapas informativos y modelos predictivos, así como para la prestación de servicios públicos y el intercambio de información a través de medios digitales (Sandoval-Almazán et al., 2020). ...
... Al igual que otras herramientas que utilizan la IA, el uso de chatbots se ha incrementado durante la pandemia de COVID-19, pues los gobiernos han visto en esta herramienta un aliado para la prestación de información y servicios a distancia, para compartir información sobre el virus y la enfermedad derivada, para monitorear y controlar los contagios, para el seguimiento de los enfermos y sus síntomas, así como para los trámites y dudas sobre la disponibilidad hospitalaria y los procesos de vacunación (Cascón-Katchadourian, 2020;Cotino-Hueso, 2020;Herrera-Monje, 2021;Peña-Torres et al., 2022). ...
Article
Full-text available
El uso de la inteligencia artificial en los gobiernos ha aumentado en la última década en diversos países, adquiriendo mayor importancia en el contexto de la pandemia por COVID-19. Los chatbots son una de las principales herramientas que funcionan a partir de la inteligencia artificial y que han sido utilizados por los gobiernos para brindar información y servicios a los ciudadanos, así como para el seguimiento, monitoreo y control de la COVID-19. El uso de estas herramientas ha generado debates éticos sobre el uso de datos personales, la privacidad, la transparencia, la rendición de cuentas y el derecho de acceso a la información. El objetivo de este trabajo es identificar y analizar las principales preocupaciones éticas que emergen en torno a los chatbots implementados en el gobierno de México en el contexto de la COVID-19; para ello se analizan los casos de Susana Distancia y Dr. Armando Vaccuno. La metodología consiste en un sondeo abierto de percepción ciudadana. Los resultados muestran que las principales preocupaciones éticas son la transparencia, la rendición de cuentas y la privacidad, las cuales han generado una falta de confianza por parte de la ciudadanía hacia los chatbots, que se ha traducido en un bajo nivel de uso. Para subsanar esto, es necesario eliminar los vacíos regulatorios en torno a la transparencia y la protección de datos implicados en estas nuevas tecnologías.
... However, ethical and social challenges such as privacy and data protection need to be addressed. AI is also valuable in the fight against the COVID-19 pandemic, enabling virus spread prediction and technological solutions development [5]. It is crucial to maintain a patient-centered approach and train healthcare professionals for appropriate AI integration. ...
... Tampoco hay que perder de vista, como ha señalado la doctrina (Cotino Hueso, 2020), el hecho de que la aplicación de la IA respecto a humanos implica la entrada en juego del derecho a oponerse a las decisiones automati- Se trata de una discusión que data de antiguo. De hecho, reaparece en escena la problemática en torno al concepto jurídico indeterminado de «interés público» como excepción a la prohibición genérica de tratamiento de datos sensibles prevista en el artículo 9.2.g) del RGPD. ...
Article
Full-text available
El presente artículo examina los límites y garantías constitucionales frente al uso de técnicas de identificación biométrica a la luz del procedimiento sancionador PS/00120/2021 instruido por la AEPD y resuelto en la primavera de 2021. Los datos biométricos, siguiendo el RGPD, son aquellos datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características de una persona física, que permiten confirmar la identificación única o unívoca de esta, como patrones biométricos faciales en el supuesto que nos ocupa. Al respecto, existe mucha confusión, y la propia AEPD ha reconocido que se han extendido una serie de equívocos con relación a esta tecnología (huellas dactilares o mediciones faciales) para fines de identificación y autenticación. En este trabajo se analiza el concepto jurídico indeterminado de «interés público esencial», de acuerdo con la jurisprudencia, como excepción a la prohibición general de tratamiento de datos biométricos ex artículo 9.2.g) RGPD. De modo más específico, se aborda la problemática desde una triple perspectiva: desde el punto de vista del sujeto, especialmente en relación con el responsable del tratamiento (con mención especial al supuesto en el que este no sea un organismo público); desde el punto de vista formal, se examinan los límites relativos a la reserva de ley; y, por último, desde el punto de vista sustantivo, se estudian los límites materiales referentes al principio de proporcionalidad y al contenido mínimo del derecho fundamental a la protección de datos personales.
Article
Full-text available
Derivado del confinamiento por COVID-19, los países cerraron sus fronteras con el resto del mundo para así frenar la expansión de esta epidemia. En el ámbito nacional, se ordenó el cierre de diversos lugares y centros de trabajo, cuya actividad no fuera primordial para la economía. Ante esto, el Gobierno de México, inició un plan de vacunación para sus ciudadanos, con vacunas aprobadas por la Secretaría de Salud a nivel federal. La vacunación permite el relajamiento de las medidas de confinamiento y favorece la recuperación de la economía; sin embargo, aún no se dispone de una herramienta accesible, que proporcione a la población su certificado digital de vacunación e información importante como: datos del usuario, farmacéutica de procedencia de la vacuna y estatus actual del esquema de vacunación. COV-ID App es un desarrollo que busca ayudar a que las personas puedan comprobar su actual estatus de vacunación, obteniendo esta información desde sus dispositivos celulares; y permitiendo con esto, que establecimientos diversos tales como: restaurantes, lugares de trabajo, cruces fronterizos, o cualquier otro que así lo solicite; puedan comprobar de manera veraz, que la persona cumple con el esquema de vacunación parcial o total, así como los detalles relevantes de cada una de las dosis aplicadas a la persona.
Article
Las aplicaciones basadas en la inteligencia artificial abren la posibilidad concreta de replicar en máquinas una capacidad de razonamiento similar a la humana, otorgando a estas la facultad de construir representaciones no programadas gracias al aprendizaje proporcionado por algoritmos y Big Data. El abanico de inevitables dilemas que la aplicación de estos sistemas plantea en muchos ámbitos de la vida social resulta sobrecogedor y la dimensión normativa de la inteligencia artificial es evidentemente una de las más delicadas, por los intereses y principios que hay en juego. Se introducen aquí algunas consideraciones de orden iusfilosófico sobre las relaciones entre el derecho, la política y la vigilancia tecnológica.
Article
Full-text available
[Propuesta] Identificar las falencias que presentan las políticas del tratamiento de datos de CoronApp, en contraste con la normativa interna que protege el manejo de datos personales en Colombia. [Metodología/Enfoque/Diseño] La investigación es de corte cualitativo donde, a través de la revisión de archivo, se analizan los documentos normativos de la protección de datos personales en Colombia y se contrastan con las políticas de tratamiento de datos de la aplicación CoronApp. [Resultados] Se concluye que es necesario conocer el manejo que se le ha dado hasta ahora a los datos, para verificar si es viable que se continúe con su utilización -respecto a las consecuencias jurídicas de su uso- y, en caso de que así sea, reestructurar dichas políticas para que cumpla con las exigencias legales. [Implicaciones Prácticas] Este artículo aporta evidencia sobre las falencias que presenta la aplicación CoronApp y las posibles consecuencias de dichas deficiencias respecto al manejo de datos personales. Lo anterior, para instar a que se modifiquen las políticas según la normativa interna, pues es posible que se ocasionen perjuicios a los titulares de estos derechos. Además, se presentan algunas recomendaciones sobre cómo deben hacerse dichas modificaciones. [Originalidad] La aplicación CoronApp que se ha implementado hace poco en Colombia como una solución tecnológica para colaborar en el manejo y la contención del virus COVID-19, se nutre de una serie de datos que requieren ser protegidos. Pocos son los estudios que dan cuenta de si la aplicación cumple con los requerimientos legales para proteger datos personales y cuáles son las posibles consecuencias jurídicas en su falta de protección. [Purpose] Identify the shortcomings that politics present in the processing of CoronApp data, in contrast to the internal regulations that protect the handling of personal data in Colombia [Methodology/Approach/Design] The research is of a qualitative work where, through the file review, are analyzed the normative documents of the protection of personal data in Colombia in contrast with the data processing policies of the CoronApp application. [Findings] This work concluded that it is necessary to know the handling that is giving to the data so far, to verify if it is feasible to continue using it and, if so, restructure those policies so that it complies with the legal requirements. [Practical implications] This article provides evidence about the shortcomings that the CoronApp application presents about handling personal data and the consequences of their lack of protection. In that sense modification the normative according to the internal regulations is urging, since could cause damages to the holders of those rights. In addition, the article presents some recommendations on how these modifications have to be presents. [Originality] CoronApp application has been recently implemented in Colombia, as a technological solution to collaborate in the management and containment of the COVID-19 virus, is nourished by a series of data that needs to be protected. However, few are the studies that show whether it complies with the legal requirements to protect personal data and which could be the consequences of lack of protection.
Article
Full-text available
La inteligencia artificial y su aplicación en la medicina cambia las premisas de la relación médico-paciente tal y como la conocemos. La creación de robots médicos y la existencia de aplicaciones informáticas en las que las nuevas tecnologías de la información y comunicación son el eje principal de su actuación determinan que se revise la relación entre, ahora, la máquina y el paciente. Para abordar estos contenidos, reflexionaremos sobre robótica, y la escasa normativa comunitaria aplicable para aportar algunas claves sobre la denominada personalidad electrónica, y la responsabilidad civil por daños provocados por los robots en el ámbito médico.
Article
La incorporación de Internet y las TIC a nuestras vidas ha ocasiones profundos cambios en las relaciones sociales, hasta el punto de que, la evolución de éstas está marcando el ritmo de desarrollo de los distintos sectores de la sociedad. Este proceso de cambio digital se ha agudizado en los últimos meses como consecuencia de las restricciones y condiciones impuestas por la crisis sanitaria provocada por el Covid-19. Ante estas condiciones, el Gobierno, aprovechando el avance y consolidación de las nuevas tecnologías entre la población, ha decidido auspiciar el proceso de digitalización, que no estaba teniendo los resultados programados, aprobando el “Plan España Digital 2025”. Este Plan está destinado, en parte, a suplir las deficiencias detectadas antes y durante la pandemia, pero, también, a afrontar nuevos desafíos propios de una sociedad en evolución. Si bien, uno de los retos inminentes que debe asumir el Gobierno es la reforma de la Administración, para que se convierta en el organismo de referencia de este proceso de cambio, y para ello, hay que comenzar adecuando el marco legislativo para diseñar a una Administración auténticamente Digital
Article
Full-text available
En este trabajo se argumenta que los algoritmos empleados por parte de las Administraciones públicas para la adopción efectiva de decisiones han de ser considerados reglamentos por cumplir una función material estrictamente equivalente a la de las normas jurídicas, al reglar y predeterminar la actuación de los poderes públicos. Adicionalmente se estudia cómo, una vez asumida esta naturaleza jurídica reglamentaria de estas herramientas de programación, se deducen consecuencias jurídicas respecto de cómo han de realizarse los procedimientos de elaboración y aprobación de estos algoritmos, la necesidad de que los mismos estén debidamente publicados como normas jurídicas que son o la exigencia de que existan mecanismos de recurso directo e indirecto frente a los mismos. Todas estas consecuencias, como se expone en el texto, suponen un significativo y muy necesario incremento de las actuales garantías frente al empleo de algoritmos por parte de los poderes públicos.
Article
Full-text available
Big Data offers great opportunities in the field of health research. The interrelation and exploitation of health data, even, correlating them with non-traditional ones, will allow progress in the fight against diseases and in favor of prevention and prediction in terms that are surely not going to find a match in the History of the Medicine and humanity. However, the traditionally settled model, so-called Helsinki paradigm by reference to the Declaration of the same name, signed by the 18th World Medical Assembly in 1964, and the legal regulation of the protection of health data do not appear to be adequate to take advantage of such opportunities that Big Data offers. The balance between risks for individual rights and benefits for common interest seems to have been transformed. This requires us to reflect on whether a new paradigm can be developed that allows us to combine the health benefits of massive data research with the required protection of individual rights. In other words, to choose, within the margins offered by the regulation of data protection, for the most appropriate legal framework, taking into account the developments that, in this regard, offer the EU Regulation and the Spanish specific new regulation of data protection. As we are maintaining in our work, we consider that the new concept of pseudonymization has to play a leading role within this new model. Summary: I. Introduction. II. Solving some myths: will the human being retain an essential role in the fight against disease in the days of Big Data? III. The impact of Big Data opportunities in the conflict between individual rights and common good. IV. The necessary overcoming of the Helsinki paradigm in the secondary use of health data safeguarding people’s rights. V. Have the new Spanish Regulation of data protection opted for the new paradigm? VI. Conclusions
Decentralized Privacy-Preserving Proximity Tracing. White Paper (versión del 25 de mayo de 2020), págs. 2-3 y 29
  • A A Vv
AA.VV. (2020). Decentralized Privacy-Preserving Proximity Tracing. White Paper (versión del 25 de mayo de 2020), págs. 2-3 y 29. https://github.com/DP-3T/documents/blob/master/DP3T%20
«Informe 175/2018, noviembre, sobre investigación biomédica
  • Aepd
AEPD (2018). «Informe 175/2018, noviembre, sobre investigación biomédica».
«Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial
  • Aepd
AEPD (2020a). «Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial» (febrero). https://www.aepd.es/media/guias/adecuacion-rgpd-ia.pdf
«Informe 20/2020, de 12 de marzo, en relación con los tratamientos de datos resultantes de la actual situación derivada de la extensión del virus COVID-19
  • Aepd
AEPD (2020b). «Informe 20/2020, de 12 de marzo, en relación con los tratamientos de datos resultantes de la actual situación derivada de la extensión del virus COVID-19» https://www.aepd.es/es/ documento/2020-0017.pdf