Content uploaded by Alberto Redondo Hernández
Author content
All content in this area was uploaded by Alberto Redondo Hernández on Apr 08, 2018
Content may be subject to copyright.
Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp)
Vol. 105, Nº. 1, pp 99-106, 2011
XIII Programa de Promoción de la Cultura Científica y Tecnológica
MÁQUINAS QUE PERCIBEN, SIENTEN Y DECIDEN
DAVID RÍOS INSUA*; DIEGO GARCÍA**; PABLO GÓMEZ***; ALBERTO REDONDO***
* Real Academia de Ciencias Exactas, Físicas y Naturales.
** AIsoy Robotics.
*** Universidad Rey Juan Carlos.
ABSTRACT
Desde sus orígenes, la Humanidad ha perseguido
crear y desarrollar máquinas que nos complementen en
nuestras distintas facetas y actividades. Esta búsqueda
permanente ha conducido al desarrollo de robots de
muy variadas tipologías. En este artículo realizamos
una revisión de algunos desarrollos recientes en este
campo, poniendo el énfasis en una nueva clase de
robots emocionales, sus bases científicas y tecnoló-
gicas, así como algunas de sus aplicaciones.
1. INTRODUCCIÓN
Desde sus orígenes, la Humanidad ha perseguido
crear y desarrollar máquinas de todo tipo que nos com-
plementen en todas nuestras facetas, sea como meras
productoras de trabajo, o asistentes en tareas domés-
ticas, defensivas, educativas o de entretenimiento,
entre otras muchas posibilidades. Esta búsqueda per-
manente ha conducido, de manera esencial, al desa-
rrollo de robots de muy variados tipos, desde robots
industriales que facilitan el ensamblaje de coches, a
robots que realizan inspecciones en zonas peligrosas,
pasando por aquéllos que realizan tareas de limpieza
en el hogar. En particular, aquí pondremos el énfasis en
el desarrollo de robots personales, que pueden cons-
tituir la nueva revolución en el campo de las
Tecnologías de la Información y de las Comunica-
ciones (TIC), como antes lo fueron el PC, Internet, los
ordenadores portátiles o, recientemente, los teléfonos
inteligentes. Así, podemos esperar un futuro cercano
en el que los robots aparezcan de forma casi ubícua en
nuestras vidas, ayudándonos en todo tipo de tareas.
Para ello, y con el objetivo de mejorar la interacción
con los usuarios, se han hecho numerosos esfuerzos en
simular elementos emocionales en los robots,
hablándose entonces de robots emocionales, en los que
nos centraremos.
Así, en este artículo comenzaremos por hacer una
breve revisión histórica de esta búsqueda permanente
de máquinas que nos complementen. Después, centra-
remos nuestra descripción en dos disciplinas recientes
que incluyen elementos emocionales, como son la
computación afectiva y la toma de decisiones afectiva,
que forman parte de las bases científicas y tecnoló-
gicas de los robots emocionales. El problema esencial
al que nos referiremos, el de diseño de un agente que
tome decisiones y simule emociones, puede, de hecho,
verse como un puzzle en el que tenemos que resolver
una series de tareas básicas (percibir, aprender, pre-
decir, decidir, sentir e interrelacionarse) que luego
debemos integrar. Describimos, por ello, cómo resol-
vemos tales piezas y cómo las integramos para nuestro
propósito, para concluir con una discusión sobre pers-
pectivas de futuro y aplicaciones.
2. UNA BÚSQUEDA PERMANENTE
Un ejemplo clásico de la mencionada búsqueda por
construir máquinas que nos permitan mejorar en
nuestro estilo de vida en varias direcciones, queda bien
reflejado en la conocida frase de Aristóteles, que en su
Política 1, II De la Esclavitud indica:
Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2011; 105David Ríos Insua et al.100
Si las lanzaderas tejiesen por sí mismas... los señores
prescindirían de los esclavos.
refiriéndose así a la mejora de las condiciones del ser
humano de poder automatizarse los trabajos mecá-
nicos, como, en gran medida, ha venido ocurriendo a
lo largo de la Historia.
Uno de los grandes pioneros en este campo fue Al
Jazari (probablemente, 1136-1206) que, en gran
medida, crea los campos de la Ingeniería Mecánica y
la Robótica en su obra El Libro de la Sabiduría de los
Ingenios Mecánicos (1206), en el que se describen
numerosas máquinas, junto con las instrucciones sobre
cómo construirlas. Incluía varios autómatas huma-
noides, como su grupo musical robótico, orientado
hacia el entretenimiento. Otro gran pionero fue
Leonardo da Vinci (1425-1519) que describió o cons-
truyó numerosos ingenios. Uno bien conocido es su
caballero mecánico, un autómata de carácter
defensivo basado en una armadura, que, aparente-
mente, no llegó a construir. Otro importantísimo
pionero sería Jacques de Vaucanson (1709-1782), al
que se atribuye la construcción del primer robot y la
creación del primer telar completamente automa-
tizado. Su autómata más famoso fue el Canard
Digerateur.
La robótica se apoya también en varias disciplinas
con eminentes precursores. Entre ellos, menciona-
ríamos a Thomas Bayes (1702-1761) que introduce la
importantísima fórmula de Bayes, que describe cómo
procesar información en presencia de nueva evidencia
bajo condiciones de incertidumbre, y que resulta fun-
damental en tareas robóticas como el procesamiento
de imágenes y de sonido, como describiremos más
adelante. También son importantísimas las contribu-
ciones del legendario Alan Turing (1912-1954) que,
entre otros, introduce conceptos relacionados con la
equivalencia funcional entre las máquinas y la mente
humana, siendo padre de la Inteligencia Artificial.
Torres Quevedo (1852-1936), el gran ingeniero
español y Presidente de la Real Academia de Ciencias
Exactas, Físicas y Naturales, simboliza otro de los
pilares básicos de la robótica, sustentado en la infor-
mática, y, en general en la capacidad de cálculo, a
través de las numerosas máquinas analógicas de
cálculo que desarrolló, entre ellas las de cálculo de
polinomios.
Basados en esos pilares, en el siglo XX se pro-
ducen grandes avances en robótica. Walter (1910-
1977) fue el diseñador y constructor de los primeros
robots autónomos electrónicos. Entre ellos están sus
sistemas Tortuga concebidos para mostrar diversos
aspectos de la vida y la organización, capaces de
orientarse con ayuda de la luz, retornar a su base para
cargarse y mostrar cierto sentido de autoconciencia.
Brooks (1954) diseñó también numerosos robots como
Genghis (1989), que se desplaza de forma autónoma
imitando el movimiento de insectos, y le condujo a
preparar los robots aspiradores Roomba, de gran éxito
comercial, de la empresa iRobot que fundó.
Precisamente por su interés comercial mencio-
namos los esfuerzos de grandes empresas en este
campo. Algunos ejemplos directos serían Westing-
house, que ya en 1938 desarrolló su gigantesco
Figura 1. Al Jazari, Leonardo da Vinci, Jacques de Vaucanson
Elektro, con algunas funcionalidades básicas; Honda,
que desarrolló en el año 2000 su famoso robot andante
ASIMO; o NEC, con sus robots Papero. También son
muy importantes por su impacto directo en las tecno-
logías de planificación y comprensión del lenguaje, los
esfuerzos de IBM a través de sus famosos sistemas
Deep Blue (que venció en 1996 al campeón del Mundo
de Ajedrez, Kasparov) y Watson (que triunfó en el pro-
grama Jeopardy en 2011).
Por lo que respecta a los aspectos emocionales
simulados en algunos sistemas, que son parte esencial
en este artículo, mencionamos que algunos sistemas
sencillos, como los Tamagotchi o los Furby, han tenido
gran éxito, a pesar de su simplicidad a la hora de des-
plegar conceptos emocionales.
3. LAS BASES CIENTÍFICAS
Nuestro interés se centra pues en diseñar un agente
que tome decisiones de forma autónoma, y que refleje
o simule emociones, y éstas tengan cierta influencia en
la toma de decisiones. Nuestro objetivo último no es
meramente descriptivo, sino que queremos mejorar la
interacción del agente con los usuarios que puedan
aparecer en su escena.
Por lo que respecta al apoyo a la toma de decisiones
del agente, la disciplina fundamental de estudio es la
del análisis de decisiones, véase French y Ríos Insua
(2000). Mediante sus desarrollos se pretende dar
apoyo prescriptivo a la toma de decisiones de un
agente en condiciones de incertidumbre. Para ello, se
modelizan las preferencias sobre las consecuencias
mediante una función de utilidad; se modelizan las cre-
encias mediante una distribución de probabilidad y se
calcula la alternativa de máxima utilidad esperada, que
será la decisión a tomar. En el caso que consideramos,
el agente espera que sus acciones influyan de alguna
manera sobre otros agentes que aparezcan en la
escena, típicamente los usuarios, por lo que dentro de
las incertidumbres se encuentran aquéllas referidas a
cómo van a reaccionar los usuarios. Así, debemos
incorporar modelos de predicción al agente que le
ayuden a predecir las acciones de los otros agentes,
con lo cual estaríamos adoptando una aproximación
basada en el análisis de riesgos adversarios, véase
Rios Insua et al (2009).
A los modelos anteriores, que en cierta forma son
estándar en la Teoría de la Decisión y la Inteligencia
Artificial, podemos acoplarles conceptos en relación
con emociones dentro de lo que se ha denominado
toma de decisiones afectivas, véase Loewenstein y
Lerner (2003). Tradicionalmente, las emociones se han
considerado alejadas de la realidad. Así, por ejemplo,
Platón declara
Las pasiones, los deseos, los temores nos impiden
pensar...
Tal visión de que las emociones se apartan de la racio-
nalidad y de que explicarían, de hecho, las desvia-
ciones respecto de la misma, comienzan a verse cues-
tionadas con el primer artículo de Kahneman y
Tversky (1970), véase Kahneman (2011), sobre heu-
David Ríos Insua et al. Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2011; 105 101
Figura 2. Thomas Bayes, Alan Turing y Leonardo Torres Quevedo
rísticas y sesgos. Desde entonces, se han venido produ-
ciendo ciertos descubrimientos que están cambiando el
cuadro anterior. Por ejemplo, Damasio y Grabowski
(1994) describen, a través de su teoría del marcador
somático, cómo las personas con capacidades de res-
puesta emocional impedidas tienden a ser malos deci-
sores, lo que limita su funcionamiento normal en la
sociedad. En paralelo, dentro de las neurociencias, se
promueve el concepto de inteligencias múltiples
(Gardner, 1985), incluyendo la la inteligencia emo-
cional. Se produce, además, el nacimiento de campos
como la Neuroeconomía, véase Glimcher et al (2008).
Desde entonces, se han producido numerosos expe-
rimentos que han mostrado el impacto de las emo-
ciones sobre la toma de decisiones. Algunos ejemplos
serían, véase Mellers et al (1997) para más detalles:
Las reacciones afectivas en relación con senti-
mientos básicos, como gusto o disgusto, prece-
den a evaluaciones cognitivas.
Algunas personas con accidentes que dañan sus
centros emocionales, pueden realizar tareas cog-
nitivas complicadas, pero no pueden tomar deci-
siones.
Los estados mentales positivos promueven el
pensamiento creativo, mientras que los negati-
vos parecen promover el pensamiento analítico.
Los estados positivos inducen que sucesos nega-
tivos parezcan menos probables, y viceversa.
Tales consideraciones han conducido a que se desa-
rrollen modelos de toma de decisiones que tienen en
cuenta las emociones, como luego explicaremos.
Las ideas anteriores se expresan en sistemas com-
putacionales, dando lugar al campo de la computación
afectiva, véase, p.ej., Picard (1997). Esta disciplina
persigue dos propósitos principales, interrelacionados.
Por un lado, construir sistemas que incluyan compo-
nentes que permitan inferir el estado emocional y la
personalidad del usuario e interaccionar consecuente-
mente con el mismo. Por otro, la provisión de un
mecanismo de generación de un componente en un
agente consistente con una personalidad y un estado
emocional deseados. Esta última aproximación es la de
mayor interés para nosotros.
4. LAS PIEZAS DE UN PUZLE
Podemos considerar que, en definitiva, el objetivo
final de esta búsqueda descrita es diseñar un agente
que sea capaz, dentro de un entorno en el que puede
haber otros agentes, de percibir tal entorno y las
acciones de tales agentes; en función de estas percep-
ciones, mostrar algún tipo de emociones y, finalmente,
que éstas se reflejen en la toma de decisiones del
agente. Resolver esta tarea requiere que seamos
capaces de resolver científica y tecnológicamente una
serie de actividades básicas que, en conjunto, forman
un puzle cuyas piezas comenzamos por describir.
4.1 Percibir
La primera tarea a la que debemos enfrentarnos es
la de percibir el mundo que nos rodea. Para ello
debemos emular, en la medida de lo posible, tanto los
sentidos clásicos, como la visión, el oído, el olfato y
gusto o el tacto, como otros sentidos, en el concepto
más moderno, como la termocepción, la propiocepción
o la equilibriocepción.
Tal tarea se realiza a través de sensores que reco-
pilan información acerca del entorno que rodea al
agente como datos en bruto. Se conciben, pues, como
las ventanas a través de las que nuestro agente percibe
el mundo que le rodea. Entre otros, se encuentran dis-
ponibles en el mercado sensores de tacto, de incli-
nación 3D, de fuerza, de luz ambiental, de tempe-
ratura, cámaras, audífonos,... Es interesante destacar
los grandes esfuerzos que se han realizado en los
últimos años por desarrollar sensores de alta calidad
con bajo coste y escaso consumo de energía, en parte
potenciados por la tecnología de los teléfonos inteli-
gentes.
Una vez capturados los datos, debemos procesarlos
e interpretarlos para obtener información. En algunos
casos, basta aplicar reglas relativamente sencillas para
hacerlo. Dos posibles ejemplos serían:
El sensor de tacto detecta un toque y, justo des-
pués, el de inclinación, un cambio en la misma.
El agente interpreta este caso como que ha reci-
bido un golpe.
Se detectan cambios rápidos y continuados de
inclinación en el correspondiente sensor. El
Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2011; 105David Ríos Insua et al.102
agente interpreta este caso como que está sien-
do agitado.
En otros casos, debemos aplicar reglas o modelos
más sofisticados para interpretar razonablemente las
lecturas de los sensores. Algunos ejemplos incluirían
los casos de la visión, que puede requerir tareas como
el reconocimiento de caras, el seguimiento de objetos,
el reconocimiento de caracteres o la lectura, o el habla,
que conlleva el reconocimiento e interpretación de
palabras, el reconocimiento e interpretación de frases,
o el reconocimiento de quien habla. La regla genérica
que proponemos aplicar en estas situaciones es la regla
de Bayes, véase French y Rios Insua (2000), que
facilita el aprendizaje y procesamiento de la infor-
mación en entornos en los que hay incertidumbre. Para
ello, si, por ejemplo, nos centramos en el caso de la
visión, véase Knill y Richards (1996), debemos dis-
poner de:
Una representación formal de las propiedades
de la escena S de interés.
Un modelo probabilístico de la estructura de las
escenas .
Un modelo de formación de la imagen .
Un modelo probabilístico del ruido N para la
imagen N, por ejemplo de tipo aditivo,
, que nos daría la verosimilitud
.
Con esa información, aplicaríamos la fórmula de
Bayes para obtener la distribución a posteriori sobre
las escenas
.
Frank y Goodman (2012) proporcionan una des-
cripción para el caso del reconocimiento del habla.
4.2 Aprender y predecir
La tarea del agente a la que ahora nos referimos es
la de aprender del entorno que le rodea con vistas a
predecir su evolución, frente a sus posibles acciones.
Así, la pregunta esencial a la que el agente debe res-
ponder es dada:
La acción que prevee hacer.
Su acción anterior, el estado anterior del entor-
no y la acción anterior del usuario.
Su acción penúltima, el estado penúltimo del
entorno y la acción penúltima del usuario.
....
con qué probabilidades van los usuarios a responder y
cuál será el futuro estado del entorno. De nuevo, para
responder a estas preguntas el agente puede emplear
los métodos de inferencia y predicción bayesiana, en
principio. Debe ponerse cuidado en limitar la memoria
que se emplea en el procedimiento anterior de apren-
dizaje, por razones computacionales.
4.3 Decidir
La siguiente pieza del puzle se refiere al apoyo a la
toma de decisiones del agente. Entre las distintas
teorías de ayuda a la decisión disponibles, véase
Wakker (2009) para una visión moderna, por las
razones expuestas en French y Ríos Insua (2000),
nosotros apoyaremos la toma de decisiones de nuestro
agente en el análisis de decisiones. Sin embargo, en la
toma de decisiones del agente incorporamos predic-
ciones de cómo va a reaccionar el entorno, incluidos
otros agentes en el mismo, incluyendo así elementos
del análisis de riesgos adversarios, véase Ríos Insua et
al (2009).
En conjunto, debemos comenzar por identificar los
objetivos vitales de nuestro agente. Para ello, podemos
inspirarnos en la pirámide motivacional de Manslow
(1943) y construir objetivos relacionados. Sin pérdida
de generalidad, véase Von Winterfeldt y Edwards
(1986), podemos asumir una función de utilidad
aditiva. Los pesos pueden estar ordenados de forma
creciente en función de la posición en la jerarquía, para
promover que se dediquen más recursos computacio-
nales a los objetivos más básicos. Además, la forma de
las funciones componentes de utilidad nos permite
modelizar que, una vez suficientemente satisfechos los
niveles en los objetivos más básicos, se pase a per-
seguir objetivos de nivel superior.
La función de utilidad se compone con el modelo
de predicción antes descrito para que el agente calcule
David Ríos Insua et al. Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2011; 105 103
la utilidad esperada de cada una de las posibles alterna-
tivas e implemente la de máxima utilidad esperada. La
planificación del agente puede realizarse a una o más
etapas, en función de los recursos computacionales
disponibles por el agente.
4.4 Sentir
Las tres piezas anteriores conformarían un modelo
estándar de toma de decisiones similar a los utilizados
hasta fechas recientes en Investigación Operativa e
Inteligencia Artificial, véase Clemen y Reilly (2004).
Como hemos indicado, la necesidad de tener una inter-
acción más fluída con el agente nos lleva a incorporar
inclusión y simulación de emociones en la toma de
decisiones del agente, en línea con los desarrollos en
computación afectiva y toma de decisiones afectiva,
antes mencionados.
Nos enfrentamos aquí a un concepto elusivo, el de
emoción, sobre el que se han dado numerosas defin-
ciones e interpretaciones, véase Russell y Barrett
(1999). Así, por ejemplo, hay autores que prefieren
hablar de episodios emocionales frente a otros que
hablan de núcleos afectivos. Nosotros adoptaremos
una aproximación pragmática, desde el punto de vista
computacional, basada en la presencia de emociones
básicas, cuya composición da lugar a emociones más
complejas, frente a otras teorías basadas en estados
motivacionales, los basados en valoraciones y expecta-
tivas u otros modelos computacionales de emociones.
Quedaría entonces definir las emociones a adoptar,
cómo se componen y cómo afectan a la toma de deci-
siones.
Ninguna de ellas es cuestión sencilla. Así, por
ejemplo, en el modelo de El-Nasr et al (2000) se
incluyen catorce emociones básicas, mientras que en el
modelo de Frijda et al (1989) se incluyen ocho. La
siguiente cuestión es cómo se modelizan y componen
tales emociones. En principio, podemos asociar emo-
ciones a estados mentales que son función de sucesos
acaecidos, expectativas, estados motivacionales, emo-
ciones previas y la experiencia. Sin embargo, la forma
de definirlos puede ser muy cambiante. Así, por
ejemplo, para el estado contento, que típicamente aso-
ciamos a que se haya producido un suceso deseado,
Gratch et al (2009) asocian, al menos, cuatro modelos
posibles basados en la utilidad de la consecuencia
obtenida, de la probabilidad con que ocurre o de la sor-
presa que produce.
La última cuestión se refiere al impacto de las emo-
ciones sobre la toma de decisiones. Se han propuesto
modelos de preferencias que se adaptan a los estados
emocionales. El más conocido es el de Loewenstein y
Lerner (2003) en el que los pesos de la función de uti-
lidad dependen de los denominados factores visce-
rales, que incluirían los estados emocionales nega-
tivos. Tal modelo puede extenderse para considerar
estados positivos.
4.5 Interrelacionarse
La interrelación se refiere a la capacidad de
relación con los otros agentes que aparecen en la
escena. Por un lado, se incluiría la comunicación
inalámbrica o por radio con otros agentes computacio-
nales, pero también la comunicación oral, especial-
mente con personas. Necesitamos incluir un sistema
automático de reconocimiento de voz (ASR) y un
sistema de síntesis de habla (TTS) en nuestro agente.
Para ello, el procedimiento básico pasaría por:
Reconocer lo emitido por el locutor e identificar
a que se está refiriendo, por ejemplo a través de
una gramática BNF.
Apelar a un gestor de diálogo para identificar un
patrón y escoger la respuesta más adecuada y,
Finalmente, sintetizar la respuesta en tiempo
real y emitirla.
Es importante señalar que en la emisión de la respuesta
tienen impacto las emociones, en la velocidad, tono y
volumen. Asimismo, las emociones pueden reflejarse
en aspectos no verbales de la comunciación que se
puedan reflejar en el agente, a través de luces, colores,
posiciones de sus componentes y otros.
5. EL PUZLE RECOMPUESTO
Como hemos indicado, podemos ver las piezas
anteriores como parte de un puzle que podemos
Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2011; 105David Ríos Insua et al.104
recomponer para describir el comportamiento general
de nuestro agente artificial emocional a través del
bucle siguiente:
Capturar datos a través de sensores.
Inferir el estado del entorno.
Inferir la última acción realizada por el usuario.
Deducir el estado emocional actual.
Evaluar las consecuencias.
Evaluar las expectativas.
Evaluar las emociones básicas.
Calcular la mezcla de emociones.
Expresar la emoción.
Tomar la siguiente decisión
Evaluar los modelos de predicción.
Combinar los modelos de predicción.
Evaluar las posibles decisiones.
Escoger la decisión de máxima utilidad espe-
rada.
Actualizar el reloj.
La actualización puede hacerse bien síncronamente,
avanzando el reloj a intervalos iguales de tiempo, bien
asíncronamente, avanzando el reloj al instante de
tiempo correspondiente al siguiente suceso, que puede
asimilarse a la siguiente acción del usuario.
El esquema anterior se ha implementado en Aisoy 1
(véase www.aisoy.es) una plataforma robótica flexible,
basada en un procesador ARM Cortex, similar a los
disponibles en los teléfonos inteligentes comerciales.
Dispone, además, de tres sensores de tacto, un sensor
de luz, un audífono, una cámara y un sensor de incli-
nación. Incluye un sistema de reconocimiento visual,
de reconocimiento auditivo y un sistema de síntesis de
voz. Presenta sistemas de expresión gestual y emo-
cional mediante movimiento (en cejas, párpados y
cuello), una matriz de leds iluminables a modo de boca
y un sistema de luces coloreables. Se dispone de un
SDK para programar comportamientos en la plata-
forma.
Globalmente podemos decir que el sistema incluye
un sistema sensorimotor, un sistema de reconoci-
miento, un sistema de diálogo y, finalmente, un
sistema operativo que controla el comportamiento
global de la plataforma.
6. DISCUSIÓN
Hemos hecho una breve introducción a la robótica
personal que, probablemente, supondrá la nueva revo-
lución en las TIC, como previamente lo han sido el PC,
internet, los ordenadores portátiles o los teléfonos inte-
ligentes. Gracias a numerosos avances científicos y
tecnológicos recientes es posible ya pensar en el desa-
rrollo de máquinas que perciben, sienten y deciden.
Como hemos indicado es un campo altamente
interdisciplinar, en el que son relevantes disciplinas
David Ríos Insua et al. Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2011; 105 105
Figura 3. Aisoy 1. Aspecto externo y aspecto interno.
como la Psicología, las Matemáticas, la Estadística, las
TIC, la Neuroeconomía o la Filosofía. Además,
tendrán numerosas aplicaciones en distintas áreas
como el entretenimiento, por ejemplo, ayudando a
reproducir música que incluya algún concepto emo-
cional; como dispositivos terapéuticos, por ejemplo
acompañando de forma amena y cariñosa a personas
mayores; como asistentes personales, por ejemplo
facilitando el envío de mensajes a través de redes
sociales por medio de voz; como apoyo educativo,
facilitando la adquisición de destrezas; entre muchos
otros.
AGRADECIMIENTOS
Trabajo apoyado por el proyecto INNPACTO
HAUS. DRI agradece también el apoyo de los pro-
yectos RIESGOS del Ministerio de Economía y
Competitividad y RIESGOS-CM de la Consejería de
Educación de la Comunidad de Madrid.
REFERENCIAS
1. Clemen, R., Reilly, T. (2004) Making Hard
Decisions, Duxbury.
2. Damasio, H. and Grabowski, T. (1994), The return of
Phineas Gage: Clues about the brain from the skull of
a famous patient, Science 264, 1102-1105.
3. El-Nasr, M. S., Yen, J. and Ioerger, T. R. (2000),
FLAME Fuzzy logic adaptive model of emotions,
Autonomous Agents and Multi-Agent Systems, 3,
219-257.
4. Frank, M. C., Goodman, N. D. (2012). Predicting
pragmatic reasoning in language games, Science,
336, 998.
5. French, S. and D. Rios Insua (2000) Statistical
Decision Theory, Arnold.
6. Frijda, N. H., Kuipers, P. and ter Schure, E. (1989)
elations among emotion, appraisal, and emotional
action readiness, Journal of Personality and Social
Psychology, 57, 212-228.
7. Gardner, H. (1985) Frames of Mind, Cambridge U.P.
8. Glimcher, P., Camerer, C., Fehr, E. and Poldrack, R.
(2008) Neuroeconomics: Decision Making and the
Brain, Academic Press.
9. Gratch, J., Marsella, S., Wang, N. and Stankovic, B.
(2009), Assessing the validity of appraisal-based
models of emotion, in International Conference on
Affective Computing and Intelligent Interaction,
ACII 2009.
10. Kahneman, D. (2011) Thinking, Fast and Slow,
Farrar, Straus and Giroux.
11. Knill, D., Richards, W. (1996) Perception as
Bayesian Inference, Cambridge U.P.
12. Loewenstein, G., Lerner, J. S. (2003) The role of
affect in decision making, en Goldsmith H, Davidson
R, Scherer K. (eds) Handbook of Affective Science,
Oxford Univ. Press.
13. Maslow, A.H. (1943) A Theory of Human
Motivation, Psychological Review, 50, 370-96.
14. Mellers, B. A., Schwartz, A., Ho, K., Ritov, I. (1997),
Decision affect theory: Emotional reactions to the
outcomes of risky options, Psychological Science, 8,
423-429.
15. Picard, R. (1997) Affective Computing, MIT Press.
16. Rios Insua, D., J. Rios and D. Banks (2009)
Adversarial risk analysis, Journal of the American
Statistical Association, 104, 841-854.
17. Russell, J. A., Barrett, L. F. (1999) Core affect, pro-
totypical emotional episodes, and other things called
emotion: Dissecting the elephant, Journal of
Personality and Social Psychology, 76, 805-819.
18. Von Winterfeldt, D. Edwards, W. (1986) Decision
Analysis and Behavioral Research, Cambridge U.P.
19. Wakker, P. (2010) Prospect Theory: For Risk and
Ambiguity,Cambridge U.P.
Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2011; 105David Ríos Insua et al.106