Content uploaded by Pablo Gomez Esteban
Author content
All content in this area was uploaded by Pablo Gomez Esteban on Sep 03, 2015
Content may be subject to copyright.
Sociedades de robots emocionales
David Rios Insua, Real Academia de Ciencias
Diego Garc´ıa, AIsoy Robotics
Pablo G´omez, Universidad Rey Juan Carlos
Abstract
Al igual que antes ocurri´o con el ordenador personal, Internet, el ordenador
port´atil o los tel´efonos inteligentes, es muy probable que la siguiente revoluci´on en
las Tecnolog´ıas de la Informaci´on y de las Comunicaciones se refiera a la adopci´on
de robots personales en los hogares. Un campo de estudio relativamente reciente
es el an´alisis y dise˜no del comportamiento colectivo en grupos de robots que com-
piten o cooperan para conseguir ciertos objetivos. En este art´ıculo se describen las
bases cient´ıficas para el desarrollo de sociedades de robots, indic´andose el impacto
que pueden tener los aspectos emocionales en el comportamiento de tales sociedades.
Palabras clave: Sociedades de robots, Juegos cooperativos, Juegos no
cooperativos, An´
alisis de riesgos adversarios, Emociones
1 Introducci´on
Los robots personales pueden constituir la siguiente innovaci´on disruptiva en el campo de
las Tecnolog´ıas de la Informaci´on y de las Comunicaciones (TIC), como antes lo fueron el
PC, Internet, los ordenadores port´atiles o, recientemente, las redes sociales y los tel´efonos
inteligentes. As´ı, podemos esperar un futuro cercano en el que los robots aparezcan de
forma casi ubicua en nuestras vidas y hogares, ayud´andonos en todo tipo de tareas.
Un campo de estudio relativamente reciente es el de las interacciones entre grupos de
robots para alcanzar sus objetivos, lo que podr´ıamos denominar como sociedades de robots.
1
Dichos objetivos podr´ıan consistir en el aprendizaje colaborativo (Breazeal et al., 2004) ,
la asignaci´on de tareas (Gerkey y Mataric, 2004), la formaci´on de equipos especializados
(Service y Adams, 2011), o la negociaci´on entre agentes (Zhang y Lesser, 2007), entre otros.
Para mejorar la interacci´on con los usuarios, se han hecho, igualmente, numerosos es-
fuerzos para poder simular elementos emocionales en los robots, habl´andose entonces de
robots emocionales. Un ejemplo es el modelo FLAME de El Nasr et al. (2000), basado
en l´ogica difusa, que incluye catorce emociones bsicas definidas a partir del efecto que los
sucesos producidos tienen sobre los objetivos del robot. Otro ejemplo destacable es el del
robot social Roboceptionist, capaz de mantener relaciones sociales con personas en una
universidad y resolverles sus dudas. Es capaz de simular emociones, estados de humor y
actitudes, v´ease Kirby et al. (2010). En R´ıos Insua et al. (2012) discutimos por qu´e las
emociones no son s´olo ´utiles para la toma de decisiones, sino que forman parte integral de
dicho proceso, resultando indispensable su inclusi´on en un modelo realista.
En este art´ıculo discutiremos cuestiones relacionadas con el dise˜no de sociedades de
robots emocionales. Comenzaremos revisando las bases cient´ıficas de las decisiones sociales,
que resultan de las teor´ıas de juegos no cooperativos y cooperativos y del, m´as reciente,
an´alisis de riesgos adversarios. Describimos despu´es varios escenarios posibles para una
sociedad de robots, en su relaci´on con grupos de personas. Revisamos luego el impacto de
las emociones, centr´andonos en los aspectos de decisiones grupales. Damos despu´es una
breve descripci´on de un posible modelo para acomodar comportamiento social y emociones.
Finalmente, discutimos posibles escenarios de aplicaci´on de estas sociedades de robots
emocionales.
2 Bases conceptuales
Comenzamos describiendo algunas cuestiones relativas a las decisiones de grupo. Salvo que
se indique lo contrario, supondremos que hay dos participantes en la escena, que podr´ıan
ser dos robots o un robot que interact´ua con una persona.
2
2.1 Teor´ıa de juegos no cooperativos
Comenzamos considerando una situaci´on en la que hay dos competidores, que llamaremos
Dafne y Apolo. Deben elegir simult´aneamente sus decisiones, dependiendo las consecuen-
cias que reciben de las decisiones que ambos toman. Un ejemplo podr´ıa ser el de un robot
que juega con una persona a piedra-papel-tijera. La situaci´on queda descrita en la Figura
1.
Figure 1: Esquema que representa la toma de decisiones simult´anea.
Dafne escoge su alternativa del conjunto Dy Apolo, simult´aneamente, la escoge del conjunto
A. Apolo y Dafne se enfrentan a consecuencias aleatorias que dependen de sus decisiones.
Si suponemos que ambos decisores intentan maximizar su utilidad esperada, cuando Dafne
implementa dy Apolo implementa a, Dafne obtiene una utilidad esperada de
ψD(d, a) = ∫uD(a, d, ω)pD(ω|a, d)dω,
donde uDes su funci´on de utilidad y pDsu distribuci´on de probabilidad sobre la variable que
describe la incertidumbre sobre las consecuencias, dadas las acciones ayd. An´alogamente,
la utilidad esperada de Apolo ser´a
ψA(d, a) = ∫uA(a, d, ω)pA(ω|a, d)dω.
Suponiendo conocimiento com´un, v´ease por ejemplo Gibbons (1992), este problema
puede describirse mediante la tabla
3
a
d(ψD(d, a), ψA(d, a))
Para resolver el problema podemos utilizar el concepto de equilibrio de Nash. Un par de
estrategias (a∗, d∗) es un equilibrio de Nash si a∗es mejor respuesta frente a d∗y viceversa,
es decir, Apolo no dispone de ninguna acci´on diferente de a∗que le suponga obtener mayor
recompensa si Dafne realiza d∗, ocurriendo de forma an´aloga con la acci´on de Dafne respecto
de la de Apolo. Algebr´aicamente, se tiene
ψD(d∗, a∗)≥ψD(d, a∗),∀d∈ D,
ψA(d∗, a∗)≥ψA(d∗, a),∀a∈ A.
Frecuentemente, tendremos que calcular estrategias aleatorizadas para identificar los equi-
librios de Nash, v´ease Gibbons (1992).
Los equilibrios de Nash se extienden al caso de decisiones secuenciales, bajo condiciones
adecuadas. Adem´as, existen distintos refinamientos y extensiones como los equilibrios de
Bayes Nash. Todos ellos se extienden de forma casi inmediata al caso de m´as de dos
agentes. Sin embargo, no son suficientes, en general, para discernir en el caso en que hay
varios equilibrios de Nash.
2.2 Teor´ıa de juegos cooperativos
En ocasiones, consideramos escenarios en los que los miembros de la sociedad, en lugar de
competir, cooperan en cierto sentido para obtener una mejor soluci´on para el conjunto de
la misma, tal vez encapsulando un concepto de justicia. La aproximaci´on t´ıpica en este
caso es proponer una serie de axiomas de racionalidad individual y justicia o equidad para
el grupo y deducir cu´al es la soluci´on del problema.
La primera propuesta en esta direcci´on se debe a Nash (1953), con su equilibrio coop-
erativo. Para ello, se requiere que los participantes acepten que ambos quieren maximizar
su utilidad esperada, busquen soluciones no dominadas y acepten las propiedades de inde-
pendencia frente a alternativas irrelevantes, simetr´ıa e independencia frente a cambios de
4
escala. En tal caso, la sociedad, de nuevo compuesta por Dafne y Apolo, deber´ıa admitir
como soluci´on aqu´ella que resuelve el problema
max
a∈A,d∈D (ψD(a, d)−eD)(ψA(a, d)−eA),
donde (eD, eA) ser´ıa la soluci´on que recibir´ıan las partes de no alcanzar un acuerdo, el
denominado punto de desacuerdo. Una posibilidad ser´ıa utilizar el equilibrio de Nash
no cooperativo como tal desacuerdo. Existen otras muchas propuestas que incluyen la
de Kalai-Smorodinsky (1975) o la de incrementos equilibrados (R´ıos y R´ıos Insua, 2010).
Thomson (1994) realiza una buena revisi´on de esta literatura.
Los distintos conceptos se extienden de forma casi inmediata al caso en el que hay m´as
de dos agentes, siempre que no formen coaliciones que les puedan dar ventaja. Si ´este no
fuese el caso, debemos optar por otras aproximaciones basadas en conceptos como el n´ucleo
del juego y valores como el de Shapley (1953).
Obs´ervese que se nos plantea aqu´ı un problema de dise˜no puesto que deber´ıamos escoger
entre los distintos conceptos de soluci´on cooperativa disponibles.
2.3 Comportamiento en juegos
La teor´ıa de juegos aporta modelos que han tenido indudables ´exitos en el tratamiento
normativo del conflicto y la interacci´on en campos como la Econom´ıa, la Ciencia Pol´ıtica
o la Biolog´ıa, bajo condiciones de racionalidad perfecta y conocimiento com´un entre los
jugadores, v´ease p.ej. Gibbons (1992).
Sin embargo, no siempre se dan tales condiciones en la pr´actica, sugiriendo la necesidad
de probar en experimentos las predicciones de la teor´ıa de juegos, adoptando los m´etodos
de la econom´ıa experimental y del an´alisis de decisiones conductual. Este es el principal
objetivo de la teor´ıa de juegos experimental o conductual que intenta establecer c´omo las
personas y organizaciones reales act´uan en situaciones estrat´egicas, t´ıpicamente caracter-
izadas por limitaciones en el pensamiento y aprendizaje estrat´egico, v´ease e.g. Camerer
(2003).
Como ejemplo, Rogers et al. (2008) han combinado diferentes metodolog´ıas como la
teor´ıa de jerarqu´ıas cognitivas, que limita el pensamiento estrat´egico de los jugadores, y
5
la teor´ıa del equilibrio de respuesta cu´antica, que supone que cada jugador puede cometer
errores al calcular sus creencias. De este modo, explican mediante un modelo unificado por
qu´e el comportamiento de los jugadores se aleja tanto del punto de equilibrio en algunas
ocasiones y tan poco en otras.
De inter´es espec´ıfico para nuestra discusi´on son las cuestiones relativas a emociones,
toma de decisiones y comportamiento de grupo, que discutimos posteriormente y formar´ıan
parte de la emergente Neuroeconom´ıa, v´ease Glimcher et al (2008).
2.4 An´alisis de riesgos adversarios
En las aplicaciones que nos interesan de interacci´on entre robots y personas es discutible
que se d´en las condiciones de conocimiento com´un, salvo quiz´a en el caso de que existan
s´olo grupos homog´eneos de robots. Como alternativa a la teor´ıa de juegos no cooper-
ativos, podemos emplear la aproximaci´on del an´alisis de riesgos adversarios (ARA). En
ARA adoptamos la perspectiva de apoyar a uno de los participantes, p.ej., Dafne. Para
ello, necesitamos construir la distribuci´on pD(a), que representa sus creencias sobre las
decisiones implementadas por Apolo y resolver´a despu´es el problema de m´axima utilidad
esperada
max
dψD(d) = ∑
a
ψD(d, a)pD(a) = ∑
a[∫uD(a, d, ω)pD(ω|a, d)dω]pD(a).(1)
Para construir pD(a), debemos tener en cuenta el comportamiento estrat´egico de nuestro
adversario, teni´endose as´ı una similitud con el pensamiento de nivel-k, v´ease Stahl y Wilson
(1994, 1995). As´ı, decimos que
•Un Dafne de nivel 0 act´ua de forma aleatoria, seg´un cierta distribuci´on, no necesari-
amente uniforme.
•Un Dafne de nivel 1 escoge su alternativa de forma ´optima, maximizando su utilidad
esperada, pero supone que Apolo es de nivel 0, i.e. act´ua aleatoriamente.
•Un Dafne de nivel 2 supone que se enfrenta a un Apolo de nivel 1, que piensa sobre
lo que ella pretende hacer.
6
•Y as´ı, sucesivamente.
Se construye de esta manera una jerarqu´ıa de problemas de toma de decisiones que para
cuando no es posible pensar en un nivel superior, momento en el que se puede desplegar
una distribuci´on no informativa, v´ease R´ıos Insua et al. (2009) para m´as detalles. En
numerosos entornos experimentales, v´ease p.ej. Lee y Wolpert (2012), se ha comprobado
que el n´umero de niveles que se anticipa en nuestro pensamiento est´a entre 2 y 3, por lo
que querremos pensar hasta niveles 3 y 4, respectivamente.
Las ideas se extienden al caso en que Dafne se enfrenta a m´as de un adversario.
3 Escenarios para sociedades de robots
Aqu´ı nos referimos a las necesidades sociales de un agente rob´otico en su interacci´on con
otros agentes, que pueden ser humanos o rob´oticos. Podemos de hecho situar al robot en
diferentes escenarios que describimos a continuaci´on, junto con algunas pinceladas sobre
c´omo modelizar y resolver la correspondiente situaci´on.
En el primero de los escenarios, Figura 2, encontramos un agente que se enfrenta a varios
adversarios, que pueden ser agentes o usuarios. Como ejemplo, suponemos que nuestro
agente est´a apoyando a dos ni˜nos en sus tareas escolares diarias. El agente identifica
Figure 2: Un agente se enfrenta a varios adversarios.
con qu´e ni˜no est´a interactuando, para as´ı evaluar c´omo est´a trabajando y asignarle las
7
calificaciones y recomendaciones correspondientes.
Para dicho prop´osito, el agente ha de ser capaz de identificar el adversario al que se est´a
enfrentando y usar un modelo de predicci´on del comportamiento del adversario identificado.
Suponemos que el agente se enfrentar´a ´unicamente a un adversario en cada iteraci´on del
esquema descrito en la Figura 3, t´ıpico del ARA. En definitiva, utilizando un m´etodo de
Figure 3: Bucle del agente con reconocimiento del adversario.
identificaci´on de usuario, por ejemplo, basado en voz y/o visi´on, el agente tratar´a de adiv-
inar qui´en es el usuario/agente con el que est´a tratando, y as´ı adaptar su comportamiento
como corresponda. Para la identificaci´on del oponente pueden usarse diferentes algoritmos
revisados en Zhao et al. (2003). La diferencia entre enfrentarse a otro agente o a un usuario
estar´a en el conjunto de acciones disponibles a tener en cuenta en el correspondiente mod-
elo de predicci´on. Una vez identifcado el adversario, interpretado el estado e inferida la
acci´on del adversario, actualizar´ıamos el modelo de predicci´on (de respuesta del adversario
y reacci´on del entorno) y escoger´ıa el agente su siguiente acci´on, maximizando la utilidad
esperada predictiva, inici´andose una nueva etapa del proceso.
Describimos a continuaci´on dos escenarios competitivos en los que los agentes interac-
cionan con uno o m´as usuarios. En el primer caso, varios agentes compiten entre ellos para
ser seleccionados por los usuarios, como se ilustra en la Figura 4. Como ejemplo, podr´ıamos
considerar un caso en el que hay tres robots y dos ni˜nos en una misma escena. Los ni˜nos
quieren jugar a cierto juego y necesitan un jugador m´as. Todos los agentes quieren ju-
gar con los ni˜nos, puesto que, por ejemplo, el juego est´a entre sus principales objetivos
vitales, pero s´olo uno de ellos podr´a hacerlo. Los agentes rob´oticos competir´an para ser
elegidos como tercer jugador, siendo m´as simp´aticos o divertidos, seg´un se requiera para
8
Figure 4: Varios agentes compitiendo para satisfacer a varios usuarios.
ser seleccionado.
En el segundo caso, cada agente interacciona con su propio usuario formando un equipo.
Cada tandem agente-usuario competir´a contra los otros equipos. En este caso, el agente
interacciona con su propio usuario, apoy´andole en la toma de decisiones para competir
contra los otros equipos, v´ease la Figura 5. Como ejemplo, consideremos el caso en el que
Figure 5: Equipos agente-usuario compitiendo entre ellos.
hay tres equipos involucrados formados por parejas robot-ni˜no. Cada uno de los equipos
trabajar´a en las tareas escolares tratando de ser elegidos como favorito por el profesor y
conseguir la mejor nota. Cada agente aconsejar´a a su propio usuario para tomar una u otra
decisi´on, prediciendo qu´e har´an los otros equipos.
Ambos casos pueden resolverse mediante equilibrios de Nash o bajo el marco del ARA.
En el primer caso, es necesario que exista conocimiento com´un, entre agentes y usuarios.
9
Adem´as, debemos suponer que hay una tercera parte computerizada confiable (TPCC)
que se encarga de gestionar los conflictos, calculando los equilibrios de Nash cuando se
estime necesario. Esta tercera parte podr´ıa ser un ordenador externo o uno de los agentes
rob´oticos que puede adoptar el rol de TPCC. Trabajando en el marco ARA, no necesitamos
hacer las hip´otesis anteriores, puesto que s´olo aconsejamos a una de las partes, pero, por
conveniencia, podemos permitir que los agentes se comuniquen.
En el ´ultimo escenario, varios agentes desean comportarse de forma cooperativa hacia
uno o m´as usuarios. Como ejemplo, podemos considerar tres agentes rob´oticos que quieren
aconsejar a tres ni˜nos en sus tareas escolares. Los robots adoptan una actitud cooperativa,
por lo que buscar´an ayudar a los ni˜nos cooperando juntos para encontrar la mejor soluci´on
que satisfaga su objetivo com´un. Este modelo puede resolverse tanto con ARA, como con
Figure 6: Sociedad de agentes cooperativos.
conceptos de juegos cooperativos, si se dan las condiciones adecuadas de comunicaci´on entre
agentes.
4 El impacto de las emociones en la toma de deci-
siones de grupo
Como indicamos en R´ıos Insua et al (2012), las emociones no son s´olo ´utiles para la toma
de decisiones, sino que son parte integral de las mismas, de forma que un modelo realista
10
debe tenerlas en cuenta. Aqu´ı discutimos algunas cuestiones en relaci´on con emociones y
toma de decisiones por grupos.
Las emociones tambi´en est´an ´ıntimamente presentes en la teor´ıa de juegos, como se
detalla en Camerer (2003). Probablemente, el ejemplo m´as claro es el juego del ultim´atum,
Guth et al (1982), que incluye dos fases. En la primera, uno de los participantes hace
una oferta de reparto de una cantidad de dinero entre ´el mismo y el otro participante. En
la segunda fase, el otro participante decide si acepta o rechaza la oferta. Si la rechaza,
ninguna de las partes obtiene dinero; si la acepta, el dinero se reparte. Seg´un el principio
de m´axima utilidad esperada, si empleamos la ganancia econ´omica como objetivo ´unico,
el primer jugador deber´ıa ofrecer la menor cantidad posible y el segundo jugador deber´ıa
aceptarla. Sin embargo, se suelen rechazar ofertas injustas que ofrecen menos del 20% del
total. Por supuesto, si incluy´esemos otros criterios en la decisi´on, podr´ıamos resolver este
dilema. Sanfey et al. (2003) encontraron que las propuestas de ofertas injustas incrementan
la actividad cerebral en ´areas relacionadas tanto con la cognici´on como con las emociones
negativas, espec´ıficamente con el enfado y el disgusto.
El juego del dictador es una versi´on simplificada del juego del ultim´atum en el que el
primer jugador (el dictador) tiene todo el poder y el segundo jugador (el receptor) no tiene la
opci´on de rechazar la oferta. Incluso en este juego la proporci´on de cantidad dada al segundo
jugador llega a ser del 28%. El juego de confianza es un caso opuesto al juego del ultim´atum.
De nuevo, es un juego con dos participantes: el jugador confiante puede ceder parte de una
cantidad de dinero al segundo jugador, el confiado. Dicho dinero se multiplica y puede ser
devuelto por el jugador confiado al confiante. Seg´un la teor´ıa de juegos, el primer jugador,
no deber´ıa dar nada. Berg et al (1995) descubrieron que los jugadores confiantes env´ıan, en
media, m´as del 50 % del dinero. Concluyeron que la reciprocidad es un elemento b´asico en
el comportamiento social de las personas. Engle-Warnick y Slonim (2004) mostraron que,
en juegos repetidos, los jugadores m´as experimentados tienden a dar menos dinero cuando
las relaciones entre ambos jugadores est´an definidas que cuando no lo est´an. Delgado et
al (2005) estudiaron la actividad cerebral en los jugadores confiantes en relaci´on a c´omo
perciben a los jugadores confiados (bueno, malo o neutral). Descubrieron que los jugadores
confiantes realizan acciones m´as arriesgadas cuando se enfrentan a jugadores confiados
11
considerados como buenos. Igualmente, descubrieron que el aprendizaje de los jugadores
en juegos repetidos es m´as eficiente cuando se enfrentan a individuos neutrales.
Refiri´endonos a casos de pol´ıtica, v´ease Marcus y Mackuen (1993), es bien conocido
que los votantes pueden cambiar sus preferencias dependiendo de su estado de humor. As´ı,
la ansiedad y el miedo promueven un aumento del inter´es por la argumentaci´on pol´ıtica
motivado por la b´usqueda de soluciones a los problemas y la propia supervivencia. Ante la
nueva informaci´on que va surgiendo en cada momento, los votantes tienden a desafiar a los
candidatos. Por otro lado, el entusiasmo y la felicidad suelen motivar que los votantes sean
m´as estables y conformistas y los v´ınculos emocionales con los candidatos de su partido
habitual sean m´as fuertes.
Incluso las decisiones m´as serias pueden estar fuertemente influidas por las emociones.
Como ejemplo, McDermott (2004) sugiere que parte de la motivaci´on del presidente Bush
para comenzar la guerra en Irak ven´ıa del deseo de venganza debido a un intento anterior
de asesinato por Sadam Hussein hacia su padre.
5 Un modelo
Describimos aqu´ı brevemente un modelo para el comportamiento social y la toma de deci-
siones de un agente, partiendo del presentado en la Figura 3 que se centraba en un agente
sin necesidades sociales. El modelo adopta la perspectiva del an´alisis de riesgos adversarios
y por tanto intenta maximizar su utilidad esperada. La utilidad del agente ser´a multia-
tributo, con algunos atributos referidos al propio bienestar del agente y otros posiblemente
referidos al bienestar social o al bienestar de usuarios espec´ıficos. Los atributos ir´an pon-
derados y sus ponderaciones podr´an ir cambiando en funci´on del estado emocional del
agente. Cuanto m´as peso demos a los objetivos propios, el agente ser ms ego´ısta o menos
cooperativo; cuanto m´as se lo demos a objetivos sociales, el agente ser´a m´as altruista o
cooperativo.
El estado emocional del agente puede definirse a partir de emociones b´asicas, p.ej.
alegr´ıa, tristeza, esperanza o miedo. Para ellos debemos construir modelos que evolucionan
con los resultados que reciben los agentes, v´ease, por ejemplo, Gratch y Marsella (2004).
12
A partir de las emociones b´asicas se construye el estado emocional que influye sobre el
grado de competitividad o cooperatividad del agente. T´ıpicamente, esperamos que cuando
el estado emocional sea m´as positivo, el agente ser´a m´as cooperativo. A la inversa, cuando
el estado emocional sea m´as negativo, el agente ser´a m´as competitivo.
El agente incluye un sistema sensorial, como se describe en Rios Insua et al (2012),
que le permite recoger informaci´on de su entorno, incluyendo las personas y agentes que
est´an en el mismo, y las consecuencias de sus decisiones, a partir del cual deduce su estado
emocional. Adem´as, construye modelos de predicci´on de las decisiones de las personas y los
agentes, en funci´on de sus decisiones, y del entorno. En consecuencia, maximiza la utilidad
esperada e implementa la acci´on ´optima.
6 Aplicaciones
Conclu´ımos mencionando algunas aplicaciones posibles de estos agentes sociales. La primera
de ellos ser´ıa como asistente educativo ayudando a ni˜nos en sus tareas diarias tanto en la
escuela como en casa, facilitando la asimilaci´on de conocimientos a trav´es de ejercicios
entretenidos y pudiendo facilitar el trabajo cooperativo de forma local o distribuida. En
algunas escuelas se implementan ya de forma habitual esquemas de trabajo colaborativo
que pueden replicarse en casa a trav´es de Internet. Los agentes rob´oticos se a˜nadir´ıan a la
escena para hacer la cooperaci´on m´as amena y variada.
Otra posibilidad ser´ıa emplear los agentes como mascotas rob´oticas, que interaccionan
emocionalmente con ni˜nos, especialmente en casos con alg´un tipo de variante cognitiva,
como el autismo. Tal tipo de interacci´on emocional puede ser tambi´en relevante en tareas
de asistente para personas de la tercera edad, record´andoles qu´e medicaci´on tomar diaria-
mente, como agenda para recordar eventos importantes, haciendo uso del sistema emocional
y comport´andose de forma cari˜nosa con ellos.
Finalmente, los agentes podr´ıan emplearse como interfaces rob´oticos dom´esticos, que
accionen diferentes mecanismos a trav´es de las ´ordenes por voz del usuario, incluyendo
recomendadores sobre opciones de ocio.
13
7 Discusi´on
Hemos hecho una breve introducci´on a los aspectos de interacci´on social de la rob´otica
personal que, probablemente, supondr´a la nueva revoluci´on en las TIC, como previamente
lo han sido el PC, internet, los ordenadores port´atiles o los tel´efonos inteligentes. Tales
aspectos sociales permitir´ıan al agente rob´otico desempe˜narse frente a personas y otros
agentes. En esta interacci´on debe poderse comportar de formar competitiva y cooperativa,
pudiendo evolucionar de una actitud a otra en funci´on de sus necesidades, de las personas
y agentes presentes y del entorno en que tiene lugar la interacci´on. Adem´as, las emociones
pueden tener impacto tanto en la toma de decisiones del agente como en sus aspectos
sociales, y pueden hacer que mejoren los aspectos de interacci´on.
Agradecimientos
Trabajo apoyado por el proyecto INNPACTO HAUS. DRI agradece tambi´en el apoyo de
los proyectos RIESGOS del Ministerio de Econom´ıa y Competitividad y RIESGOS-CM de
la Consejer´ıa de Educaci´on de la Comunidad de Madrid.
Referencias
Berg, J., Dickhaut, J. y McCabe, K. (1995), Trust, reciprocity, and social history, Games
and Economic Behavior 10, 122-142
Breazeal, C., Hoffman, G. y Lockerd, A. (2004). Teaching and working with robots
as a collaboration. In Proceedings of the Third International Joint Conference on
Autonomous Agents and Multiagent Systems, 1030-1037.
Camerer, C. y Thaler, R. H. (1995), Ultimatums, dictators and manners, Journal of
Economic Perspectives 9, 209-219.
Camerer, C. (2003) Behavioral Game Theory: Experiments in Strategic Interaction, Prince-
ton University Press.
14
Delgado, M. R., Frank, R. H. y Phelps, E. A. (2005), Perceptions of moral character
modulate the neural systems of reward during the trust game, Nature Neuroscience
8, 1611-1618.
El-Nasr, M.S., Yen, J. y Ioerger, T.R. (2000). Flame: Fuzzy logic adaptive model of
emotions.Autonomous Agents and Multi-Agent Systems, 3(3), 219-257.
Engle-Warnick, J. y Slonim, R. L. (2004), The evolution of strategies in a repeated trust
game,Journal of Economic Behavior and Organization 55, 553-573.
Gerkey, B. y Mataric, M. (2004). A formal analysis and taxonomy of task allocation in
multi-robot systems.International Journal of Robotics Research, 23, 939-954.
Gibbons, R. (1992) Game Theory for Applied Economists, Princeton University Press.
Glimcher, P., Camerer, C., Fehr, E. y Poldrack, R. (2008) Neuroeconomics: Decision
making and the brain, Academic Press.
Gratch, J. y Marsella, S. (2004). A domain-independent framework for modeling emo-
tion.Journal of Cognitive Systems Research, 5, 269-306.
Gth, W., Schmittberger,R. y Schwarze, B. (1982). An Experimental Analysis of Ultima-
tum Bargaining. Journal of Economic Behavior and Organization, 3, 367388.
Kalai, E. y Smorodinsky, M. (1975). Other solutions to Nash bargaining problem.Econometrica,
43, 513-518.
Kirby, R., Forlizzi, J. y Simmons, R. (2010), Affective social robots,Robotics and Au-
tonomous Systems 58, 322-332.
Lee, R. y Wolpert, D. (2012) Game Theoretic Modeling of Pilot Behavior during Mid-Air
Encounters, en Karny, Guy, Wolpert (eds) Decision Making with Imperfect Decision
Makers, Springer Verlag.
Marcus, G. E. y Mackuen, M. B. (1993), Anxiety, enthusiasm, and the vote: The emotional
underpinnings of learning and involvement during presidential campaigns,American
Political Science Review 87, 672-685.
15
McDermott, R. (2004), The feeling of rationality: The meaning of neuroscientific advances
for political science,Perspectives on Politics 2, 691-706.
Nash, J. (1953). Two-person cooperative games.Econometrica, 21, 128-140.
Rogers, B., Palfrey, T. y Camerer, C.F. (2009). Heterogeneous quantal response equilib-
rium and cognitive hierarchies. Journal of Economic Theory, 144, 1440-1467.
R´ıos Insua, D., J. R´ıos y D. Banks (2009) Adversarial risk analysis, Journal of the Amer-
ican Statistical Association, 104, 841-854.
R´ıos J. y R´ıos Insua, D. (2010) Balanced increment and concession methods for negotiation
support, RACSAM, 104, 41-56.
R´ıos Insua, D., Ruggeri, F. y Wiper, M. (2012) Bayesian Analysis of Stochastic Process
Models, Wiley.
Sanfey, A. G., Rilling, J. K., Aronson, J. A., Nystrom, L. E. y Cohen, J. D. (2003).
The neural basis of economic decision-making in the ultimatum game,Science 300,
1755-1758.
Service, T. y Adams, J. (2011). Coalition formation for task allocation: theory and
algorithms.Autonomous Agents and Multi-Agent Systems, 22, 225-248.
Shapley, L. (1953). A value for n-person games. In Contributions to the Theory of Games,
volume II, by H.W. Kuhn and A.W. Tucker, editors.Annals of Mathematical Studies,
28, 307-317.
Stahl, D.O. y Wilson, P.W. (1994). Experimental evidence on players’ models of other
players,Economic Behaviour and Organization, 25, 309-327
Stahl, D.O. y Wilson, P.W. (1995) On player’s models of the players: Theory and exper-
imental evidence,Games and Economic Behavior, 10, 218-254
Thomson, W. (1994). Cooperative models of bargaining. In Elsevier (eds.), Handbook of
Game Theory with Economic Applications, 1237 - 1284
16
Zhang, X. y Lesser, V. (2007). Meta-level coordination for solving negotiation chains in
semi-cooperative multi-agent systems.In Proceedings of AAMAS.
Zhao, W., Chellappa, R., Phillips, P.J. y Rosenfeld, A. (2003). Face recognition: A
literature survey. ACM Comput. Surv., 35, 399-458.
17