You are on page 1of 5

Inclusión de Emociones en Agentes Inteligentes

Eduard Moya
Licenciatura en Computación
Facultad Experimental de Ciencias
Universidad del Zulia

Un Agente Inteligente (AI), por definición, es una entidad capaz de percibir


el estado de su entorno, procesar estas percepciones sensoriales y emitir una
respuesta correcta tendiendo a maximizar un resultado esperado, es decir, emiten
una respuesta racional, esto es, porque se espera que cumplan con una finalidad.

Siendo los AI (en teoría) una solución óptima para la resolución de


problemas, debemos preguntarnos, aparte del aporte de Doyle (1991) quien dijo:
“La inteligencia artificial es la disciplina dedicada a entender a los seres
inteligentes a través de la construcción de sistemas inteligentes”, ¿Por qué la
necesidad de proveerle de emociones a un agente?

Recientemente fue introducido el término “inteligencia emocional” como


tema de investigación de las áreas de la psicología y la inteligencia artificial. Este
define el tan importante rol que las emociones desempeñan en el proceso humano
de toma de decisiones, y por consiguiente el papel que juegan en la inteligencia
humana.

Como todos sabemos, en lo que a resolución de problemas se refiere,


existen muchas maneras de pensar y representar dichos problemas y por lo tanto
son muchas las posibilidades de encontrar una solución, unas de manera más
eficiente y con mejores resultados que otras. Algunos autores, definen las
emociones que influencian la deliberación y razonamiento practico de un agente
como heurísticas que previenen la deliberación excesiva.

Definiendo las emociones

Las emociones son procesos relacionados con la arquitectura de la mente,


es decir, la toma de decisiones, memoria, percepción y relaciones de la realidad o
la imaginación. Permitiendo una abstracción de la realidad actual, en el cual se da
solución a necesidades, deseos o preferencias, en el proceso, valorará la lista de
las posibles conclusiones o hechos que piensa que van a suceder, realizando una
búsqueda en su memoria de experiencias iguales o parecidas.

El modelo OCC (Ortony, Clore, & Collins - 1988) ha sido usado en un gran
número de estudios para la generación de emociones para sus personajes
corpóreos (embodied characters), posee 22 emociones y su popularidad viene
dada por la correspondencia entre los “objetos” de estas emociones (objetos,
acciones y eventos) y las nociones comunes de los agentes inteligentes (agentes,
planes, y ejecución de metas, respectivamente), sin embargo, aun este modelo tan
popular en las ciencias de la computación, puede no ser considerado como
realmente “preciso” en cuanto a la formalización de la estructura que conforman el
sistema emocional, algunos autores señalan que este modelo esta realizado
desde el punto de vista de psicólogos que tratan de poner reglas base para el
desarrollo de modelos computacionales, y por lo tanto, visto desde el punto de
vista de científicos en áreas de la computación y de la lógica, pueden encontrarse
ciertas ambigüedades en cuanto a la relación entre las especificaciones del tipo
emocional y la estructura lógica del agente, y como podemos deducir, para un
diseño optimo es necesario un modelo libre de ambigüedades.

Las emociones tienen su base en experiencias previas, y están definidas


por el nivel de apreciación que tiene un agente hacia un objeto del entorno, debido
a esto, no se debe establecer un estado emocional único para el agente, como por
ejemplo: “el agente está completamente feliz”, se deben plasmar relaciones con
objetos de manera individual, así el agente puede sentirse contento con un objeto
y molesto con otro. Las experiencias previas ayudan al agente a aprender, por así
decirlo, y reducir de esta manera, el experimentar la emoción del miedo, que
genera incertidumbre, y lleva a un agente a asumir posibles falsos negativos. Un
agente con poca incertidumbre es un agente más seguro de sus decisiones,
además de esto, la memoria ayuda a relacionar eventos similares y así también
reforzar las decisiones tomadas al conocer un resultado esperado.

Existen varios factores que dificultan la implementación de emociones de


manera computacional, el problema principal es que no existe una definición clara
de lo que son las emociones.

“Existen por lo menos 92 definiciones distintas” (Kleinginna & Kleinginna 1981)

Ejemplos de estas definiciones:

- LeDoux (1994): “Las emociones son […] estados conscientes”.


- Damasio (1994): […] designa una colección de respuestas disparadas
desde partes del cerebro al cuerpo, y de partes del cerebro a otras partes
del cerebro.

Lo que LeDoux llama emociones, es lo que Damasio llama sentimientos.

Otro inconveniente es, la representación o interpretación de eventos u


objetos, ¿Cómo imagina un agente una parte de la realidad? Por ejemplo:
después de dejar una habitación… ¿Cómo la recuerda?, no son muchas las
personas que recordarían cada detalle, algunas olvidarían unos de estos (de
manera involuntaria, por supuesto), cada persona tiene su propia representación
de la realidad, es un aspecto de aleatoriedad que hace a cada persona “única”,
por así decirlo.
Como ha sido expuesto hasta ahora, hay ventajas y desventajas para la
implementación de emociones en agentes inteligentes, pero ¿son estas las
razones para su uso? “Las emociones en agentes introducen nuevas metas
urgentes o alteran las prioridades de metas ya existentes” ese simple hecho puede
resultar atractivo para los investigadores, el poder incorporar el “aspecto de
aleatoriedad” del pensamiento humano en una maquina o pieza de software, y así
poder representar de manera lógica, con variables y valores palpables los
complejos procesos neuroquímicos que llevan al razonamiento humano, no solo
en cuanto a la toma de decisiones en general, sino también en cuanto a su
interacción con el ambiente en el que se desarrolla, interacción con otros agentes,
interacción humano-agente, y para modelar y simular la conducta humana para la
toma de decisiones en grupo y, para discutir y poner en práctica el proceso de
contagio emocional, donde las emociones de un agente afectan a aquellos
quienes sienten afecto o aversión. El termino Contagio Emocional o Emotional
Contagion fue introducido por los psicólogos Elaine Hatfield y John Cacioppo,
junto con el historiador Richard Rapson, quienes en su obra de 1994 con este
mismo nombre (Emotional Contagion) afirman que el mimetismo sirve también
para contagiar emociones.

“Si sonrío y otra persona me ve y me devuelve la sonrisa (aunque sea una


mini sonrisa que no dure más que unas milésimas de segundo) no será solo que
esa persona me ha imitado o ha empatizado conmigo; puede ser también que yo
le haya transmitido mi alegría”.

Los agentes inteligentes a quienes se les atribuye emociones, son llamados


Agentes Emocionales (por muchos). Su utilidad o falta de ella, como muchas de
las características de dichos agentes, son subjetivos y apreciativos, es decir,
dependen de las metas de sus creadores y en los propósitos individuales para los
que son creados cada agente. Queda claro que no tendremos agentes realmente
emocionales hasta que no se obtenga una definición clara de lo que son las
emociones, después de esto, establecer un modelo de síntesis de emociones libre
de ambigüedades, y establecer un modelo de manifestación de comportamiento
en el caso de mezcla de emociones y sus variaciones según el orden en el que
ocurren, es decir, como debe comportarse el agente ante emociones opuestas
hacia un mismo objeto (generalmente otro agente), veamos unos ejemplos:

1. Un agente cumple uno de sus objetivos, pero al hacerlo, evita que otro
cumpla el suyo, el segundo agente estará molesto con el primero debido
a esto.
2. Un agente cumple uno de sus objetivos, y al hacerlo, ayuda a otro a
cumplir el suyo, el segundo agente estará contento con el primero
debido a esto.
3. En los casos anteriores, los agentes no tenían una apreciación previa
del segundo agente, pero digamos que uno de estos siente de
antemano cierto desprecio hacia otro, si el segundo agente ayuda al
primero a cumplir un objetivo, entonces lo más probable es que el
primero se sienta contento con el otro, pero quizás no del todo, es decir,
comparando acciones presentes con las previas, el agente tendrá una
sensación de duda, y hacia el segundo agente solo sentirá
incertidumbre.

Finalmente, se debe tomar en cuenta la inclusión de reglas para las


relaciones y dependencias de los procesos cognitivos con respecto a las
emociones, en otras palabras, los agentes deben poder controlar sus acciones
para mantenerse como “seres” racionales si la situación lo amerita, pues si
desarrollamos agentes emocionales para simular el comportamiento humano bajo
situaciones de alto estrés y no para agilizar la toma de decisiones se puede
prescindir de la “racionalidad”.

“Why don’t we just build an embodied agent, able to have emotions and to
react to those? This is not so hard” (Castelfranchi, 2003).
Referencias

- John-Jules Ch. Meyer, Bas R. Steunebrink, Mehdi Dastani. A Logic of Emotions


for Intelligent Agents

- Kenji Suzuki, Antonio Camurri, Pasqualino Ferrentino y Shuji Hashimoto.


Intelligent Agent System for Human-Robot Interaction through Artificial
Emotion.
http://www.iit.tsukuba.ac.jp/~kenji/pdf/SMC98.pdf

- Goreti Marreiros, Carlos Ramos y José Neves. Emotion and Group Decision
Making in Artificial Intelligence.
http://bridge.gecad.isep.ipp.pt/report0307/Papers/AIDSPublications/Emotion%20an
d%20Group%20Decision%20Making%20in%20Artificial%20Intelligence_f.pdf

- Peter-Paul van Maanen. Emotion in Intelligent Agents.


http://www.few.vu.nl/~pp/public/presentatie.pdf

- Christoph Bartneck. Integrating the OCC Model of Emotions in Embodied


Characters.
http://www.vhml.org/workshops/HF2002/papers/bartneck/bartneck.pdf

- Bas R. Steunebrink, Mehdi Dastani y John-Jules Ch. Meyer. The OCC Model
Revisited.
http://www.idsia.ch/~steunebrink/Publications/KI09_OCC_revisited.pdf

- Iliana Y. Rodríguez. La Resolucion de Problemas y el Pensamiento


Matematico Divergente.

http://www.revistaciencias.com/publicaciones/EEVuuyykFFwruSpUOD.php

- http://es.wikipedia.org/wiki/Imaginación

- http://es.wikipedia.org/wiki/Emoción

- http://es.wikipedia.org/wiki/Heurística_(informática)

- http://es.wikipedia.org/wiki/Heurística

- http://es.wikipedia.org/wiki/Agente_inteligente_(inteligencia_artificial)

- http://todas-las-emociones.blogspot.com/2009/08/contagio-emocional.html

You might also like