Professional Documents
Culture Documents
Entre 1984 y 1985, surgieron los primeros problemas con el razonamiento simbólico, estos
impulsaron al desarrollo de los primeros agentes reactivos; y es hasta 1990 cuando comienzan
a aparecer algunas arquitecturas híbridas estratificadas por capas, que simulan los primeros
agentes inteligentes. (Antoine, 2003). General Magic en 1990 fue la primera compañía en
invertir en tecnología de agentes para construir un sistema basado en agentes para dispositivos
portátiles. Fue llamada “Telscrip” y lo utilizó Motorola y AT&T. (Lawton, 1996). Más tarde
Telscrib evoluciona en “Tabriz AgentWare”, que desarrolló para trabajo en servidores en
Internet.
Lo que se pretendía con la tecnología de agentes era lograr un gran parecido con la actividad
humana y una gran capacidad de raciocinio, por lo que, en 1995, con Windows 95 y las interfaces
gráficas, nace Microsoft Agent, una tecnología capaz de emplear personajes animados, y
software de reconocimiento de voz para mejorar la interacción con los usuarios de
computadoras.
¿QUÉ ES UN AGENTE?
Todas las fuentes de información accesibles en una red pueden ser vigiladas por un agente
inteligente: archivos, páginas web, bases de datos, foros, newsletters, etc.
DIFERENCIA ENTRE AGENTES INTELIGENTES Y SOFTWARE CONVENCIONAL
Hay dos principales características que distinguen a los agentes inteligentes del desarrollo de
software tradicional y estas son la inteligencia y la agencia.
Pro-activo, a su vez el agente debe ser capaz de intentar cumplir sus propios planes u objetivos.
Social, debe de poder comunicarse con otros agentes mediante algún tipo de lenguaje de
comunicación de agentes.
Racionalidad: el agente siempre realiza «lo correcto» a partir de los datos que percibe del
entorno.
Adaptabilidad: está relacionado con el aprendizaje que un agente es capaz de realizar y si puede
cambiar su comportamiento basándose en ese aprendizaje.
Benevolencia: asunción de que un agente está dispuesto a ayudar a otras gentes si esto no entra
en conflicto con sus propios objetivos.
FUNCIONES BÁSICAS DE LA TECNOLOGÍA DE AGENTES
Ejecución de Tareas: La capacidad de realizar tareas son las destrezas que el agente posee para
lograr sus objetivos.
Agente Interfaz: Es un software cuasi-inteligente que asiste a un usuario cuando interactúa con
una o más aplicaciones.
En los agentes de interfaz pueden encontrarse subdivisiones debido a diferentes tareas para las
cuales son construidos. Las más comunes son:
Para resolver problemas que son muy grandes para un agente centralizado.
Para permitir la interconexión e interoperabilidad de sistemas de IA existentes como
sistemas expertos, sistemas de soporte de decisión etc.
Solucionar problemas que son inherentemente distribuidos.
Proporcionar soluciones que simulen recursos de información distribuidos.
Incrementar la modularidad, velocidad, confiabilidad, flexibilidad y reutilización en
sistemas de información.
Agentes Móviles: Son procesos capaces de “viajar” por una red de computadoras, interactuando
con hosts externos, recolectando información en nombre de su dueño y retornando a “casa”
luego de completar las tareas establecidas.
Agente Hibrido: Está formado por una parte reactiva y otra deliberativa, estructuradas en capas
con diferentes niveles de abstracción.
Agentes Reactivos: Representan una categoría especial de agentes que no poseen modelos
simbólicos de su entorno; en su lugar actúan y responden a los estímulos que presenta el estado
actual del entorno en el que están embebidos.
HISTORIA
1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver
el mundo de la computación. Sin embargo, los primeros teóricos que concibieron
los fundamentos de la computación neuronal fueron Warren McCulloch, un
neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una
teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la
Inminente Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica). Ellos
modelaron una red neuronal simple mediante circuitos eléctricos.
1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje
(que es el elemento básico de la inteligencia humana) desde un punto de vista
psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy,
este es el fundamento de la mayoría de las funciones de aprendizaje que pueden
hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando
ciertos cambios en una neurona eran activados. También intentó encontrar
semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb
formaron las bases de la Teoría de las Redes Neuronales.
1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
técnicas (memoria asociativa).
Una red neuronal debe aprender a calcular la salida correcta para cada
constelación (arreglo o vector) de entrada en el conjunto de ejemplos. Este
proceso de aprendizaje se denomina: proceso de entrenamiento o
acondicionamiento. El conjunto de datos (o conjunto de ejemplos) sobre el cual
este proceso se basa es, por ende, llamado: conjunto de datos de
entrenamiento.