You are on page 1of 7

FACULTAD: INGENIERIA

ESCUELA: INGENIERIA DE SISTEMAS

CURSO: INTELIGENCIA ARTIFICIAL

DOCENTE: ING. CASTRO CURAY JOSE


ALBERTO

ALUMNO: CERCADO MORI DARWIN


LUIS

CICLO: 2018 – II

AÑO 2018
DIFERENCIA ENTRE INTELIGENCIA ARTIFICIALCOMO CIENCIA E INTELIGENCIA ARTIFICLA COMO
INGENIERIA
IA COMO CIENCIA IA COMO INGENIERIA
 La Metodología de Trabajo  Esfuerzo en construir maquinas
revoluciono. inteligentes.
 Contribuye a un mayor entendimiento  Un programa de computador ayuda
del conocimiento humano. a solucionar.
 No disponen de los datos necesarios  Ingeniería Mecaniza y Electrónica.
ni posiblemente de las matemáticas.  Utiliza un experto humano para
 Ciencia de la Computación. resolver las tareas.
 Incapacidad de diferenciar entre los  Manejado por el humano a su
humana del ordenador. antojo y disposición.
 Brinda a la biología y la psicología de  Utilizan la energía para brindar
ciencia experimental. símbolos formales y físicos.

I. Aspecto conceptual de la inteligencia artificial y la ingeniería del conocimiento

1.1. Introducción:

Actualmente e acepta. Con alto de consenso entre los profesionales del campo de la
computación, el propósito principal de la IA es desarrollar:

 Modelos conceptuales
 Procedimientos de reescritura formal de esos modelos
 Estrategias de programación y maquinas físicas.

La IA tienes cuatro grandes objetivos que son: Modela, formalizar, programar e


implementar maquinas soporte capas de interactuar de forma no trivial con el medio.
Por eso el conjunto de tareas y métodos propios de la IA son todas aquellas y aquellos
para los que en la actualidad sólo disponemos de descripciones poco claras,
incompletas, imprecisas y con alto grado de dudas y errores potenciales, debidos a su
complejidad.

La gran hipótesis de la IA fue que en un número corto de años (10, 20, 30, 40, ahora ya
50) iba a ser posible sintetizar los procesos cognitivos y conseguir “inteligencia general
en máquinas”. No estamos de acuerdo primero por la propia naturaleza general y
abstracta de la palabra inteligencia que se usa para describir una medida global de la
calidad de todos los procesos cognitivos de un ser vivo y de su capacidad de adaptación
a los cambios del medio en el que existen otros seres vivos de complejidad comparable.

En nuestra opinión los objetivos iniciales de la IA fueron excesivos porque se ignoraron:

1. El carácter general y precientífico del término


2. Los enormes diferencias constitutivas entre el “conocer humano” y el
conocimiento que los humanos hemos sido capaces de hacer residir en una
máquina de cristal de silicio semiconductor.
La ignorancia del primero de estos puntos nos ha llevado a perseguir un objetivo
excesivo y mal definido.

La A y los resultados alcanzados por la IC. Esta distinción entre la perspectiva científica
de la IA y la aplicada nos da pie a una serie de recomendaciones que creemos que
pueden ayudar al avance de ambas.

1.2 La IA como Ciencia y como IC


Aunque lo usual en IA e IC es mezclar conceptos cognitivos y del lenguaje natural (intención,
propósito, ontología, semántica, emoción, memoria, aprendizaje,...) con otros computacionales
(modelos, inferencias, roles, entidades abstractas y operadores lógico - matemáticos, tablas,
autómatas, programas,...) suponiendo que estos conceptos tienen el mismo significado y las
mismas funcionalidades en computación que en humanos, lo cierto es que no es así. Urge
entonces ayudar al lector a distinguir entre los objetivos de la IA como ciencia e IA como
ingeniería (IC) para que sepa de qué hablamos cuando usamos estos conceptos (cuál es su
referente) y evitar así los equívocos asociados a suponer que la semántica y la causalidad del
lenguaje natural y la neurofisiología son equivalentes a la semántica y la causalidad de un
lenguaje formal y del hardware que lo soporta. Prácticamente, todo el lenguaje de la IA y la IC
ha sido tomado de la biología en general y de la neurofisiología, la psicología cognitiva y la
filosofía en particular, y esto no está mal siempre que no se olvide la diferencia de significados
porque estimula el proceso de búsqueda de soluciones.

1.2.1 IA como Ciencia

Entendida como ciencia la tarea de IA es una tarea de análisis. Su fenomenología


engloba el conjunto de hechos asociados a la neurología y la cognición, desde los niveles
subcelular y neuronal a los mecanismos y organizaciones superpuestas de las que
emergen las funciones globales de percepción, memoria, lenguaje, decisión, emoción y
acción que han dado lugar a lo que llamamos comportamiento inteligente en humanos.
La perspectiva científica de la IA busca una teoría computable del conocimiento
humano. Es decir, una teoría en la que sus modelos formales puedan ejecutarse en un
sistema de cálculo y tener el mismo carácter predictivo que tienen, por ejemplo, las
ecuaciones de Maxwell en el electromagnetismo. Dotar a la biología y a la psicología del
carácter de ciencia experimental que tiene la física es un objetivo deseable pero de difícil
consecución. La labor que creemos que debe de realizar en esta tarea la computación
en general y la IA en particular es dotar de herramientas conceptuales y formales a la
Neurofisiología y la Ciencia Cognitiva. Es decir, potenciar la “Neurociencia
Computacional” y todos los procedimientos experimentales de estimulación,
clasificación, e interpretación y predicción de resultados. Siempre ha habido un fuerte
debate asociado a las relaciones entre la IA y la cognición con las analogías clásicas
mente - programa, cerebro - hardware, y las consiguientes posturas a favor y en contra
de la equivalencia entre pensar y computar. Aquí no vamos a entrar en estos temas,
porque sólo nos interesa distinguir entre los objetivos científicos y los aplicados de la IA
para contribuir a aclarar dónde están los problemas reales en el segundo caso, en la IC.

1.2.2 IA como Ingeniería


La rama aplicada de la IA, conocida como Ingeniería del Conocimiento, tiene unos
objetivos más claros y alcanzables a corto y medio plazo. La primera es que, como
alternativa a la materia y a la energía, el nuevo objeto formal de la IC es el conocimiento
y éste, como la información, es pura forma.

En la mayoría de los desarrollos de la IC llamados Sistemas Basados en el Conocimiento


(SBCs).

Se parte de una descripción en lenguaje natural de las interacciones de un humano con


el entorno en el que se desarrolla la tarea que queremos sintetizar. (2) Después se
modela esta descripción usando diferentes metamodelos a los que llamamos
paradigmas (simbólico o representacional, conexionista o situado). Cada una de estas
formas de modelado conceptual es esencialmente un procedimiento de descomposición
de la tarea en subtareas hasta llegar al nivel de inferencias primitivas que son aquellas
componentes del razonamiento que ya no necesitan una descomposición posterior ( “
seleccionar ”, “ comparar ”, ... ) porque ya se pueden implementar usando sólo
conocimiento del dominio. Hay dos tipos esenciales de conocimiento (situado y no
situado), función de la naturaleza de la interfaz necesaria para acoplar un sistema de IA
con su medio. Alternativamente, el conocimiento no situado está asociado a aquellas
otras situaciones en las que la interfaz entre el sistema de IA y el medio es humana, por
lo que no hay que preocuparse de sensores ni de efectores. Para aquellas tareas en las
que el interfaz es físico y no humano (sensores y efectores de un robot concreto), es
imprescindible implementar también el conocimiento asociado al “cuerpo” soporte del
cálculo.
1.3 Perspectiva histórica: fundamentos y metodología
• A Logical Calculus of the Ideas Immanent in Nervous Activity. [ McCulloch y Pitts, 1943
]. • The Nature of Explanation. • Behavior, Purpose and Teleology. [Rosenblueth y otros,
1943; Wiener, 1947]. Turing en 1950 complementa los fundamentos del paradigma
simbólico al proponer un procedimiento experimental de medir la inteligencia contenida
en un “programa de IA” (lo que hoy conocemos como “test de Turing”). Tras estos
antecedentes cibernéticos, en 1956 se acuña el término IA y se abandona el
conexionismo y el interés por el análisis del comportamiento y de los mecanismos
soporte y se hace énfasis en el paradigma simbólico, que parte de descripciones de alto
nivel para intentar dotar de inteligencia a un programa, que siempre se supone que va
a tener un usuario humano, por lo que no hay que preocuparse del cuerpo del “ agente
” soporte del cálculo, ni de los “ detalles ” del sistema conexionista que se encarga de
ejecutar ese programa. El optimismo inicial de la IA estuvo basado en limitar su dominio
de interés a los micro mundos formales (“mundo de los bloques”) y a los sistemas
capaces de ser descritos de forma completa con métodos lógicos, mediante
procedimientos generales de búsqueda heurística, análisis medios - fines y
“solucionadores generales de problemas”. En la década de los setenta se inicia la
explosión de aplicaciones de la IA en términos de sistemas basados en reglas a los que
se les llama primero “Sistemas Expertos” y después “Sistemas Basados en
Conocimiento”.

1.4 Paradigmas actuales en IA


Entendemos el concepto de paradigma en el sentido de Kuhn [Kuhn, 1971 ], como una
aproximación metodológica a la IA y a la IC que ha sido consensuada entre un amplio grupo de
profesionales del campo que la consideran como la forma normal de hacer ciencia o ingeniería.
Este consenso en un paradigma concreto supone que se está de acuerdo sobre cuáles son los
objetivos y la forma de alcanzarlos. Por consiguiente, cada paradigma en IC es en esencia una
forma de modelar, formalizar, programar e implementar conocimiento, junto con la hipótesis
de partida acerca de qué entendemos por conocimiento. Es usual distinguir cuatro paradigmas
básicos:
1. Simbólico o representacional.
2. Situado o reactivo.
3. Conexionista.
4. Híbrido.
1.4.1 El paradigma simbólico
En el caso del paradigma simbólico, llamado también representacional, se considera que todo
el conocimiento necesario para resolver una tarea de diagnóstico, planificación, control o
aprendizaje, por ejemplo, puede representarse usando descripciones declarativas y explícitas en
lenguaje natural formadas por un conjunto de “conceptos”, los hechos, y otro conjunto de reglas
de inferencia que describen las relaciones estáticas y dinámicas conocidas entre esos hechos. Lo
mismo pasa con el rol de “observable” o “hipótesis diagnóstica” en una determinada inferencia
(“abstraer”). Es decir, la estructura interna de las reglas que operacionalizan una inferencia
definen el rol que van a cumplir las entidades de un dominio de aplicación que actúen como
entradas o salidas de esa inferencia.
1.4.2 El paradigma situado
Esta aproximación ascendente al problema de la IC tiene sus raíces en la cibernética (
recordemos que el título de la obra de W.S. McCulloch es “ Embodiments of Mind ” [ McCulloch,
1965 ] ) y ha sido promovida en la IA en la década de los 90 por investigadores procedentes del
campo de la robótica [ Arkin, 1998 ; Brooks, 1991 ; Murphy, 2002 ], la psicología [ Clancey, 1997,
1999 ] y la biología [ Varela, 1979, 2002 ]. Los nombres de Brooks, Clancey y Varela son
representativos de esta aproximación. El esquema de la Figura 1.7 resume la arquitectura
reactiva más elemental. Finalmente, la función de decisión del agente (la inferencia y su control)
es esencialmente un esquema de asociación (una tabla) o un autómata finito que, ante cada
configuración de percepciones activadas y cada estado interno dispara la configuración de
acciones correspondientes. Es decir, el paradigma reactivo sustituye la representación de la
parte de condición de las reglas inferenciales por esquemas precalculados y sustituye el proceso
inferencial en reglas y marcos por su autómata de control. La Tabla 1.1 muestra la equivalencia
entre las nomenclaturas en ambos paradigmas.
1.4.3 El paradigma conexionista
En el paradigma conexionista (las llamadas redes de neuronas artificiales, RNAs), el problema de
la representación del conocimiento se realiza mediante el uso de líneas numéricas etiquetadas
para la entrada y salida de la red y el problema de la inferencia se resuelve mediante un
clasificador numérico de naturaleza paramétrica en el que el valor de esos parámetros se ajusta
mediante un algoritmo de aprendizaje supervisado o no supervisado [Mira y Delgado, 1995a,
2002]. Las características distintivas de esta forma de modelar conocimiento, operacionalizarlo
y programarlo son las siguientes : Todos los problemas resueltos con RNAs tienen las
características de un clasificador numérico adaptivo que asocia los valores de un conjunto de
observables ( representados mediante líneas numéricas etiquetadas ) con los valores de otro
conjunto más reducido de clases, representadas también por las salidas de las neuronas de la
última capa que, a su vez, son también líneas numéricas etiquetadas. Una parte importante del
conocimiento disponible se corresponde con la fase de análisis de los datos, en la que somos
nosotros quienes decidimos cuáles van a ser las variables de entrada y salida, qué tipo de cálculo
local es el más adecuado, cuál es el número de capas y unidades por capa más adecuado, cómo
se deben inicializar los pesos, etc. La Figura 1.8 muestra la arquitectura básica del modelado
conexionista que corresponde a un grafo paralelo y dirigido en el que los nodos están ocupados
por las neuronas y los arcos por los pesos ajustables.
1.4.4 El paradigma híbrido
En el paradigma conexionista (las llamadas redes de neuronas artificiales, RNAs), el problema de
la representación del conocimiento se realiza mediante el uso de líneas numéricas etiquetadas
para la entrada y salida de la red y el problema de la inferencia se resuelve mediante un
clasificador numérico de naturaleza paramétrica en el que el valor de esos parámetros se ajusta
mediante un algoritmo de aprendizaje supervisado o no supervisado [Mira y Delgado, 1995a,
2002]. La arquitectura de un agente conexionista es modular, organizada en capas, con gran
número de procesadores elementales ( “ neuronas ” ) fuertemente interconectados, que
evalúan una sencilla función de cálculo local, en general la suma ponderada seguida de una
sigmoide o cualquier otra función de decisión no lineal que acota el rango dinámico de la
respuesta de cada unidad. La Figura 1.8 muestra la arquitectura básica del modelado
conexionista que corresponde a un grafo paralelo y dirigido en el que los nodos están ocupados
por las neuronas y los arcos por los pesos ajustables. Podemos mencionar varios ejemplos
clásicos: las redes de inhibición lateral, los arcos reflejos, los circuitos de habituación y
sensitización y los generadores de patrones de respuesta, donde la conectividad específica, los
lazos de realimentación y el carácter excitador o inhibidor de cada contacto sináptico son
determinantes en la función que calcula la red.
1.5 El conocer humano y el conocer de las máquinas
Comenzábamos este capítulo de aproximación conceptual a la IA y la IC recordando la disparidad
existente entre los excesivos objetivos iniciales de la IA (“sintetizar inteligencia general en
máquinas”) y los resultados obtenidos por la IC tras medio siglo de trabajo científico y técnico.
Esta primera reflexión nos ha llevado a separar los objetivos y los métodos propios de la IA
considerada como ciencia, de los objetivos y métodos de la IC. El resto del capítulo se ha
dedicado a resumir la evolución histórica de la IA y la IC hasta llegar a los cuatro paradigmas que
caracterizan el estado actual del conocimiento en cuanto a aproximaciones metodológicas se
refiere. La inteligencia está situada en un cuerpo y esa físicalidad del sistema no puede eludirse.
Por eso la IA sólo puede pretender cubrir la dimensión formal del pensamiento, la parte
computable de la percepción, la acción y el razonamiento en humanos. Es tan evidente que la
naturaleza humana es distinta de la naturaleza del computador y del robot que casi parece
innecesario el análisis comparativo. En cada nivel y en cada dominio el conocimiento acomodado
en el mismo depende de la fenomenología que sus elementos constituyentes generan al operar.
El cuerpo del computador es de cristal semiconductor, con arquitectura fija, estática y con
semántica impuesta. El soporte neurofisiológico del comportamiento inteligente es autónomo,
autopoyético, dinámico y adaptivo. Su semántica es emergente y su arquitectura siempre está
inacabada y, por consiguiente, finalmente es única e irrepetible para cada ser vivo y en cada
instante de su existencia. Su descripción más completa es la propuesta por Newell y Simon en
su “Physical Symbol System Hypothesis” [Newell y Simon, 1976]. Por el contrario, el símbolo
neurofisiológico es dinámico y está asociado a los mecanismos que lo generan e interpretan
[Mira, 2005b; Mira y Delgado, 2006].
1.6 Algunas sugerencias
Para contribuir a disminuir la disparidad entre objetivos y resultados en IA e IC y hacerlas ambas
más robustas, presentamos de forma resumida algunas sugerencias. Es decir, separar los
objetivos y la nomenclatura de la IA entendida como ciencia de los de la IA entendida como
ingeniería. Ya hemos comentado en el apartado 1.2 nuestra visión de la IA como ciencia, que se
basa en considerar que el término inteligencia es muy general y de carácter precientífico. En la
IA entendida como ingeniería (IC), los objetivos y los procedimientos son muy diferentes. Para
su solución, la IC usa todos los métodos y técnicas disponibles, igual que el resto de la
informática, incluyendo los cuatro paradigmas actuales, y la combina en función del balance
entre datos y conocimientos disponibles para cada aplicación específica. Sin embargo, ahora que
hemos establecido la distinción entre IA como ciencia e IC queremos hacer énfasis en la utilidad
de las aproximaciones y, en particular, en mirar a la naturaleza y a las ciencias de lo vivo con un
doble objetivo [Mira, 2005b, 2006; Mira y Delgado, 2006]. Por otro lado, es cada vez más
necesario el trabajo interdisciplinario en el que la física, las ingenierías, la lógica, las matemáticas
y, resumiéndolas a todas, la computación, ayuden a las ciencias de lo vivo a experimentar y
formular teorías explicativas que cierren el lazo de realimentación proporcionando a la IA y la IC
el fundamento científico que tanto necesitan.
1.7 Resumen
En este capítulo inicial se ha explorado el concepto de Inteligencia Artificial (IA) considerada
como ciencia y como ingeniería del Conocimiento (IC). Por lo tanto, el propósito global del
capítulo ha consistido en dar una visión razonablemente amplia de la IA y la IC para que pueda
servir como contexto y marco de referencia en el que el lector pueda situar los contenidos de la
mayoría del resto de los capítulos. Sin embargo, la posición que se toma en este capítulo sobre
las hipótesis fuerte y débil de la IA, la conveniencia de separar sus objetivos de los de la IC y el
consejo final de potenciar la interacción entre neurociencia y computación, son de la única
responsabilidad del autor.