You are on page 1of 15

Resumen

En 1950, el matemtico ingls Alan Mathison Turing propuso los fundamentos


de lo que algunos autores consideran la prueba que debera pasar una
mquina para establecer que piensa! Esta prueba es bsicamente un "uego# sin
embargo, ha tenido gran influencia en el desarrollo de las teoras sobre el
funcionamiento de la mente! $as especificaciones del "uego % algunas de sus
repercusiones en la concepci&n del pensamiento, la conciencia % la 'oluntad
humana, sern ramificaciones del camino que nos lle'ar a tra's de los inicios
de la inteligencia artificial, pasando por algunas de sus singulares
manifestaciones, a culminar en el planteamiento de ciertas restricciones de su
fundamento!
El juego de Turing
En su artculo de 1950 en la re'ista Mind, titulado $os aparatos de computaci&n
% la inteligencia, Alan Turing (1950)19*+, plantea la posibilidad de pensamiento
por parte de las mquinas# para esto, se sir'e de un "uego al que llama Juego
de la Imitacin! Este consta de tres participantes- un hombre (A,, una mu"er (.,
% un interrogador (/, (que puede ser hombre o mu"er,! / se encuentra
separado de los otros dos "ugadores % no puede 'erlos ni escucharlos# solo los
conoce como 0 e 1# adems, solo puede comunicarse con ellos en forma
escrita o mediante un mensa"ero (idealmente con una mquina, para e'itar el
reconocimiento caligrfico,!
El ob"eti'o del interrogador es adi'inar quin es el hombre % quin la mu"er# el
del hombre es inducir al interrogador a hacer una identificaci&n err&nea# % el de
la mu"er es colaborar con el interrogador para que este identifique
correctamente quin es quin! El interrogador puede hacer preguntas del
tipo Puede decirme X de qu largo tiene el pelo? (Turing, 1950, p! 20,, a las
que los otros dos "ugadores pueden responder de la forma que consideren ms
con'eniente % con'incente para lograr su cometido# por lo dems, el
entre'istador no puede e3igir demostraciones prcticas de ning4n tipo a los
otros participantes! Estas son las reglas del "uego# no se especifica tiempo
lmite ni otras restricciones!
1a e3plicado el proceso, Turing plantea los siguientes cuestionamientos- 56u
suceder cuando una mquina tome la parte de A en el "uego7 58ecidir
equi'ocadamente el interrogador con la misma frecuencia cuando se "uega as
el "uego como ocurre cuando en l participan un hombre % una mu"er7 (p! 20,!
Estas preguntas rempla9an, finalmente, la pregunta original acerca de la
posibilidad de pensamiento en las mquinas! $a idea, entonces, es esta- si en
el juego, una mquina logra engaar a un interrogador, hacindole creer que
es una mujer o que el otro jugador es un homre, una cantidad de !eces
equi!alente a la que ocurrir"a si el juego se diera entre humanos # ma#or a la
que ocurrir"a por a$ar, podr"a decirse que la mquina en cuestin piensa #, por
tanto, que las mquinas pueden pensar! Es preciso aclarar que Turing no
profundi9a en las conclusiones que arro"ara el hecho de que una mquina
pasara la prueba, por lo menos en el artculo que estamos refiriendo# en ese
sentido, parece de"ar las conclusiones a "uicio del lector!
Tngase en cuenta tambin que la mquina e3puesta a la prueba puede eludir
preguntas, de cualquier forma, como negndose a responder, guardando
silencio, repitiendo respuestas o contestando con otras preguntas# por e"emplo-
la mquina podra e'itar ser descubierta por su precisi&n matemtica,
contestando adrede mal a algunas preguntas de dicha ndole! :ara Turing, la
me"or estrategia que podra adoptar la mquina para enga;ar al interrogador,
sera intentar el logro de respuestas como las que naturalmente dara un
hombre (p! 2<,! :ara alcan9ar tal grado de sofisticaci&n, aclara el matemtico,
se puede hacer uso de cualquier tipo de tecnologa para la creaci&n del aparato
que ha de superar el reto!
El planteamiento de Turing acerca del "uego, la parte fundamental del artculo
al que hacemos referencia, ocupa unas pocas lneas, un par de carillas a lo
ms# el resto del te3to est dedicado a responder posibles acotaciones al
desafo (como con'encionalmente se ha denominado a la prueba,! =e'isemos
bre'emente algunas de estas ob"eciones, para entender me"or la propuesta de
Turing!
>eg4n la ojecin teolgica, el pensamiento es una funci&n del alma inmortal
que 8ios ha dado a los hombres, pero no a los animales o a las mquinas# por
consiguiente, las mquinas no pueden pensar! A esto responde Turing que no
podemos incurrir en la irre'erencia de usurpar el poder de 8ios de crear almas
(p! 25,, % al final desecha el argumento haciendo alusi&n a casos del pasado en
que concepciones religiosas estu'ieron en contra de un hecho cientficamente
'alidado ms tarde# no se crea, sin embargo, que Turing cae en el embrollo
metafsico de la repartici&n de almas# simplemente sucede que e'ita el terreno
de la especulaci&n pura!
?tra ob"eci&n considerada es la llamada de cae$as hundidas en la arena,
seg4n la cual, las consecuencias de que las mquinas pensaran seran
horrorosas (p! 25,# ob"eci&n esta, seg4n Turing, posiblemente hecha por
personas que postulan una superioridad humana basada en el pensamiento# en
consecuencia, Turing de"a ir la ob"eci&n, en sus palabras, con tan solo una nota
de consuelo (es decir, la considera no a lugar,!
@na rplica ms cientfica es la ojecin matemtica, seg4n la cual en
cualquier sistema l&gico se pueden formular afirmaciones imposibles de probar
o refutar dentro de la l&gica propia de dicho sistema, a menos que el sistema
mismo no sea consistente# esta ob"eci&n estriba en el segundo teorema de la
incompletitud de Aurt BCdel- ning4n sistema consistente se puede usar para
demostrarse a s mismo# es decir, dentro de cualquier sistema l&gico se pueden
generar afirmaciones imposibles de probar o refutar dentro del propio sistema,
a no ser que el mismo sea incoherente (esto es, que haga uso de un lengua"e
que no le es propio,, %a que no todos los teoremas posibles se desprenderan
l&gicamente de los a3iomas del sistema, obligando al uso de un lengua"e
e3terno para establecer los elementos a"enos
1
(Dofstadter, 19*+,!
$a respuesta de Turing a esta ob"eci&n es tan sencilla como categ&rica- si bien
las mquinas pueden presentar errores de pensamiento % mostrar
inconsistencias, los humanos tambin# en otras palabras, si se pudiesen
e'aluar todas las ideas de un indi'iduo, estas no presentaran una total
coherencia interna! 8e hecho, presentaran incoherencias, muchas
incoherencias# no obstante, no es esto impedimento para que el sistema
cogniti'o humano funcione en concordancia con el medio! En el caso del
humano, como en el de los sistemas de BCdel, e3iste la imposibilidad de
e3plicarse totalmente a s mismo, lo cual, nue'amente, no ha sido obstculo
para que los humanos, % los sistemas, sigan e3istiendo!
?tra acotaci&n considerada es el argumento de la conciencia de uno mismo!
Este plantea la imposibilidad de que las mquinas tengan autoEconciencia, es
decir, que piensen sobre su pensamiento! Turing responde a esta ob"eci&n
afirmando que los estados de conciencia solo pueden in%erirse mediante la
oser!acin de la conducta, %a que es imposible comprobar la e3istencia de los
procesos mentales a"enos! Fo hacerlo de este modo, equi'aldra a un
solipsismo, en el que solo se da por cierto el pensamiento propio! A estas %
otras posibles ob"eciones contesta Turing# sin embargo, la refutaci&n ms
conocida al reto del pensamiento maquinal es la del fil&sofo norteamericano
Gohn >earle, publicada en 19*0 (cuando Turing %a haba fallecido, % conocida
como el argumento de la haitacin china!
El argumento de la habitacin china
En trminos generales, este argumento consiste en la reducci&n del supuesto
pensamiento de las mquinas, a un proceso de relacionamiento de smbolos
basado en reglas impartidas por un operador! Este proceso no incluira la
comprensi&n de sentidos % significados, % funcionara ba"o principios
meramente sintcticos (>earle, 19*+,!
/oncretamente, este argumento consiste en un e3perimento mental,
perteneciente a una clase de procesos e3perimentales 'irtuales de amplia
aceptaci&n en el mbito de la filosofa de la mente! En dicho e3perimento,
nuestro fil&sofo se imagina a s mismo encerrado en un cuarto, en el que se le
entrega un manuscrito en chino (idioma que no comprende en absoluto,# luego,
se le da otro manuscrito, tambin en chino, "unto a una serie de instrucciones
escritas en ingls que correlacionan el manuscrito entregado en primer trmino
con el que se entreg& despus (los dos en chino,# a continuaci&n, se le entrega
un tercer "uego de smbolos en chino % otras instrucciones en ingls que
permiten correlacionar este 4ltimo manuscrito chino con los dos manuscritos
anteriores (con base en la forma % ob'iando el significado,!
/on toda esta documentaci&n, el fil&sofo de la habitaci&n china es capa9
de aparentar el conocimiento de 'ariados asuntos que le son consultados, as
como el conocimiento del idioma chino (entregando determinado manuscrito
cuando se le presenta otro,# es decir, relacionando "uegos de smbolos que no
conoce, mediante instrucciones que s conoce (%a que se dieron en ingls,! El
fil&sofo en la habitaci&n hace parecer que conoce los temas que se le
consultan, % el lengua"e en el cual le son consultados!
Hemoslo un poco ms detalladamente- las instrucciones en ingls,
perfectamente entendibles para >earle (quien, no ol'idemos, se ha confinado el
mismo en la habitaci&n,, equi'aldran al programa de un computador! Estas
indicaciones le permitiran, al hombre o a la mquina, correlacionar lo que para
un obser'ador e3terno (hablante del chino, sera una serie de preguntas %
respuestas l&gicas, coherentes % acertadas (en forma de intercambio de
manuscritos,! El obser'ador e3terno (quien no 'e los escritos, la traducci&n ni
los dems papeleos, no tiene forma de saber que quien da contestaci&n tan
acertada no tiene ni idea de qu est hablando (%a que simplemente
correlacion& smbolos, sin comprenderlos,! Aun ms, un con"unto de "ueces
que reali9asen preguntas en ingls % chino, % recibieran respuestas correctas
en ambos idiomas, podran deducir que un mismo proceso de pensamiento
sub%ace a ambas!
El quid del planteamiento de >earle en contra de la posibilidad de pensamiento
en las mquinas, es la falta de intencionalidad del mismo! $a intencionalidad se
ha considerado tradicionalmente como un rasgo de%initorio de los procesos
mentales, % tal cual fue definida por el fil&sofo alemn Iran9 .rentano en el
siglo 0J0 consiste en el hecho de estar dirigido a algo# es decir, ser acerca de
algo (Acero, 1995,! $as manipulaciones formales de smbolos reali9adas por
las mquinas no poseeran intencionalidad, %a que la base de su organi9aci&n
sera la forma, % no el significado# o lo que es igual, los procesos reali9ados por
una mquina no estaran dirigidos a algo, no seran acerca de nada! >eg4n
>earle, los humanos, por el contrario, reali9amos manipulaciones sintcticas de
smbolos #, adems, tenemos acceso a su significado! :ara este fil&sofo de la
mente, los humanos somos mquinas e&ponentes de programas de
computacin, manipulamos s"molos %ormalmente #, aun as", podemos pensar!
$as computadoras no tienen intencionalidad %, por ende, no piensan! $a
intencionalidad de los humanos de'iene de su biologa, % las entra;as de
nuestros aspirantes a seres pensantes no poseen tal caracterstica!
A la defensa de Turing: el predicamento de las mquinas y los huracanes
simulados
Jniciando la dcada de los *0, el matemtico % fsico estadounidense 8ouglas
Dofstadter defendi& la posibilidad de pensamiento en las mquinas, en un
escrito en forma de con'ersaci&n ('irtual, como el argumento de la habitaci&n
china, titulado Temas metamgicos bi9antinos! El test de Turing-
/on'ersaci&n en un caf (19*+,! En esta con'ersaci&n hipottica, toman parte
tres persona"es igualmente hipotticos- >and%, estudiante de Iilosofa# :at,
estudiante de .iologa# % /hris, estudiante de Isica! Estos camaradas
discurren alegremente entre s, de"ando de a poco emerger las ideas de
Dofstadter en defensa del pensamiento de las mquinas, las cuales podemos
caracteri9ar as-
:ara Dofstadter (19*+,- desear, pensar, intentar # esperar (procesos
considerados tradicionalmente como intencionales,, son caracter"sticas que
emerger"an de la compleji$acin de las relaciones %uncionales de las mquinas!
=efiere tambin, este te&rico de la mente, que los computadores se han
considerado tradicionalmente como ob"etos fros % cuadrados, % que acaso, si
esto cambiase, se facilitara la concepci&n de la inteligencia artificial, % las
mquinas podran e'ocar en las mentes humanas tra9ados de lu9 dan9antes
ms bien que palas de 'apor gigantescas (p! 11<,!
=efirindose al estatus del pensamiento artificial como simulaci&n del
pensamiento humano, 'o%stadter entiende la simulacin como equi!alente a lo
simulado! :ara establecer este punto, se 'ale como e"emplo de la simulaci&n
computari9ada de un huracn, la cual considera como una suerte de huracn
real que modifica las relaciones e3istentes dentro del programa, damnificando a
los unos % ceros- habitantes binarios de la simulaci&n! >e lee en el te3to- En el
caso del huracn simulado, si obser'as la memoria de la computadora con la
esperan9a de 'er cables rotos % dems, tendrs una desilusi&n! :ero mira el
ni'el correcto (, Hers que se han roto algunos la9os abstractos, que han
cambiado radicalmente algunos de los 'alores de las 'ariables % muchas cosas
ms! Aqu tienes tu inundaci&n (p! 92,!
E'identemente, el anlisis de Dofstadter se da en un ni'el abstracto, %a que si
bien no afirma que el simulacro de un huracn es idntico a un huracn real, s
ubica, usando una e3presi&n propia del mbito filos&fico, la huracaneidad, en
los efectos del fen&meno % la coherencia de sus componentes# es decir, la
esencia del huracn no estara en sus componentes fsicos, sino en sus efectos
dentro de las restricciones especificas del marco en que se desarrolla! >e
simulara pues la esencia de lo simulado, lo cual significa, e3trapolando, que la
esencia del pensamiento har"a de ser el proceso que lo su#ace( el cmputo
matemtico! Al final, no interesara tanto el medio en el que, % mediante el cual,
se reali9a la operaci&n, sino la operaci&n misma!
Este tipo de ra9onamiento corresponde a una corriente filos&fica conocida
como %uncionalismo, la cual fundamenta la ciencia cogniti'a presentando los
fen&menos mentales en funci&n de sus roles causales, sin depender de un
constitu%ente fsico (.echtel, 1991, (no confundir con el funcionalismo de
Games,! 8icho de otra forma, no importa si se es un computador o un humano#
para el funcionalismo, la esencia del pensamiento radica en el proceso del
mismo % no en su sustrato fsico! >on palabras del te3to de Dofstadter- 1o
dira que el que t4 hagas depender de mi cuerpo fsico la e'idencia de que so%
un ser pensante es un poco superficial (19*+, p! 105,!
Es e'idente, en este postulado, una ob"eci&n fundamental al argumento de la
habitaci&n china (en el que la intencionalidad del pensamiento emerge del
sustrato biol&gico del organismo,! :ara Dofstadter, al igual que para el fil&sofo
de la mente Gerr% Iodor (1992,, la intencionalidad del pensamiento e&iste) pero
responde a la complejidad de las relaciones %uncionales del ser pensante, sea
este, mquina o humano! >eg4n la lectura que el lingKista =a% GacLendoff hace
de Dofstadter, el planteamiento de este implica que si un computador puede
alcan9ar un alto grado de comple"idad, la conciencia emerger de alguna forma
milagrosa ( consciousness *ill someho* miraculousl# emerge M19*2, p! 1*N,!
Al igual que para Turing, para Dofstadter, la forma de constatar que los otros
piensan es mediante la obser'aci&n de los hechos e3ternos- sus acciones! Esta
sera e'idencia directa# el resto (preguntarles, por e"emplo,, sera e'idencia
indirecta % por tanto sospechosa! 8e no confiar en el mtodo de obser'aci&n
e3terna caeramos en un solipsismo# en trminos de Dofstadter- la gente
acepta que el pr&"imo tiene conciencia tan s&lo porque ha% un monitoreo
e3terior constante sobre los otros, lo cual en s se parece mucho al Test de
Turing (19*+, p! 10O,! En consonancia % seg4n Iodor- no podemos tener
nunca ra9ones para suponer que los predicados mentales se puedan aplicar a
personas distintas de nosotros mismos! (19*P, p! 9O,!
/omo consecuencia de lo anterior, el conocimiento de los estados mentales de
los otros es solo probable# la 4nica forma de acercamiento es mediante la
conducta! @na de las ra9ones de esta tesis, es 'alidar la e3istencia de
pensamiento, sin la presencia de procesos internos, basndose solo en la
conducta obser'able! 8e esta forma, en el caso de la habitaci&n china, los
obser'adores e3ternos podran concluir que se est produciendo un proceso
legtimo de pensamiento, tan solo considerando la naturale9a % relaci&n de las
preguntas % respuestas, sin importar qu clase de proceso se d dentro de la
habitaci&n!
En cuanto a la ausencia de una estructura biol&gica, sub%acente al
pensamiento maquinal, se plantea Dofstadter la posibilidad transicional entre
un ni'el fsico % uno biol&gico, en el sistema constitu%ente del organismo# en
este sentido, los hombres seramos mquinas % la base biol&gica de nuestra
humanidad sera una serie de procesos fsicos que bien podran ser emulados
por otra mquina# de esta forma, al igual que mediante la comple"i9aci&n de
procesos formales, tambin podra emerger la intencionalidad! En todo caso,
en el artculo que estamos refiriendo, Dofstadter no profundi9a en las
particularidades de su proceso de transici&n entre el ni'el biol&gico % fsico en
los humanos, lo cual, "unto a su planteamiento de las caractersticas
conscientesEemergentes, % la posible identidad de la simulaci&n % lo simulado,
basada en presupuestos funcionalistas, constitu%e su defensa de la posibilidad
del pensamiento artificial! Fo obstante, la posibilidad total, o la imposibilidad
absoluta del pensamiento artificial, no son la 4nica forma de contestar al
desafo de Turing# pasemos ahora, a considerar otras opciones!
Posibles respuestas al desafo de Turing
Realmente! pueden pensar las mquinas"
Qngel =i'iRre, psic&logo madrile;o, refiere cuatro respuestas al desafo de
Turing, en sus +jetos con mente(1991,! $a primera es simple % llanamente-
Fo, las mquinas no pueden pensar (que sera acorde al argumento de la
habitaci&n china,# la segunda, considera totalmente posible el pensamiento en
las mquinas % lo ubica en la misma categora del pensamiento humano
(consonante con el argumento de Dofstadter,# la tercera, implica aceptar el
desafo de Turing como una metfora %, por tanto, menguar de alguna forma la
rigide9 de una pretendida identidad entre el pensamiento humano % el
maquinal, haciendo brumosa la frontera entre estos % apro'echando la analoga
para el estudio de la mente humana! $a cuarta respuesta corresponde, en
palabras de =i'iRre (19**,, a una posici&n mati9ada ante el desafo, en la cual
se considera a la mente como un sistema de computo, pero no del tipo que
propone Turing, sino como un sistema acorde a ciertas propiedades especificas
del sistema ner'ioso humano! /onsideremos un poco ms de cerca las tres
opciones que admiten la e3istencia de inteligencia artificial!
$a aceptaci&n total de la posibilidad de pensamiento artificial, ' ersin %uerte de
la met%ora del ordenador oparadigma de cmputos sore representaciones,
busca la e3plicaci&n del conocimiento en general, profesando la identidad del
pensamiento hombreEmquina % radicando su fundamento en operaciones
formales sobre smbolos (de ah la acepci&n de paradigma de c&mputos, (8e
Hega, 19*O# =i'iRre, 1991,! 8e acuerdo con esta lnea te&rica, el pensamiento
podra identificarse con un tipo de estructura comple"a algortmica, que
permitira la resoluci&n de problemas abstractos % cotidianos! :ara alcan9ar sus
ob"eti'os, los defensores de la 'ersi&n fuerte de la metfora del ordenador se
'alen del modelado computacional, el cual consiste, grosso modo, en
programar una mquina para que realice procesos de conocimiento comunes
en las personas (E%sencL % Aeane, <000# Bardner, 19*5,# sin embargo, para
lograr esto, no se circunscriben a las restricciones psicol&gicas caractersticas
del sistema cogniti'o humano, por lo cual, igualar o me"orar el proceso o el
resultado mediante artilugios informticos, les 'iene bien!
$a aceptaci&n restringida de la posibilidad de inteligencia artificial, !ersin dil
de la met%ora del ordenador oparadigma del procesamiento de in%ormacin,
busca e3plicar el conocimiento psicol&gico en especfico, sin la pretensi&n de
generali9ar su teora a la cognici&n en general (8e Hega, 19*O# =i'iRre, 1991,!
As como los te&ricos de la metfora fuerte hacen uso del modelado
computacional, el paradigma del procesamiento de informaci&n se sir'e de
la simulacin, la cual, si bien busca implementar procesos de conocimiento en
mquinas para de'elar el funcionamiento cogniti'o, respeta las restricciones
psicol&gicas % se sir'e de estudios de la actuaci&n humana, esto es, de teoras
psicol&gicas (mtodo tal que es ob'iado por el paradigma de c&mputos sobre
representaciones, (E%sencL % Aeane, <000# Bardner, 19*5,! Esta forma de
entender la inteligencia artificial se constitu%e como una influencia te&rica
contundente en la psicologa cogniti'a contempornea!
$a cuarta opci&n ante el desafo de Turing, que considera las especificidades
del sistema ner'ioso humano en la in'estigaci&n de los procesos de
conocimiento, se conoce como cone&ionismo, % go9a de buena reputaci&n en
el mbito cientfico moderno! A diferencia del tradicional procesamiento de tipo
serial (en serie,, el cone3ionismo se ha caracteri9ado por postular un mane"o
de informaci&n simultneo % paralelo, lo que implica la posibilidad de reali9ar
'arios procesos al mismo tiempo, e incluso 'arias fases de un mismo proceso
en simultneo! 8iferencindose aun ms de las teoras anteriormente citadas,
el cone3ionismo no se basa en representaciones simb&licas, sino en patrones
de acti'aci&n en redes de nodos (que equi'aldran en manera a4n algo
confusa, a las neuronas, (Daberlandt, 1992# Tienson, 1995,!
8e acuerdo con lo anterior, se busca una sntesis equilibrada entre procesos
operacionali9ables computacionalmente % caractersticas conocidas
del hard*are humano, es decir, su biologa (para un acercamiento ms
sustancioso al conocimiento cone3ionista 'ase, por e"emplo, la recin
citada Introduccin al cone&ionismo de G! Tienson,! 1a referidas algunas de las
posibles respuestas al desafo de Turing, continuemos con los efectos que el
reto del matemtico caus& en la comunidad acadmica!
Estibadores #irtuales! paranoicos aparentes y otras particulares
consecuencias del desafo de Turing en el desarrollo de la inteligencia
artificial
En este punto nos es imposible proseguir, sin una definici&n de inteligencia
artificial (J!A!,, as que brindaremos la siguiente-
la J!A!, consiste en producir, en un ente noEhumano, % ante un estimulo
especifico, una respuesta que al ser dada por una persona, se considerara
inteligente! (Bardner, 19*5# >imon % Aaplan, 19*9,
Es esta definici&n sencilla, prctica % usual, la que nos haca falta! En cuanto al
albor de esta disciplina (la J!A!,, se;alaremos que estu'o nutrido por di'ersos
saberes, entre los cuales resaltan la teor"a de la comunicacin, de /laude
>hannon, que 'io la lu9 p4blica en 19O*# la teor"a cierntica, de Forbert
Siener, de la dcada del O0# los estudios psicolingKsticos, liderados por Foam
/homsL%, acadmico de creciente rele'ancia a partir de mediados del siglo
pasado# % en gran medida, por el desafo de Turing# el cual, seg4n algunos
te&ricos, constitu%e el nacimiento mismo de la inteligencia artificial (como
>imon % Aaplan, 19*9# de quienes tomamos tambin las referencias sobre las
disciplinas que produ"eron el nacimiento de la J!A!,! 1a sea que adoptasen la
'ersi&n dbil o fuerte de la metfora del ordenador, 'arios cientficos se 'ieron
mu% influenciados por el planteamiento de Turing, entre ellos, los pioneros de la
inteligencia artificial- Gohn Mc/arth%, Mar'in MinsL%, Allen FeTell % Derbert
>imon (todos in'estigadores norteamericanos,, quienes se reunieron en 195P
en el ,imposio de -artmouth (que constitu%e un hito en la creaci&n de la J!A!,,
En este encuentro se discuti& sobre las bases de la nue'a ciencia, % se acu;o
el trmino inteligencia artificial (E%sencL % Aeane, <000# Bardner, 19*5,!
Tambin en 195P, durante el,imposio sore la teor"a de la in%ormacin, FeTell
% >imon presentaron su mquina de la teora l&gica, bauti9adaJohniac,
<
la
cual reali9& con 3ito la resoluci&n de uno de los teoremas, que %a haban sido
resueltos por Alfred Shitehead % .ertrand =ussell# sin embargo, aunque el
teorema fue resuelto en forma ms elegante que la de Shitehead % =ussell,
seg4n refiere Bardner (19*5,, no se acept& su publicaci&n, debido a la autora
rob&tica!
/on base en los planteamientos e3puestos % las conclusiones alcan9adas
durante estos encuentros, en pocas subsiguientes se
cre& so%t*are computacional que reali9aba interesantes % curiosas labores, del
cual se suele destacar- el programa .li$a, reali9ado en la dcada del 20 por el
cientfico alemn, recientemente fallecido, Goseph Sei9enbaum! 8icho
programa consista en la simulaci&n (o parodia, de un terapeuta de corte
rogeriano# el,'/-01, de Terr% Sinograd, desarrollado por la misma poca
que el Eli9a, se diriga, mediante un reducido n4mero de &rdenes por escrito, a
un acomodador de figuras geomtricas, en un peque;o mundo 'irtual de
bloques# % por supuesto, el inquietante Parr#- paranoico aparente,
profundamente consternado por la mafia % las carreras de caballos, escrito (es
decir, creado como programa, en los tempranos 20, por el psiquiatra
norteamericano Aenneth /olb% (/opeland, 199P# Bardner, 19*5# >imon %
Aaplan,19*9,!
El funcionamiento de estos programas, :arr% % Eli9a en especfico, no era en
ning4n sentido misterioso! Entre las acciones para las que estaban
programados, conocidas como proceso de comparacin de
patrones (/opeland, 199P,, estaba la de detectar palabras especficas en las
oraciones, % contestar, tomando la primera de una lista de respuestas
predeterminada# estas respuestas estaban asociadas en forma coherente con
la palabra elegida, o consistan en una simple transformaci&n sintctica de la
frase de entrada! $a frase con que se responda era ubicada luego al final de la
lista, de forma tal que se agotase determinado n4mero de respuestas, antes de
repetirse! :arr%, por e"emplo, emita una respuesta acalorada cuando detectaba
una increpaci&n de paranoico en la charla de su interlocutor!
Estos programas tambin podan trasformar pronombres tales como t2 o m",
en #o o t2, respecti'amente, as como modificar la sinta3is de la oraci&n
entrante, para crear, mediante la oraci&n de salida, una ilusi&n de
entendimiento!
+
Eli9a, por su parte, retena frases encabe9adas por m"o o m",
escritas por el interlocutor, las etiquetaba, % las usaba luego, tomndolas como
frases de contenido especialmente significati'o para los pacientes (de acuerdo
con la programaci&n del operador, claro est,! :ara los casos en que no se
detectaba un patr&n especfico al cual contestar, contaba Eli9a con frases de
ca"&n como- 56u te hace pensar eso7 (/opeland, 199P, (si acaso el lector
se ha 'isto interesado por una con'ersaci&n de este tipo, no hace falta ms que
na'egar en la red, en donde se encuentran disponibles al p4blico di'ersas
'ersiones de estos programas,!
Aunque el proceso de funcionamiento de los primeros programas de J!A! no es
ning4n arcano, el desempe;o de los mismos resulta desconcertante %
atra%ente, pero causa aun ms desconcierto todo el asunto de la creati'idad en
las mquinas! /onsidrese que 'arios autores de la psicologa de la
creati'idad, como DoTard Bardner, =obert Seisberg % Margaret .oden,
comparten algo conocido como la concepci&n ms de lo mismo, la cual
consiste en el planteamiento de que no ha% nada especial o mstico en el
traba"o creati'o de la mente humana, sino ms de lo mismo, de los procesos
que utili9amos habitualmente (=omo, 1992,! En este sentido, no es de e3tra;ar
que e3istan programas que realicen obras de arte pict&ricas, musicales o
literarias# programas que descubran le%es cientficas, e incluso, uno que otro
que publique un artculo (todo esto a'alado por el mbito al que pertenecen las
creaciones, (.oden, 199O,!
:ara la muestra, un bot&n! De aqu las primeras lneas, respetando el idioma
'ernculo, del libro de prosa % poesa, de =acter (abre'iaci&n de raconteur,
trmino galo para narrador de cuentos,- programa de inteligencia artificial
creado por Silliam /hamberlain % Thomas Etter, quienes le atribu%en la autora
del escrito- 3t all e!ents m# o*n essa#s and dissertations aout lo!e and its
endless pain and perpetual pleasure *ill e 4no*n and understood # all o% #ou
*ho read this and tal4 or sing or chant aout it to #our *orried %riends or
ner!ous enemies (=acter, 19*O# sin numeraci&n de pagina o puntuaci&n en el
original,!
/on respecto a la creati'idad en la inteligencia artificial, el in'estigador croata
Mihl% /siLs9entmihal%i (199*, se;ala que a los computadores les es dada la
informaci&n % las 'ariables especficas por parte de los cientficos# que esta
informaci&n sir'e como pbulo de sus creaciones, % que esto no sucede en la
'ida real! :or el contrario, algunos autores consideran que la creati'idad es un
proceso noe3clusi'o de los humanos, e incluso consideran que las creaciones
artsticas computacionales 9an"an otro tanto la brecha que ale"a a los hombres
de las mquinas# al respecto, afirma la in'estigadora en inteligencia artificial
Margaret .oden (199O, que la creati'idad computacional no amena9a nuestro
autoErespeto, %a que el hecho de compartir procesos no termina por igualar a
los seres que los reali9an!
En las teoras de la mente
$a influencia del desafo de Turing no fue e3clusi'amente sobre el traba"o en la
inteligencia artificial# se dio tambin en te&ricos del funcionamiento de la mente
humana, quienes propusieron ideas de suma rele'ancia, como la
de arquitectura mental, del fil&sofo norteamericano Gerr% Iodor (19P*, 19*P,
1992,! Iodor, claro seguidor de la metfora fuerte, propone la organi9aci&n
funcional de la mente, mediante la siguiente di'isi&n- transductores sensoriales,
sistemas de entrada % sistemas centrales! $os transductores tomaran, en
forma preEconceptual, informaci&n sobre los estmulos del ambiente, para
pasarla luego a los sistemas de entrada! Estos seran percepti'os % trataran la
informaci&n algortmicamente, en'indola luego a los sistemas centrales (el
pensamiento % la resoluci&n de problemas, (Iodor, 19*P,!
$o ms curioso de la tesis de Iodor es la definici&n que reali9a de los sistemas
de entrada % de los sistemas centrales- los primeros, responderan a la
caracterstica de ser modulares, lo que implica funcionar de forma algortmica,
automtica % sumamente eficiente, en un dominio especifico % con un tipo de
informaci&n que no se compartira con otros m&dulos! Estos sistemas
modulares de entrada reconoceran solamente los estmulos que les es propio
tratar % aplicaran procesos formales sobre ellos, de forma s4per rpida,
eficiente, obligatoria %, de cierta forma, obtusa, %a que haran lo que tienen que
hacer, siempre de la misma forma, % lo que es aun ms importante, sin que
nuestra conciencia tu!iese acceso a sus procedimientos, ni pudiese
modi%icarlos) solo contemplar al resultado del cmputo de in%ormacin, que
llega del amiente (Iodor, 19*P,!
$os sistemas centrales, seg4n Iodor encargados del pensamiento % la
resoluci&n de problemas, funcionaran ba"o las caractersticas que este fil&sofo
denomina isotrop"a % quineanismo, que bsicamente se refieren al
incon'eniente de definir qu informaci&n es rele'ante para aplicar en una
situaci&n problemtica, o para comprobar una hip&tesis dada, % qu
informaci&n se afecta % modifica despus de un proceso de conocimiento
(Iodor, 19*P,!
Estas supuestas caractersticas del funcionamiento del pensamiento humano
(isotropa % quineanismo, guardan preocupante similitud con el llamado
problema del marco, propio del mbito computacional, % que seg4n refiere
Gohn Tienson (1995, fue una de las ra9ones de la crisis de la uena #
anticuada inteligencia arti%icial (.AJA, como la denomina Daugeland,!
El prolema del marco consiste "ustamente en la e3trema dificultad de que una
mquina, o su operador, estable9ca el con"unto de informaci&n que se debe
considerar antes % durante una acci&n especfica, as como el con"unto de
informaci&n que se 'e modificada luego de alg4n proceso! En este punto no es
difcil notar c&mo el funcionamiento especifico de una mquina, % en este caso
una restricci&n procedimental o de implementaci&n, se e3trapola de forma tal
que se le con%ieren a la mente humana propiedades # restricciones propias de
las mquinas!
$a propuesta de Iodor ha dado paso a lo que se conoce como arquitecturas
mentales post5%odorianas (Jgoa, <00+,, como las inteligencias m2ltiples de
Bardner, la mente computacional de GacLendoff o la escuela de lamodularidad
masi!a! Estas formas de e3plicaci&n de la mente, basadas en la metfora del
ordenador, proponen una particular partici&n de la mente que contempla una
gran 'ariedad de componentes, entre los que podemos contar- de lengua"e,
'isi&n % musical# percepti'os# de inteligencias de di'ersos tipos (entre los ms
conser'adores modularmente hablando,# o m&dulos innatos de fsica, biologa
% psicologa# e incluso, m&dulos a granel del tama;o de conceptos (/osmides %
Toob%, <00<# Iodor, 19*P# Dirschfeld % Belman, <00<# GacLendoff, 19*2#
AarmiloffE>mith, 199O# :inLer, <001,!
8e estas arquitecturas, la propuesta ta3on&mica de la mente, reali9ada por =a%
GacLendoff (19*2,, ha sido de particular importancia en la psicologa moderna!
/onsiste, bsicamente, en la diferenciaci&n entre mente
%enomenolgica % mente computacional! En la primera residiran las ilusiones,
sensaciones, imaginaciones % la conciencia de uno mismo, mientras que la
segunda se encargara del reconocimiento, comparaci&n, anlisis % dems
procesos de conocimiento, los cuales estar"an por %uera del alcance
consciente! =efle3iones de esta ndole, sumadas a numerosas in'estigaciones
prcticas en psicologa, han lle'ado a postular un supuesto mu% com4n en las
e3plicaciones contemporneas sobre la mente, seg4n el cual, la ma#or"a de los
procesos del conocimiento suceden a un ni!el no consciente, en ocasiones
llamado( inconsciente 6ogniti!o ($e8ou3, 1999,!
Es as como tenemos que en las teoras actuales sobre la mente se e'idencia,
cada 'e9 con ma%or fuer9a, una clara diferencia e independencia entre la
mente que reali9a los procesos de conocimiento % la mente que comporta la
conciencia (Iroufe, <00O,! Esta 4ltima (la conciencia, ha ido perdiendo
paulatinamente su rele'ancia en el terreno del pensamiento (en trminos
te&ricos por supuesto,# de hecho, e3isten teoras como la del fil&sofo americano
=ichard =ort% (19*9,, quien propone el abandono de la in'estigaci&n %
discusi&n de los conceptos relati'os a la conciencia fenomenol&gica, para
centrarse en el estudio neurofisiol&gico, buscando con ello cambiar la forma
intencional de comprender la mente, por una centrada en su constitu%ente
neural# incluso, propone =ort% que as per'i'an los trminos referentes a la
mente fenomenol&gica (los trminos mentalistas propiamente hablando, como-
desear, querer o intuir,, los estados del sistema ner'ioso seran suficientes
para e3plicar % entender la acti'idad humana!
/onsideraciones como las precedentes sobre el carcter computacional 4nico
de los procesos de conocimiento, la imposibilidad de comprender fen&menos
que no sean formulados en trminos de c&mputos sintcticos sobre
representaciones, o la futilidad de los estados conscientes, constitu%en un
e"emplo de las repercusiones de una e3trapolaci&n de concepciones sintcticoE
computacionales a la e3plicaci&n de la mente humana! Esto puede redundar (o
degenerar, en teoras confusas sobre los procesos de pensamiento, la 'oluntad
% la esencia del conocimiento# pero, un momento, tal parece que el sencillo
"uego planteado por Turing ha tenido algunas repercusiones inesperadas#
acaso sea menester, hasta donde nos sea posible, plantear las condiciones del
tipo de inteligencia que se toma ho% en da como modelo para la e3plicaci&n de
la mente! 1a que hemos llegado hasta aqu, 5por qu no hacerlo7
Restricciones fundamentales de la inteligencia artificial
1a e3puestas las singularidades del tema en cuesti&n (qui9 mu%
e3tensamente,, mediante la presentaci&n del desafo de Turing, sus
consecuencias % posibles respuestas, el contraargumento de la habitaci&n
china, las ra9ones de Dofstadter % la alusi&n al nacimiento % temprano
desarrollo de la inteligencia artificial, estamos preparados para tratar el tema
que 'a a englobar la refle3i&n buscada- las restricciones fundamentales de la
inteligencia artificial! :roponemos aqu, las dos siguientes-
1! Jmposibilidad ontol&gica de la identidad de la inteligencia artificial % el
pensamiento humano, debido a gnesis dispares!
<! Jmposibilidad semntica de la identidad de la inteligencia artificial % el
pensamiento humano, debido a categoras conceptuales dispares!
$onsideraciones preliminares sobre el sentido y el enga%o
En relaci&n con el asunto del acceso al significado en la J!A!, comenta >earle
que una de las afirmaciones de los propulsores de la JA fuerte M'ersi&n fuerte
de la metfora del ordenadorN es que cuando %o comprendo una historia en
ingls, lo que esto% haciendo es ni ms ni menos lo mismo por lo menos
apro3imadamente lo mismo que lo que haca al manipular los smbolos
chinos (19*+, p! O5*, (recuerda el lector el asunto de los manuscritos chinos,
no es cierto,! Este presupuesto de los defensores de la metfora fuerte no es
mu% atinado, %a que la ruta del proceso cogniti!o, en el ejemplo de la
haitacin china, consiste en una cone&in directa entre sistemas de entrada #
salida, o una cone&in que en cualquier caso, no pasa por el almacn de
signi%icados# % es que ese es un ata"o cogniti'o no del todo impropio del
humano!
$os in'estigadores en neuropsicologa cogniti'a AndreT Ellis % AndreT 1oung
(199<, refieren posibles cone3iones entre le&icones de entrada % salida que
ob'ian el paso por el almacn semntico, ruta tal que si bien en ocasiones es
funcional (para la repetici&n de palabras desconocidas o noEpalabras, por
e"emplo,, puede constituir una patologa, de ser el 4nico medio usado para la
comprensi&n o producci&n del lengua"e!
O
:ara decirlo en forma sencilla- el
recibir % responder preguntas relati'as a una llu'ia 'enidera, en forma
coherente e incluso precisa, solo basndose en la estructura de las mismas %
no en su significado, no implica considerar el uso de un paraguas en un futuro
pr&3imo para e'adir el chaparr&n! Estamos hablando pues de dos tipos de
entendimiento distintos- asociati'o % comprensi'o# el 4ltimo abarca al primero,
pero no al contrario! Esta cuesti&n de acceso al significado ha obstaculi9ado los
a'ances en J!A! de tal forma que se ha considerado dotar a las mquinas de
una semntica que analice imgenes % las relacione con estructuras
sintcticas, almacenadas en la memoria (>agal, 19*<# >imon % Aaplan, 19*9,!
E3iste tambin, en relaci&n con la prueba de Turing, el problema de la mquina
enga;ando, haciendo creer que es un humano# % es que este asunto del
enga;o no carece de profundidad, %a que presupone la capacidad del que
enga;a de comprender, en un ni'el no necesariamente consciente, que los
otros poseen representaciones mentales que son esencialmente distintas a la
realidad, % que se basan en estas para conducirse# en este sentido, las
representaciones del que es enga;ado pueden ser ms o menos acordes a la
situaci&n, pudiendo por eso conducirlo a equi'ocaciones en su actuar!
Qngel =i'iRre refiere la diferencia entre un enga;o, digamos automtico, como
el de algunos animales para despistar a sus enemigos % presas, % uno de tipo
tctico (=i'iRre % F4;e9, 199*,! Este se define por su fle3ibilidad % su
posibilidad de ser adaptado seg4n la situaci&n % las caractersticas del que se
quiere enga;ar! El enga;o noEtctico, entonces, sera infle3ible,
predeterminado % no intencional, % sucedera en seres que no poseen la
capacidad de reconocer al otro como un ser de e3periencia, falible % guiado por
sus representaciones mentales del mundo % de los otros# seres que no poseen
la capacidad que usualmente se denomina teor"a de la mente(ToM,! >in
intenci&n de entrar en la polmica sobre la ToM, la semntica o el tipo de
enga;o que implicara la tctica de una mquina para pasar el desafo de
Turing, es obligado hacer notar que hace falta algo ms que coherencia
sintctica para poseer pensamiento!
&mposibilidad ontolgica de la identidad de la inteligencia artificial y el
pensamiento humano debido a g'nesis dispares
El estudio de la mente % su anlisis no se agotan en una 'isi&n centrada en las
caractersticas actuales de la poblaci&n, representada por unos pocos! 8ebe
considerarse, adems, entre otras cosas, la apro3imaci&n filogentica# es decir,
el estudio de la mente desde presupuestos e'olucionistas % de adaptabilidad %
progresi&n como los que han sido defendidos por la escuela conocida como
Fue'a >ntesis (llamada as debido a su concreci&n de teoras cogniti'as con la
teora e'olucionista de 8arTin, (Mithen, 199*# :inLer, <001,! 8e acuerdo con
las in'estigaciones de esta escuela, la especificidad gentica innata interact4a
con las caractersticas ambientales haciendo posible la modificaci&n modular
(Iernnde9 % =ui9, 1990,!
8e acuerdo con lo anterior, la mente, incluso, puede haber 'enido mutando de
tal forma que recursos que usamos ho% da en un proceso 0, pudiesen ser
modificaciones de otros usados originalmente en un proceso 1 (/osmides %
Toob%, <00<,! Esta transformaci&n no solo seria filogentica, %a que podra
tambin presentarse en forma progresi'a en el transcurso de una 'ida,
mediante, por e"emplo, el proceso que AarmiloffE>mith (199O,
denominaredescripcin representacional! 8urante este proceso de cambio
conceptual, los formatos representacionales, esto es, las formas en que est
representado el conocimiento, 'an modificndose hasta alcan9ar ni'eles cu%as
caractersticas constitu%entes son dismiles de las de sus predecesores!
8esde otro mbito de la psicologa, se afirma que, dependiendo de la
organi$acin de un sistema # de la complejidad de sus relaciones, pueden
emerger cualidades que no e&isten por s" solas en los elementos
constitu#entes de un conjunto (Morin, 1999,# es decir, las relaciones
estructurales % funcionales de un con"unto son ms que la suma de las
caractersticas estructurales % funcionales de sus constitu%entes! /uando las
cualidades de los componentes interact4an, crean fen&menos que responden
especficamente a la dinmica del grupo en que se presentan! En sistemas
comple"os, es decir, con gran cantidad de componentes % relaciones, los
fen&menos resultantes de la interacci&n de los elementos del grupo pueden
generar caractersticas definitorias del propio sistema (es siguiendo esta l&gica
que >earle propone a la intencionalidad como propiedad emergente de la
biologa humana, % Dofstadter la propone como propiedad emergente de la
conformaci&n estructural del organismo,!
8esde estos presupuestos (la modificaci&n modular, la redescripci&n
representacional % las propiedades emergentes,, el pensamiento podr"a
considerarse como una propiedad emergente del sistema humano en su
totalidad, que se ha constituido con el paso del tiempo en lo que es ho#( una
cualidad (por nombrarlo de alg4n modo, que responde a las particularidades
del homre como especie # a las de la historia que ha transitado! :ara
Dofstadter (19*+,, las cualidades intencionales seran caractersticas que
emergeran en la mquina de la comple"i9aci&n de sus relaciones funcionales
internas! En este sentido, es oportuno aclarar que si la emergencia de
cualidades est basada en las relaciones generales que posee un sistema, la
aparici&n de las caractersticas especficas presentes en el humano
respondera a un largo % comple"o proceso de interacci&n entre sus
constitu%entes biol&gicos, culturales % ambientales (entre tantos otros,!
Asimismo, las caractersticas que pudiesen emerger de las relaciones de los
componentes de las mquinas responderan a las especificidades de
su hard*are, su ambiente, su historia %, por supuesto, Usus creadoresV Es en
este sentido que el argumento de Dofstadter se queda corto, %a que aun
aceptando que la interacci&n de caractersticas en la mquina redundara en la
emergencia de propiedades no'edosas, no ha% ninguna ra9&n para suponer
que estas seran idnticas a las que han emergido en los humanos a tra's de
su historia! >e;ala tambin Dofstadter (19*+, pp! 115E11P,- $o que pasa
adems es que los dise;adores humanos 'an a acelerar el proceso
e'olucionario al dirigirse en forma deliberada a la meta de crear inteligencia!
Este hecho implica que en la e'oluci&n % gnesis de la mquina, a diferencia
de la nuestra, la participaci&n de los creadores es clara! >era qui9 insensato
ignorar estos factores preponderantes en la aparici&n de las propiedades
emergentes en las mquinas, que imposibilitan la identidad del pensamiento
humano % la inteligencia artificial desde la constituci&n misma de su esencia!
Fo significa esto que las caractersticas que pueda llegar a presentar una
mquina, bien sea por su constituci&n o por la relaci&n comple"a de sus
componentes, no puedan ser similares en sus efectos o procesos a las
humanas# simplemente significa, que no son, o sern, idnticas! :ara lograr un
repertorio de caractersticas mentales iguales a las de los humanos, se
requerira la creaci&n de un ser con caractersticas constitu%entes iguales a las
humanas, % este asunto, por mtodos distintos al tradicional, acaso se nos
complicase un poco!
&mposibilidad semntica de la identidad de la inteligencia artificial y el
pensamiento humano debido a categoras conceptuales dispares
:ara Turing, la me"or estrategia que pudiese usar una mquina sera la de
intentar el logro de respuestas como las que naturalmente dara un hombre
(19*1, p! 2<,# es decir, la mquina debera imitar con precisi&n la conducta
'erbal humana (% e'entualmente tambin las acciones,! >in embargo, imitar
implica la irrealidad de lo que imita %rente a lo imitado# 'eamos c&mo!
8e acuerdo con /homsL% (19*0, 19**,, e3iste cierta clase de categoras
semnticas innatas, categoras conceptuales predeterminadas en el humano
que se etiquetan por medio del lengua"e % significan lo mismo uni'ersalmente#
aun siendo nombradas de forma distinta por distintas culturas, estas categoras
implicaran la e3istencia de estructuras conceptuales similares en las distintas
personas del mundo# de ah lo que este autor denomina 'erdades de
significado (19**, p! +5,! Estas !erdades de signi%icado no dependeran de la
e3periencia para su constataci&n, es ms, ni siquiera requeriran constataci&n,
%a que oficiaran como pilares categoriales del proceso de adquisici&n de
conocimiento!
Esta idea de conocimientos % categoras preestablecidas en la mente es
tambin un presupuesto fundamental para los te&ricos de la modularidad
masi'a, quienes refieren, con amplio apo%o emprico, la e3istencia de
conocimiento (nociones o preferencias, de tipo fsico, biol&gico, psicol&gico %
de otras 'ariadas ndoles! Estos conocimientos estaran presentes en los recin
nacidos (o en todo caso a tempransima edad, % constituiran el fundamento
para la consolidaci&n del conocimiento! Estos autores afirman, adems,
que una categor"a de conocimiento innata al humano le permite distinguir entre
seres animados e inanimados o !i!os # no5!i!os(/osmides % Toob% <00<#
:inLer, <001,!
/on base en este principio % en las !erdades de signi%icado de
/homsL% podemos entender las categor"as semnticas de simulacin #
simulado como dispares, por el hecho mismo, tan e!idente que se o!ia, de
que la simulacin por de%inicin requiere lo simulado para e&istir) su esencia se
asa en tratar de ser algo que no es( en aparentar# en otras palabras, la
simulaci&n es irreal en el sentido de la realidad de lo que simula- desde estas
premisas, la inteligencia arti%icial representa una %antasmagor"a! Aclaremos que
ba"o ninguna circunstancia estamos en una discusi&n de trminos de c&mo
calificar lingKsticamente la inteligencia artificial# el punto aqu recae en las
diferentes esencias del pensamiento humano % el pensamiento artificial,
ocupando distintas categoras conceptuales en la clasificaci&n propia de la
mente humana# esto debido, entre otras cosas, a que las gnesis de ambas
son claramente dispares!
Ahora, aunque esta negaci&n de la identidad entre el pensamiento humano % la
J!A! pueda parecer 'ana, no lo es# tngase en cuenta que pioneros de la J!A!,
como Allen FeTell % Derbert >imon, escriben que el tipo de conocimiento cu%a
e3istencia ellos afirman en las computadoras es e3actamente el mismo que el
de los seres humanos! (>earle, 19*+, p! OP1,# % no se ol'ide tampoco de las
repercusiones que puede traer, % de hecho ha trado, en la concepci&n
contempornea de la mente, el for9ado parang&n entre esta % una mquina
computari9ada! As que si tomar el pensamiento humano por 4nico, o como el
pensamiento por antonomasia, resulta ingenuo, lo es tambin considerar que el
pensamiento de las mquinas, en alg4n tramo de su periplo e'oluti'o, resulte
ser idntico al nuestro!
$a inteligencia artificial llegara con seguridad, si es que no lo ha hecho %a, a
superar la prueba de Turing# es de esperar tambin que se logre simular, de
alguna forma, la intencionalidad % la conciencia en cerebros de silicio# pero, aun
as, las propiedades de estas mquinas no sern las mismas que las nuestras,
%a que entre la comple"idad de la interacci&n de sus componentes constituti'os,
se contarn factores distintos a los que cuentan en nosotros# el pensamiento de
las mquinas, si quiere llamrsele as, 'a a pertenecer, o pertenece, a
categoras primordialmente distintas!
()TA* A+ P&E
1! :ara establecer los lmites de un sistema no se puede decir, por e"emplo,
que 7 es un elemento ajeno, sin usar el trmino 7, que no pertenece al
lengua"e del sistema# por tanto, se deben usar trminos impropios en el
proceso de definici&n, imposibilitndosele al con"unto llegar a ser autoE
demostrado en su totalidad mediante su propio lengua"e!
<! En deferencia al matemtico h4ngaro Gohn 'on Feumann, quien tu'o gran
influencia en la creaci&n de los procesos mnmicos computacionales,
el so%t*are autoEmodificable, el procesamiento serial % los c&mputos sobre
smbolos aplicados a la computaci&n (>imon % Aaplan, 19*9,!
+! :or e"emplo, en el caso de Eli9a, una posible respuesta a 82 me odias
sera Te gusta pensar que #o te odio, no es cierto, transformando la oraci&n
que contiene- 82 me por una preEestablecida que contiene- 7o te,
modificando a su 'e9 la con"ugaci&n del 'erbo (/opeland, 199P,!
O! =ecordemos que en el modelo de comprensi&n % producci&n del lengua"e
presentado por estos acadmicos, el significado de las palabras se encuentra
ubicado en un sitio distinto al de la conformaci&n estructuralEortogrfica de las
mismas, %a sea en formato 'isual o auditi'o, total que se pueden asociar
palabras entre s sin acceder a su significado (Ellis % 1oung, 199<,!

You might also like