En 1950, el matemtico ingls Alan Mathison Turing propuso los fundamentos
de lo que algunos autores consideran la prueba que debera pasar una mquina para establecer que piensa! Esta prueba es bsicamente un "uego# sin embargo, ha tenido gran influencia en el desarrollo de las teoras sobre el funcionamiento de la mente! $as especificaciones del "uego % algunas de sus repercusiones en la concepci&n del pensamiento, la conciencia % la 'oluntad humana, sern ramificaciones del camino que nos lle'ar a tra's de los inicios de la inteligencia artificial, pasando por algunas de sus singulares manifestaciones, a culminar en el planteamiento de ciertas restricciones de su fundamento! El juego de Turing En su artculo de 1950 en la re'ista Mind, titulado $os aparatos de computaci&n % la inteligencia, Alan Turing (1950)19*+, plantea la posibilidad de pensamiento por parte de las mquinas# para esto, se sir'e de un "uego al que llama Juego de la Imitacin! Este consta de tres participantes- un hombre (A,, una mu"er (., % un interrogador (/, (que puede ser hombre o mu"er,! / se encuentra separado de los otros dos "ugadores % no puede 'erlos ni escucharlos# solo los conoce como 0 e 1# adems, solo puede comunicarse con ellos en forma escrita o mediante un mensa"ero (idealmente con una mquina, para e'itar el reconocimiento caligrfico,! El ob"eti'o del interrogador es adi'inar quin es el hombre % quin la mu"er# el del hombre es inducir al interrogador a hacer una identificaci&n err&nea# % el de la mu"er es colaborar con el interrogador para que este identifique correctamente quin es quin! El interrogador puede hacer preguntas del tipo Puede decirme X de qu largo tiene el pelo? (Turing, 1950, p! 20,, a las que los otros dos "ugadores pueden responder de la forma que consideren ms con'eniente % con'incente para lograr su cometido# por lo dems, el entre'istador no puede e3igir demostraciones prcticas de ning4n tipo a los otros participantes! Estas son las reglas del "uego# no se especifica tiempo lmite ni otras restricciones! 1a e3plicado el proceso, Turing plantea los siguientes cuestionamientos- 56u suceder cuando una mquina tome la parte de A en el "uego7 58ecidir equi'ocadamente el interrogador con la misma frecuencia cuando se "uega as el "uego como ocurre cuando en l participan un hombre % una mu"er7 (p! 20,! Estas preguntas rempla9an, finalmente, la pregunta original acerca de la posibilidad de pensamiento en las mquinas! $a idea, entonces, es esta- si en el juego, una mquina logra engaar a un interrogador, hacindole creer que es una mujer o que el otro jugador es un homre, una cantidad de !eces equi!alente a la que ocurrir"a si el juego se diera entre humanos # ma#or a la que ocurrir"a por a$ar, podr"a decirse que la mquina en cuestin piensa #, por tanto, que las mquinas pueden pensar! Es preciso aclarar que Turing no profundi9a en las conclusiones que arro"ara el hecho de que una mquina pasara la prueba, por lo menos en el artculo que estamos refiriendo# en ese sentido, parece de"ar las conclusiones a "uicio del lector! Tngase en cuenta tambin que la mquina e3puesta a la prueba puede eludir preguntas, de cualquier forma, como negndose a responder, guardando silencio, repitiendo respuestas o contestando con otras preguntas# por e"emplo- la mquina podra e'itar ser descubierta por su precisi&n matemtica, contestando adrede mal a algunas preguntas de dicha ndole! :ara Turing, la me"or estrategia que podra adoptar la mquina para enga;ar al interrogador, sera intentar el logro de respuestas como las que naturalmente dara un hombre (p! 2<,! :ara alcan9ar tal grado de sofisticaci&n, aclara el matemtico, se puede hacer uso de cualquier tipo de tecnologa para la creaci&n del aparato que ha de superar el reto! El planteamiento de Turing acerca del "uego, la parte fundamental del artculo al que hacemos referencia, ocupa unas pocas lneas, un par de carillas a lo ms# el resto del te3to est dedicado a responder posibles acotaciones al desafo (como con'encionalmente se ha denominado a la prueba,! =e'isemos bre'emente algunas de estas ob"eciones, para entender me"or la propuesta de Turing! >eg4n la ojecin teolgica, el pensamiento es una funci&n del alma inmortal que 8ios ha dado a los hombres, pero no a los animales o a las mquinas# por consiguiente, las mquinas no pueden pensar! A esto responde Turing que no podemos incurrir en la irre'erencia de usurpar el poder de 8ios de crear almas (p! 25,, % al final desecha el argumento haciendo alusi&n a casos del pasado en que concepciones religiosas estu'ieron en contra de un hecho cientficamente 'alidado ms tarde# no se crea, sin embargo, que Turing cae en el embrollo metafsico de la repartici&n de almas# simplemente sucede que e'ita el terreno de la especulaci&n pura! ?tra ob"eci&n considerada es la llamada de cae$as hundidas en la arena, seg4n la cual, las consecuencias de que las mquinas pensaran seran horrorosas (p! 25,# ob"eci&n esta, seg4n Turing, posiblemente hecha por personas que postulan una superioridad humana basada en el pensamiento# en consecuencia, Turing de"a ir la ob"eci&n, en sus palabras, con tan solo una nota de consuelo (es decir, la considera no a lugar,! @na rplica ms cientfica es la ojecin matemtica, seg4n la cual en cualquier sistema l&gico se pueden formular afirmaciones imposibles de probar o refutar dentro de la l&gica propia de dicho sistema, a menos que el sistema mismo no sea consistente# esta ob"eci&n estriba en el segundo teorema de la incompletitud de Aurt BCdel- ning4n sistema consistente se puede usar para demostrarse a s mismo# es decir, dentro de cualquier sistema l&gico se pueden generar afirmaciones imposibles de probar o refutar dentro del propio sistema, a no ser que el mismo sea incoherente (esto es, que haga uso de un lengua"e que no le es propio,, %a que no todos los teoremas posibles se desprenderan l&gicamente de los a3iomas del sistema, obligando al uso de un lengua"e e3terno para establecer los elementos a"enos 1 (Dofstadter, 19*+,! $a respuesta de Turing a esta ob"eci&n es tan sencilla como categ&rica- si bien las mquinas pueden presentar errores de pensamiento % mostrar inconsistencias, los humanos tambin# en otras palabras, si se pudiesen e'aluar todas las ideas de un indi'iduo, estas no presentaran una total coherencia interna! 8e hecho, presentaran incoherencias, muchas incoherencias# no obstante, no es esto impedimento para que el sistema cogniti'o humano funcione en concordancia con el medio! En el caso del humano, como en el de los sistemas de BCdel, e3iste la imposibilidad de e3plicarse totalmente a s mismo, lo cual, nue'amente, no ha sido obstculo para que los humanos, % los sistemas, sigan e3istiendo! ?tra acotaci&n considerada es el argumento de la conciencia de uno mismo! Este plantea la imposibilidad de que las mquinas tengan autoEconciencia, es decir, que piensen sobre su pensamiento! Turing responde a esta ob"eci&n afirmando que los estados de conciencia solo pueden in%erirse mediante la oser!acin de la conducta, %a que es imposible comprobar la e3istencia de los procesos mentales a"enos! Fo hacerlo de este modo, equi'aldra a un solipsismo, en el que solo se da por cierto el pensamiento propio! A estas % otras posibles ob"eciones contesta Turing# sin embargo, la refutaci&n ms conocida al reto del pensamiento maquinal es la del fil&sofo norteamericano Gohn >earle, publicada en 19*0 (cuando Turing %a haba fallecido, % conocida como el argumento de la haitacin china! El argumento de la habitacin china En trminos generales, este argumento consiste en la reducci&n del supuesto pensamiento de las mquinas, a un proceso de relacionamiento de smbolos basado en reglas impartidas por un operador! Este proceso no incluira la comprensi&n de sentidos % significados, % funcionara ba"o principios meramente sintcticos (>earle, 19*+,! /oncretamente, este argumento consiste en un e3perimento mental, perteneciente a una clase de procesos e3perimentales 'irtuales de amplia aceptaci&n en el mbito de la filosofa de la mente! En dicho e3perimento, nuestro fil&sofo se imagina a s mismo encerrado en un cuarto, en el que se le entrega un manuscrito en chino (idioma que no comprende en absoluto,# luego, se le da otro manuscrito, tambin en chino, "unto a una serie de instrucciones escritas en ingls que correlacionan el manuscrito entregado en primer trmino con el que se entreg& despus (los dos en chino,# a continuaci&n, se le entrega un tercer "uego de smbolos en chino % otras instrucciones en ingls que permiten correlacionar este 4ltimo manuscrito chino con los dos manuscritos anteriores (con base en la forma % ob'iando el significado,! /on toda esta documentaci&n, el fil&sofo de la habitaci&n china es capa9 de aparentar el conocimiento de 'ariados asuntos que le son consultados, as como el conocimiento del idioma chino (entregando determinado manuscrito cuando se le presenta otro,# es decir, relacionando "uegos de smbolos que no conoce, mediante instrucciones que s conoce (%a que se dieron en ingls,! El fil&sofo en la habitaci&n hace parecer que conoce los temas que se le consultan, % el lengua"e en el cual le son consultados! Hemoslo un poco ms detalladamente- las instrucciones en ingls, perfectamente entendibles para >earle (quien, no ol'idemos, se ha confinado el mismo en la habitaci&n,, equi'aldran al programa de un computador! Estas indicaciones le permitiran, al hombre o a la mquina, correlacionar lo que para un obser'ador e3terno (hablante del chino, sera una serie de preguntas % respuestas l&gicas, coherentes % acertadas (en forma de intercambio de manuscritos,! El obser'ador e3terno (quien no 'e los escritos, la traducci&n ni los dems papeleos, no tiene forma de saber que quien da contestaci&n tan acertada no tiene ni idea de qu est hablando (%a que simplemente correlacion& smbolos, sin comprenderlos,! Aun ms, un con"unto de "ueces que reali9asen preguntas en ingls % chino, % recibieran respuestas correctas en ambos idiomas, podran deducir que un mismo proceso de pensamiento sub%ace a ambas! El quid del planteamiento de >earle en contra de la posibilidad de pensamiento en las mquinas, es la falta de intencionalidad del mismo! $a intencionalidad se ha considerado tradicionalmente como un rasgo de%initorio de los procesos mentales, % tal cual fue definida por el fil&sofo alemn Iran9 .rentano en el siglo 0J0 consiste en el hecho de estar dirigido a algo# es decir, ser acerca de algo (Acero, 1995,! $as manipulaciones formales de smbolos reali9adas por las mquinas no poseeran intencionalidad, %a que la base de su organi9aci&n sera la forma, % no el significado# o lo que es igual, los procesos reali9ados por una mquina no estaran dirigidos a algo, no seran acerca de nada! >eg4n >earle, los humanos, por el contrario, reali9amos manipulaciones sintcticas de smbolos #, adems, tenemos acceso a su significado! :ara este fil&sofo de la mente, los humanos somos mquinas e&ponentes de programas de computacin, manipulamos s"molos %ormalmente #, aun as", podemos pensar! $as computadoras no tienen intencionalidad %, por ende, no piensan! $a intencionalidad de los humanos de'iene de su biologa, % las entra;as de nuestros aspirantes a seres pensantes no poseen tal caracterstica! A la defensa de Turing: el predicamento de las mquinas y los huracanes simulados Jniciando la dcada de los *0, el matemtico % fsico estadounidense 8ouglas Dofstadter defendi& la posibilidad de pensamiento en las mquinas, en un escrito en forma de con'ersaci&n ('irtual, como el argumento de la habitaci&n china, titulado Temas metamgicos bi9antinos! El test de Turing- /on'ersaci&n en un caf (19*+,! En esta con'ersaci&n hipottica, toman parte tres persona"es igualmente hipotticos- >and%, estudiante de Iilosofa# :at, estudiante de .iologa# % /hris, estudiante de Isica! Estos camaradas discurren alegremente entre s, de"ando de a poco emerger las ideas de Dofstadter en defensa del pensamiento de las mquinas, las cuales podemos caracteri9ar as- :ara Dofstadter (19*+,- desear, pensar, intentar # esperar (procesos considerados tradicionalmente como intencionales,, son caracter"sticas que emerger"an de la compleji$acin de las relaciones %uncionales de las mquinas! =efiere tambin, este te&rico de la mente, que los computadores se han considerado tradicionalmente como ob"etos fros % cuadrados, % que acaso, si esto cambiase, se facilitara la concepci&n de la inteligencia artificial, % las mquinas podran e'ocar en las mentes humanas tra9ados de lu9 dan9antes ms bien que palas de 'apor gigantescas (p! 11<,! =efirindose al estatus del pensamiento artificial como simulaci&n del pensamiento humano, 'o%stadter entiende la simulacin como equi!alente a lo simulado! :ara establecer este punto, se 'ale como e"emplo de la simulaci&n computari9ada de un huracn, la cual considera como una suerte de huracn real que modifica las relaciones e3istentes dentro del programa, damnificando a los unos % ceros- habitantes binarios de la simulaci&n! >e lee en el te3to- En el caso del huracn simulado, si obser'as la memoria de la computadora con la esperan9a de 'er cables rotos % dems, tendrs una desilusi&n! :ero mira el ni'el correcto (, Hers que se han roto algunos la9os abstractos, que han cambiado radicalmente algunos de los 'alores de las 'ariables % muchas cosas ms! Aqu tienes tu inundaci&n (p! 92,! E'identemente, el anlisis de Dofstadter se da en un ni'el abstracto, %a que si bien no afirma que el simulacro de un huracn es idntico a un huracn real, s ubica, usando una e3presi&n propia del mbito filos&fico, la huracaneidad, en los efectos del fen&meno % la coherencia de sus componentes# es decir, la esencia del huracn no estara en sus componentes fsicos, sino en sus efectos dentro de las restricciones especificas del marco en que se desarrolla! >e simulara pues la esencia de lo simulado, lo cual significa, e3trapolando, que la esencia del pensamiento har"a de ser el proceso que lo su#ace( el cmputo matemtico! Al final, no interesara tanto el medio en el que, % mediante el cual, se reali9a la operaci&n, sino la operaci&n misma! Este tipo de ra9onamiento corresponde a una corriente filos&fica conocida como %uncionalismo, la cual fundamenta la ciencia cogniti'a presentando los fen&menos mentales en funci&n de sus roles causales, sin depender de un constitu%ente fsico (.echtel, 1991, (no confundir con el funcionalismo de Games,! 8icho de otra forma, no importa si se es un computador o un humano# para el funcionalismo, la esencia del pensamiento radica en el proceso del mismo % no en su sustrato fsico! >on palabras del te3to de Dofstadter- 1o dira que el que t4 hagas depender de mi cuerpo fsico la e'idencia de que so% un ser pensante es un poco superficial (19*+, p! 105,! Es e'idente, en este postulado, una ob"eci&n fundamental al argumento de la habitaci&n china (en el que la intencionalidad del pensamiento emerge del sustrato biol&gico del organismo,! :ara Dofstadter, al igual que para el fil&sofo de la mente Gerr% Iodor (1992,, la intencionalidad del pensamiento e&iste) pero responde a la complejidad de las relaciones %uncionales del ser pensante, sea este, mquina o humano! >eg4n la lectura que el lingKista =a% GacLendoff hace de Dofstadter, el planteamiento de este implica que si un computador puede alcan9ar un alto grado de comple"idad, la conciencia emerger de alguna forma milagrosa ( consciousness *ill someho* miraculousl# emerge M19*2, p! 1*N,! Al igual que para Turing, para Dofstadter, la forma de constatar que los otros piensan es mediante la obser'aci&n de los hechos e3ternos- sus acciones! Esta sera e'idencia directa# el resto (preguntarles, por e"emplo,, sera e'idencia indirecta % por tanto sospechosa! 8e no confiar en el mtodo de obser'aci&n e3terna caeramos en un solipsismo# en trminos de Dofstadter- la gente acepta que el pr&"imo tiene conciencia tan s&lo porque ha% un monitoreo e3terior constante sobre los otros, lo cual en s se parece mucho al Test de Turing (19*+, p! 10O,! En consonancia % seg4n Iodor- no podemos tener nunca ra9ones para suponer que los predicados mentales se puedan aplicar a personas distintas de nosotros mismos! (19*P, p! 9O,! /omo consecuencia de lo anterior, el conocimiento de los estados mentales de los otros es solo probable# la 4nica forma de acercamiento es mediante la conducta! @na de las ra9ones de esta tesis, es 'alidar la e3istencia de pensamiento, sin la presencia de procesos internos, basndose solo en la conducta obser'able! 8e esta forma, en el caso de la habitaci&n china, los obser'adores e3ternos podran concluir que se est produciendo un proceso legtimo de pensamiento, tan solo considerando la naturale9a % relaci&n de las preguntas % respuestas, sin importar qu clase de proceso se d dentro de la habitaci&n! En cuanto a la ausencia de una estructura biol&gica, sub%acente al pensamiento maquinal, se plantea Dofstadter la posibilidad transicional entre un ni'el fsico % uno biol&gico, en el sistema constitu%ente del organismo# en este sentido, los hombres seramos mquinas % la base biol&gica de nuestra humanidad sera una serie de procesos fsicos que bien podran ser emulados por otra mquina# de esta forma, al igual que mediante la comple"i9aci&n de procesos formales, tambin podra emerger la intencionalidad! En todo caso, en el artculo que estamos refiriendo, Dofstadter no profundi9a en las particularidades de su proceso de transici&n entre el ni'el biol&gico % fsico en los humanos, lo cual, "unto a su planteamiento de las caractersticas conscientesEemergentes, % la posible identidad de la simulaci&n % lo simulado, basada en presupuestos funcionalistas, constitu%e su defensa de la posibilidad del pensamiento artificial! Fo obstante, la posibilidad total, o la imposibilidad absoluta del pensamiento artificial, no son la 4nica forma de contestar al desafo de Turing# pasemos ahora, a considerar otras opciones! Posibles respuestas al desafo de Turing Realmente! pueden pensar las mquinas" Qngel =i'iRre, psic&logo madrile;o, refiere cuatro respuestas al desafo de Turing, en sus +jetos con mente(1991,! $a primera es simple % llanamente- Fo, las mquinas no pueden pensar (que sera acorde al argumento de la habitaci&n china,# la segunda, considera totalmente posible el pensamiento en las mquinas % lo ubica en la misma categora del pensamiento humano (consonante con el argumento de Dofstadter,# la tercera, implica aceptar el desafo de Turing como una metfora %, por tanto, menguar de alguna forma la rigide9 de una pretendida identidad entre el pensamiento humano % el maquinal, haciendo brumosa la frontera entre estos % apro'echando la analoga para el estudio de la mente humana! $a cuarta respuesta corresponde, en palabras de =i'iRre (19**,, a una posici&n mati9ada ante el desafo, en la cual se considera a la mente como un sistema de computo, pero no del tipo que propone Turing, sino como un sistema acorde a ciertas propiedades especificas del sistema ner'ioso humano! /onsideremos un poco ms de cerca las tres opciones que admiten la e3istencia de inteligencia artificial! $a aceptaci&n total de la posibilidad de pensamiento artificial, ' ersin %uerte de la met%ora del ordenador oparadigma de cmputos sore representaciones, busca la e3plicaci&n del conocimiento en general, profesando la identidad del pensamiento hombreEmquina % radicando su fundamento en operaciones formales sobre smbolos (de ah la acepci&n de paradigma de c&mputos, (8e Hega, 19*O# =i'iRre, 1991,! 8e acuerdo con esta lnea te&rica, el pensamiento podra identificarse con un tipo de estructura comple"a algortmica, que permitira la resoluci&n de problemas abstractos % cotidianos! :ara alcan9ar sus ob"eti'os, los defensores de la 'ersi&n fuerte de la metfora del ordenador se 'alen del modelado computacional, el cual consiste, grosso modo, en programar una mquina para que realice procesos de conocimiento comunes en las personas (E%sencL % Aeane, <000# Bardner, 19*5,# sin embargo, para lograr esto, no se circunscriben a las restricciones psicol&gicas caractersticas del sistema cogniti'o humano, por lo cual, igualar o me"orar el proceso o el resultado mediante artilugios informticos, les 'iene bien! $a aceptaci&n restringida de la posibilidad de inteligencia artificial, !ersin dil de la met%ora del ordenador oparadigma del procesamiento de in%ormacin, busca e3plicar el conocimiento psicol&gico en especfico, sin la pretensi&n de generali9ar su teora a la cognici&n en general (8e Hega, 19*O# =i'iRre, 1991,! As como los te&ricos de la metfora fuerte hacen uso del modelado computacional, el paradigma del procesamiento de informaci&n se sir'e de la simulacin, la cual, si bien busca implementar procesos de conocimiento en mquinas para de'elar el funcionamiento cogniti'o, respeta las restricciones psicol&gicas % se sir'e de estudios de la actuaci&n humana, esto es, de teoras psicol&gicas (mtodo tal que es ob'iado por el paradigma de c&mputos sobre representaciones, (E%sencL % Aeane, <000# Bardner, 19*5,! Esta forma de entender la inteligencia artificial se constitu%e como una influencia te&rica contundente en la psicologa cogniti'a contempornea! $a cuarta opci&n ante el desafo de Turing, que considera las especificidades del sistema ner'ioso humano en la in'estigaci&n de los procesos de conocimiento, se conoce como cone&ionismo, % go9a de buena reputaci&n en el mbito cientfico moderno! A diferencia del tradicional procesamiento de tipo serial (en serie,, el cone3ionismo se ha caracteri9ado por postular un mane"o de informaci&n simultneo % paralelo, lo que implica la posibilidad de reali9ar 'arios procesos al mismo tiempo, e incluso 'arias fases de un mismo proceso en simultneo! 8iferencindose aun ms de las teoras anteriormente citadas, el cone3ionismo no se basa en representaciones simb&licas, sino en patrones de acti'aci&n en redes de nodos (que equi'aldran en manera a4n algo confusa, a las neuronas, (Daberlandt, 1992# Tienson, 1995,! 8e acuerdo con lo anterior, se busca una sntesis equilibrada entre procesos operacionali9ables computacionalmente % caractersticas conocidas del hard*are humano, es decir, su biologa (para un acercamiento ms sustancioso al conocimiento cone3ionista 'ase, por e"emplo, la recin citada Introduccin al cone&ionismo de G! Tienson,! 1a referidas algunas de las posibles respuestas al desafo de Turing, continuemos con los efectos que el reto del matemtico caus& en la comunidad acadmica! Estibadores #irtuales! paranoicos aparentes y otras particulares consecuencias del desafo de Turing en el desarrollo de la inteligencia artificial En este punto nos es imposible proseguir, sin una definici&n de inteligencia artificial (J!A!,, as que brindaremos la siguiente- la J!A!, consiste en producir, en un ente noEhumano, % ante un estimulo especifico, una respuesta que al ser dada por una persona, se considerara inteligente! (Bardner, 19*5# >imon % Aaplan, 19*9, Es esta definici&n sencilla, prctica % usual, la que nos haca falta! En cuanto al albor de esta disciplina (la J!A!,, se;alaremos que estu'o nutrido por di'ersos saberes, entre los cuales resaltan la teor"a de la comunicacin, de /laude >hannon, que 'io la lu9 p4blica en 19O*# la teor"a cierntica, de Forbert Siener, de la dcada del O0# los estudios psicolingKsticos, liderados por Foam /homsL%, acadmico de creciente rele'ancia a partir de mediados del siglo pasado# % en gran medida, por el desafo de Turing# el cual, seg4n algunos te&ricos, constitu%e el nacimiento mismo de la inteligencia artificial (como >imon % Aaplan, 19*9# de quienes tomamos tambin las referencias sobre las disciplinas que produ"eron el nacimiento de la J!A!,! 1a sea que adoptasen la 'ersi&n dbil o fuerte de la metfora del ordenador, 'arios cientficos se 'ieron mu% influenciados por el planteamiento de Turing, entre ellos, los pioneros de la inteligencia artificial- Gohn Mc/arth%, Mar'in MinsL%, Allen FeTell % Derbert >imon (todos in'estigadores norteamericanos,, quienes se reunieron en 195P en el ,imposio de -artmouth (que constitu%e un hito en la creaci&n de la J!A!,, En este encuentro se discuti& sobre las bases de la nue'a ciencia, % se acu;o el trmino inteligencia artificial (E%sencL % Aeane, <000# Bardner, 19*5,! Tambin en 195P, durante el,imposio sore la teor"a de la in%ormacin, FeTell % >imon presentaron su mquina de la teora l&gica, bauti9adaJohniac, < la cual reali9& con 3ito la resoluci&n de uno de los teoremas, que %a haban sido resueltos por Alfred Shitehead % .ertrand =ussell# sin embargo, aunque el teorema fue resuelto en forma ms elegante que la de Shitehead % =ussell, seg4n refiere Bardner (19*5,, no se acept& su publicaci&n, debido a la autora rob&tica! /on base en los planteamientos e3puestos % las conclusiones alcan9adas durante estos encuentros, en pocas subsiguientes se cre& so%t*are computacional que reali9aba interesantes % curiosas labores, del cual se suele destacar- el programa .li$a, reali9ado en la dcada del 20 por el cientfico alemn, recientemente fallecido, Goseph Sei9enbaum! 8icho programa consista en la simulaci&n (o parodia, de un terapeuta de corte rogeriano# el,'/-01, de Terr% Sinograd, desarrollado por la misma poca que el Eli9a, se diriga, mediante un reducido n4mero de &rdenes por escrito, a un acomodador de figuras geomtricas, en un peque;o mundo 'irtual de bloques# % por supuesto, el inquietante Parr#- paranoico aparente, profundamente consternado por la mafia % las carreras de caballos, escrito (es decir, creado como programa, en los tempranos 20, por el psiquiatra norteamericano Aenneth /olb% (/opeland, 199P# Bardner, 19*5# >imon % Aaplan,19*9,! El funcionamiento de estos programas, :arr% % Eli9a en especfico, no era en ning4n sentido misterioso! Entre las acciones para las que estaban programados, conocidas como proceso de comparacin de patrones (/opeland, 199P,, estaba la de detectar palabras especficas en las oraciones, % contestar, tomando la primera de una lista de respuestas predeterminada# estas respuestas estaban asociadas en forma coherente con la palabra elegida, o consistan en una simple transformaci&n sintctica de la frase de entrada! $a frase con que se responda era ubicada luego al final de la lista, de forma tal que se agotase determinado n4mero de respuestas, antes de repetirse! :arr%, por e"emplo, emita una respuesta acalorada cuando detectaba una increpaci&n de paranoico en la charla de su interlocutor! Estos programas tambin podan trasformar pronombres tales como t2 o m", en #o o t2, respecti'amente, as como modificar la sinta3is de la oraci&n entrante, para crear, mediante la oraci&n de salida, una ilusi&n de entendimiento! + Eli9a, por su parte, retena frases encabe9adas por m"o o m", escritas por el interlocutor, las etiquetaba, % las usaba luego, tomndolas como frases de contenido especialmente significati'o para los pacientes (de acuerdo con la programaci&n del operador, claro est,! :ara los casos en que no se detectaba un patr&n especfico al cual contestar, contaba Eli9a con frases de ca"&n como- 56u te hace pensar eso7 (/opeland, 199P, (si acaso el lector se ha 'isto interesado por una con'ersaci&n de este tipo, no hace falta ms que na'egar en la red, en donde se encuentran disponibles al p4blico di'ersas 'ersiones de estos programas,! Aunque el proceso de funcionamiento de los primeros programas de J!A! no es ning4n arcano, el desempe;o de los mismos resulta desconcertante % atra%ente, pero causa aun ms desconcierto todo el asunto de la creati'idad en las mquinas! /onsidrese que 'arios autores de la psicologa de la creati'idad, como DoTard Bardner, =obert Seisberg % Margaret .oden, comparten algo conocido como la concepci&n ms de lo mismo, la cual consiste en el planteamiento de que no ha% nada especial o mstico en el traba"o creati'o de la mente humana, sino ms de lo mismo, de los procesos que utili9amos habitualmente (=omo, 1992,! En este sentido, no es de e3tra;ar que e3istan programas que realicen obras de arte pict&ricas, musicales o literarias# programas que descubran le%es cientficas, e incluso, uno que otro que publique un artculo (todo esto a'alado por el mbito al que pertenecen las creaciones, (.oden, 199O,! :ara la muestra, un bot&n! De aqu las primeras lneas, respetando el idioma 'ernculo, del libro de prosa % poesa, de =acter (abre'iaci&n de raconteur, trmino galo para narrador de cuentos,- programa de inteligencia artificial creado por Silliam /hamberlain % Thomas Etter, quienes le atribu%en la autora del escrito- 3t all e!ents m# o*n essa#s and dissertations aout lo!e and its endless pain and perpetual pleasure *ill e 4no*n and understood # all o% #ou *ho read this and tal4 or sing or chant aout it to #our *orried %riends or ner!ous enemies (=acter, 19*O# sin numeraci&n de pagina o puntuaci&n en el original,! /on respecto a la creati'idad en la inteligencia artificial, el in'estigador croata Mihl% /siLs9entmihal%i (199*, se;ala que a los computadores les es dada la informaci&n % las 'ariables especficas por parte de los cientficos# que esta informaci&n sir'e como pbulo de sus creaciones, % que esto no sucede en la 'ida real! :or el contrario, algunos autores consideran que la creati'idad es un proceso noe3clusi'o de los humanos, e incluso consideran que las creaciones artsticas computacionales 9an"an otro tanto la brecha que ale"a a los hombres de las mquinas# al respecto, afirma la in'estigadora en inteligencia artificial Margaret .oden (199O, que la creati'idad computacional no amena9a nuestro autoErespeto, %a que el hecho de compartir procesos no termina por igualar a los seres que los reali9an! En las teoras de la mente $a influencia del desafo de Turing no fue e3clusi'amente sobre el traba"o en la inteligencia artificial# se dio tambin en te&ricos del funcionamiento de la mente humana, quienes propusieron ideas de suma rele'ancia, como la de arquitectura mental, del fil&sofo norteamericano Gerr% Iodor (19P*, 19*P, 1992,! Iodor, claro seguidor de la metfora fuerte, propone la organi9aci&n funcional de la mente, mediante la siguiente di'isi&n- transductores sensoriales, sistemas de entrada % sistemas centrales! $os transductores tomaran, en forma preEconceptual, informaci&n sobre los estmulos del ambiente, para pasarla luego a los sistemas de entrada! Estos seran percepti'os % trataran la informaci&n algortmicamente, en'indola luego a los sistemas centrales (el pensamiento % la resoluci&n de problemas, (Iodor, 19*P,! $o ms curioso de la tesis de Iodor es la definici&n que reali9a de los sistemas de entrada % de los sistemas centrales- los primeros, responderan a la caracterstica de ser modulares, lo que implica funcionar de forma algortmica, automtica % sumamente eficiente, en un dominio especifico % con un tipo de informaci&n que no se compartira con otros m&dulos! Estos sistemas modulares de entrada reconoceran solamente los estmulos que les es propio tratar % aplicaran procesos formales sobre ellos, de forma s4per rpida, eficiente, obligatoria %, de cierta forma, obtusa, %a que haran lo que tienen que hacer, siempre de la misma forma, % lo que es aun ms importante, sin que nuestra conciencia tu!iese acceso a sus procedimientos, ni pudiese modi%icarlos) solo contemplar al resultado del cmputo de in%ormacin, que llega del amiente (Iodor, 19*P,! $os sistemas centrales, seg4n Iodor encargados del pensamiento % la resoluci&n de problemas, funcionaran ba"o las caractersticas que este fil&sofo denomina isotrop"a % quineanismo, que bsicamente se refieren al incon'eniente de definir qu informaci&n es rele'ante para aplicar en una situaci&n problemtica, o para comprobar una hip&tesis dada, % qu informaci&n se afecta % modifica despus de un proceso de conocimiento (Iodor, 19*P,! Estas supuestas caractersticas del funcionamiento del pensamiento humano (isotropa % quineanismo, guardan preocupante similitud con el llamado problema del marco, propio del mbito computacional, % que seg4n refiere Gohn Tienson (1995, fue una de las ra9ones de la crisis de la uena # anticuada inteligencia arti%icial (.AJA, como la denomina Daugeland,! El prolema del marco consiste "ustamente en la e3trema dificultad de que una mquina, o su operador, estable9ca el con"unto de informaci&n que se debe considerar antes % durante una acci&n especfica, as como el con"unto de informaci&n que se 'e modificada luego de alg4n proceso! En este punto no es difcil notar c&mo el funcionamiento especifico de una mquina, % en este caso una restricci&n procedimental o de implementaci&n, se e3trapola de forma tal que se le con%ieren a la mente humana propiedades # restricciones propias de las mquinas! $a propuesta de Iodor ha dado paso a lo que se conoce como arquitecturas mentales post5%odorianas (Jgoa, <00+,, como las inteligencias m2ltiples de Bardner, la mente computacional de GacLendoff o la escuela de lamodularidad masi!a! Estas formas de e3plicaci&n de la mente, basadas en la metfora del ordenador, proponen una particular partici&n de la mente que contempla una gran 'ariedad de componentes, entre los que podemos contar- de lengua"e, 'isi&n % musical# percepti'os# de inteligencias de di'ersos tipos (entre los ms conser'adores modularmente hablando,# o m&dulos innatos de fsica, biologa % psicologa# e incluso, m&dulos a granel del tama;o de conceptos (/osmides % Toob%, <00<# Iodor, 19*P# Dirschfeld % Belman, <00<# GacLendoff, 19*2# AarmiloffE>mith, 199O# :inLer, <001,! 8e estas arquitecturas, la propuesta ta3on&mica de la mente, reali9ada por =a% GacLendoff (19*2,, ha sido de particular importancia en la psicologa moderna! /onsiste, bsicamente, en la diferenciaci&n entre mente %enomenolgica % mente computacional! En la primera residiran las ilusiones, sensaciones, imaginaciones % la conciencia de uno mismo, mientras que la segunda se encargara del reconocimiento, comparaci&n, anlisis % dems procesos de conocimiento, los cuales estar"an por %uera del alcance consciente! =efle3iones de esta ndole, sumadas a numerosas in'estigaciones prcticas en psicologa, han lle'ado a postular un supuesto mu% com4n en las e3plicaciones contemporneas sobre la mente, seg4n el cual, la ma#or"a de los procesos del conocimiento suceden a un ni!el no consciente, en ocasiones llamado( inconsciente 6ogniti!o ($e8ou3, 1999,! Es as como tenemos que en las teoras actuales sobre la mente se e'idencia, cada 'e9 con ma%or fuer9a, una clara diferencia e independencia entre la mente que reali9a los procesos de conocimiento % la mente que comporta la conciencia (Iroufe, <00O,! Esta 4ltima (la conciencia, ha ido perdiendo paulatinamente su rele'ancia en el terreno del pensamiento (en trminos te&ricos por supuesto,# de hecho, e3isten teoras como la del fil&sofo americano =ichard =ort% (19*9,, quien propone el abandono de la in'estigaci&n % discusi&n de los conceptos relati'os a la conciencia fenomenol&gica, para centrarse en el estudio neurofisiol&gico, buscando con ello cambiar la forma intencional de comprender la mente, por una centrada en su constitu%ente neural# incluso, propone =ort% que as per'i'an los trminos referentes a la mente fenomenol&gica (los trminos mentalistas propiamente hablando, como- desear, querer o intuir,, los estados del sistema ner'ioso seran suficientes para e3plicar % entender la acti'idad humana! /onsideraciones como las precedentes sobre el carcter computacional 4nico de los procesos de conocimiento, la imposibilidad de comprender fen&menos que no sean formulados en trminos de c&mputos sintcticos sobre representaciones, o la futilidad de los estados conscientes, constitu%en un e"emplo de las repercusiones de una e3trapolaci&n de concepciones sintcticoE computacionales a la e3plicaci&n de la mente humana! Esto puede redundar (o degenerar, en teoras confusas sobre los procesos de pensamiento, la 'oluntad % la esencia del conocimiento# pero, un momento, tal parece que el sencillo "uego planteado por Turing ha tenido algunas repercusiones inesperadas# acaso sea menester, hasta donde nos sea posible, plantear las condiciones del tipo de inteligencia que se toma ho% en da como modelo para la e3plicaci&n de la mente! 1a que hemos llegado hasta aqu, 5por qu no hacerlo7 Restricciones fundamentales de la inteligencia artificial 1a e3puestas las singularidades del tema en cuesti&n (qui9 mu% e3tensamente,, mediante la presentaci&n del desafo de Turing, sus consecuencias % posibles respuestas, el contraargumento de la habitaci&n china, las ra9ones de Dofstadter % la alusi&n al nacimiento % temprano desarrollo de la inteligencia artificial, estamos preparados para tratar el tema que 'a a englobar la refle3i&n buscada- las restricciones fundamentales de la inteligencia artificial! :roponemos aqu, las dos siguientes- 1! Jmposibilidad ontol&gica de la identidad de la inteligencia artificial % el pensamiento humano, debido a gnesis dispares! <! Jmposibilidad semntica de la identidad de la inteligencia artificial % el pensamiento humano, debido a categoras conceptuales dispares! $onsideraciones preliminares sobre el sentido y el enga%o En relaci&n con el asunto del acceso al significado en la J!A!, comenta >earle que una de las afirmaciones de los propulsores de la JA fuerte M'ersi&n fuerte de la metfora del ordenadorN es que cuando %o comprendo una historia en ingls, lo que esto% haciendo es ni ms ni menos lo mismo por lo menos apro3imadamente lo mismo que lo que haca al manipular los smbolos chinos (19*+, p! O5*, (recuerda el lector el asunto de los manuscritos chinos, no es cierto,! Este presupuesto de los defensores de la metfora fuerte no es mu% atinado, %a que la ruta del proceso cogniti!o, en el ejemplo de la haitacin china, consiste en una cone&in directa entre sistemas de entrada # salida, o una cone&in que en cualquier caso, no pasa por el almacn de signi%icados# % es que ese es un ata"o cogniti'o no del todo impropio del humano! $os in'estigadores en neuropsicologa cogniti'a AndreT Ellis % AndreT 1oung (199<, refieren posibles cone3iones entre le&icones de entrada % salida que ob'ian el paso por el almacn semntico, ruta tal que si bien en ocasiones es funcional (para la repetici&n de palabras desconocidas o noEpalabras, por e"emplo,, puede constituir una patologa, de ser el 4nico medio usado para la comprensi&n o producci&n del lengua"e! O :ara decirlo en forma sencilla- el recibir % responder preguntas relati'as a una llu'ia 'enidera, en forma coherente e incluso precisa, solo basndose en la estructura de las mismas % no en su significado, no implica considerar el uso de un paraguas en un futuro pr&3imo para e'adir el chaparr&n! Estamos hablando pues de dos tipos de entendimiento distintos- asociati'o % comprensi'o# el 4ltimo abarca al primero, pero no al contrario! Esta cuesti&n de acceso al significado ha obstaculi9ado los a'ances en J!A! de tal forma que se ha considerado dotar a las mquinas de una semntica que analice imgenes % las relacione con estructuras sintcticas, almacenadas en la memoria (>agal, 19*<# >imon % Aaplan, 19*9,! E3iste tambin, en relaci&n con la prueba de Turing, el problema de la mquina enga;ando, haciendo creer que es un humano# % es que este asunto del enga;o no carece de profundidad, %a que presupone la capacidad del que enga;a de comprender, en un ni'el no necesariamente consciente, que los otros poseen representaciones mentales que son esencialmente distintas a la realidad, % que se basan en estas para conducirse# en este sentido, las representaciones del que es enga;ado pueden ser ms o menos acordes a la situaci&n, pudiendo por eso conducirlo a equi'ocaciones en su actuar! Qngel =i'iRre refiere la diferencia entre un enga;o, digamos automtico, como el de algunos animales para despistar a sus enemigos % presas, % uno de tipo tctico (=i'iRre % F4;e9, 199*,! Este se define por su fle3ibilidad % su posibilidad de ser adaptado seg4n la situaci&n % las caractersticas del que se quiere enga;ar! El enga;o noEtctico, entonces, sera infle3ible, predeterminado % no intencional, % sucedera en seres que no poseen la capacidad de reconocer al otro como un ser de e3periencia, falible % guiado por sus representaciones mentales del mundo % de los otros# seres que no poseen la capacidad que usualmente se denomina teor"a de la mente(ToM,! >in intenci&n de entrar en la polmica sobre la ToM, la semntica o el tipo de enga;o que implicara la tctica de una mquina para pasar el desafo de Turing, es obligado hacer notar que hace falta algo ms que coherencia sintctica para poseer pensamiento! &mposibilidad ontolgica de la identidad de la inteligencia artificial y el pensamiento humano debido a g'nesis dispares El estudio de la mente % su anlisis no se agotan en una 'isi&n centrada en las caractersticas actuales de la poblaci&n, representada por unos pocos! 8ebe considerarse, adems, entre otras cosas, la apro3imaci&n filogentica# es decir, el estudio de la mente desde presupuestos e'olucionistas % de adaptabilidad % progresi&n como los que han sido defendidos por la escuela conocida como Fue'a >ntesis (llamada as debido a su concreci&n de teoras cogniti'as con la teora e'olucionista de 8arTin, (Mithen, 199*# :inLer, <001,! 8e acuerdo con las in'estigaciones de esta escuela, la especificidad gentica innata interact4a con las caractersticas ambientales haciendo posible la modificaci&n modular (Iernnde9 % =ui9, 1990,! 8e acuerdo con lo anterior, la mente, incluso, puede haber 'enido mutando de tal forma que recursos que usamos ho% da en un proceso 0, pudiesen ser modificaciones de otros usados originalmente en un proceso 1 (/osmides % Toob%, <00<,! Esta transformaci&n no solo seria filogentica, %a que podra tambin presentarse en forma progresi'a en el transcurso de una 'ida, mediante, por e"emplo, el proceso que AarmiloffE>mith (199O, denominaredescripcin representacional! 8urante este proceso de cambio conceptual, los formatos representacionales, esto es, las formas en que est representado el conocimiento, 'an modificndose hasta alcan9ar ni'eles cu%as caractersticas constitu%entes son dismiles de las de sus predecesores! 8esde otro mbito de la psicologa, se afirma que, dependiendo de la organi$acin de un sistema # de la complejidad de sus relaciones, pueden emerger cualidades que no e&isten por s" solas en los elementos constitu#entes de un conjunto (Morin, 1999,# es decir, las relaciones estructurales % funcionales de un con"unto son ms que la suma de las caractersticas estructurales % funcionales de sus constitu%entes! /uando las cualidades de los componentes interact4an, crean fen&menos que responden especficamente a la dinmica del grupo en que se presentan! En sistemas comple"os, es decir, con gran cantidad de componentes % relaciones, los fen&menos resultantes de la interacci&n de los elementos del grupo pueden generar caractersticas definitorias del propio sistema (es siguiendo esta l&gica que >earle propone a la intencionalidad como propiedad emergente de la biologa humana, % Dofstadter la propone como propiedad emergente de la conformaci&n estructural del organismo,! 8esde estos presupuestos (la modificaci&n modular, la redescripci&n representacional % las propiedades emergentes,, el pensamiento podr"a considerarse como una propiedad emergente del sistema humano en su totalidad, que se ha constituido con el paso del tiempo en lo que es ho#( una cualidad (por nombrarlo de alg4n modo, que responde a las particularidades del homre como especie # a las de la historia que ha transitado! :ara Dofstadter (19*+,, las cualidades intencionales seran caractersticas que emergeran en la mquina de la comple"i9aci&n de sus relaciones funcionales internas! En este sentido, es oportuno aclarar que si la emergencia de cualidades est basada en las relaciones generales que posee un sistema, la aparici&n de las caractersticas especficas presentes en el humano respondera a un largo % comple"o proceso de interacci&n entre sus constitu%entes biol&gicos, culturales % ambientales (entre tantos otros,! Asimismo, las caractersticas que pudiesen emerger de las relaciones de los componentes de las mquinas responderan a las especificidades de su hard*are, su ambiente, su historia %, por supuesto, Usus creadoresV Es en este sentido que el argumento de Dofstadter se queda corto, %a que aun aceptando que la interacci&n de caractersticas en la mquina redundara en la emergencia de propiedades no'edosas, no ha% ninguna ra9&n para suponer que estas seran idnticas a las que han emergido en los humanos a tra's de su historia! >e;ala tambin Dofstadter (19*+, pp! 115E11P,- $o que pasa adems es que los dise;adores humanos 'an a acelerar el proceso e'olucionario al dirigirse en forma deliberada a la meta de crear inteligencia! Este hecho implica que en la e'oluci&n % gnesis de la mquina, a diferencia de la nuestra, la participaci&n de los creadores es clara! >era qui9 insensato ignorar estos factores preponderantes en la aparici&n de las propiedades emergentes en las mquinas, que imposibilitan la identidad del pensamiento humano % la inteligencia artificial desde la constituci&n misma de su esencia! Fo significa esto que las caractersticas que pueda llegar a presentar una mquina, bien sea por su constituci&n o por la relaci&n comple"a de sus componentes, no puedan ser similares en sus efectos o procesos a las humanas# simplemente significa, que no son, o sern, idnticas! :ara lograr un repertorio de caractersticas mentales iguales a las de los humanos, se requerira la creaci&n de un ser con caractersticas constitu%entes iguales a las humanas, % este asunto, por mtodos distintos al tradicional, acaso se nos complicase un poco! &mposibilidad semntica de la identidad de la inteligencia artificial y el pensamiento humano debido a categoras conceptuales dispares :ara Turing, la me"or estrategia que pudiese usar una mquina sera la de intentar el logro de respuestas como las que naturalmente dara un hombre (19*1, p! 2<,# es decir, la mquina debera imitar con precisi&n la conducta 'erbal humana (% e'entualmente tambin las acciones,! >in embargo, imitar implica la irrealidad de lo que imita %rente a lo imitado# 'eamos c&mo! 8e acuerdo con /homsL% (19*0, 19**,, e3iste cierta clase de categoras semnticas innatas, categoras conceptuales predeterminadas en el humano que se etiquetan por medio del lengua"e % significan lo mismo uni'ersalmente# aun siendo nombradas de forma distinta por distintas culturas, estas categoras implicaran la e3istencia de estructuras conceptuales similares en las distintas personas del mundo# de ah lo que este autor denomina 'erdades de significado (19**, p! +5,! Estas !erdades de signi%icado no dependeran de la e3periencia para su constataci&n, es ms, ni siquiera requeriran constataci&n, %a que oficiaran como pilares categoriales del proceso de adquisici&n de conocimiento! Esta idea de conocimientos % categoras preestablecidas en la mente es tambin un presupuesto fundamental para los te&ricos de la modularidad masi'a, quienes refieren, con amplio apo%o emprico, la e3istencia de conocimiento (nociones o preferencias, de tipo fsico, biol&gico, psicol&gico % de otras 'ariadas ndoles! Estos conocimientos estaran presentes en los recin nacidos (o en todo caso a tempransima edad, % constituiran el fundamento para la consolidaci&n del conocimiento! Estos autores afirman, adems, que una categor"a de conocimiento innata al humano le permite distinguir entre seres animados e inanimados o !i!os # no5!i!os(/osmides % Toob% <00<# :inLer, <001,! /on base en este principio % en las !erdades de signi%icado de /homsL% podemos entender las categor"as semnticas de simulacin # simulado como dispares, por el hecho mismo, tan e!idente que se o!ia, de que la simulacin por de%inicin requiere lo simulado para e&istir) su esencia se asa en tratar de ser algo que no es( en aparentar# en otras palabras, la simulaci&n es irreal en el sentido de la realidad de lo que simula- desde estas premisas, la inteligencia arti%icial representa una %antasmagor"a! Aclaremos que ba"o ninguna circunstancia estamos en una discusi&n de trminos de c&mo calificar lingKsticamente la inteligencia artificial# el punto aqu recae en las diferentes esencias del pensamiento humano % el pensamiento artificial, ocupando distintas categoras conceptuales en la clasificaci&n propia de la mente humana# esto debido, entre otras cosas, a que las gnesis de ambas son claramente dispares! Ahora, aunque esta negaci&n de la identidad entre el pensamiento humano % la J!A! pueda parecer 'ana, no lo es# tngase en cuenta que pioneros de la J!A!, como Allen FeTell % Derbert >imon, escriben que el tipo de conocimiento cu%a e3istencia ellos afirman en las computadoras es e3actamente el mismo que el de los seres humanos! (>earle, 19*+, p! OP1,# % no se ol'ide tampoco de las repercusiones que puede traer, % de hecho ha trado, en la concepci&n contempornea de la mente, el for9ado parang&n entre esta % una mquina computari9ada! As que si tomar el pensamiento humano por 4nico, o como el pensamiento por antonomasia, resulta ingenuo, lo es tambin considerar que el pensamiento de las mquinas, en alg4n tramo de su periplo e'oluti'o, resulte ser idntico al nuestro! $a inteligencia artificial llegara con seguridad, si es que no lo ha hecho %a, a superar la prueba de Turing# es de esperar tambin que se logre simular, de alguna forma, la intencionalidad % la conciencia en cerebros de silicio# pero, aun as, las propiedades de estas mquinas no sern las mismas que las nuestras, %a que entre la comple"idad de la interacci&n de sus componentes constituti'os, se contarn factores distintos a los que cuentan en nosotros# el pensamiento de las mquinas, si quiere llamrsele as, 'a a pertenecer, o pertenece, a categoras primordialmente distintas! ()TA* A+ P&E 1! :ara establecer los lmites de un sistema no se puede decir, por e"emplo, que 7 es un elemento ajeno, sin usar el trmino 7, que no pertenece al lengua"e del sistema# por tanto, se deben usar trminos impropios en el proceso de definici&n, imposibilitndosele al con"unto llegar a ser autoE demostrado en su totalidad mediante su propio lengua"e! <! En deferencia al matemtico h4ngaro Gohn 'on Feumann, quien tu'o gran influencia en la creaci&n de los procesos mnmicos computacionales, el so%t*are autoEmodificable, el procesamiento serial % los c&mputos sobre smbolos aplicados a la computaci&n (>imon % Aaplan, 19*9,! +! :or e"emplo, en el caso de Eli9a, una posible respuesta a 82 me odias sera Te gusta pensar que #o te odio, no es cierto, transformando la oraci&n que contiene- 82 me por una preEestablecida que contiene- 7o te, modificando a su 'e9 la con"ugaci&n del 'erbo (/opeland, 199P,! O! =ecordemos que en el modelo de comprensi&n % producci&n del lengua"e presentado por estos acadmicos, el significado de las palabras se encuentra ubicado en un sitio distinto al de la conformaci&n estructuralEortogrfica de las mismas, %a sea en formato 'isual o auditi'o, total que se pueden asociar palabras entre s sin acceder a su significado (Ellis % 1oung, 199<,!