You are on page 1of 3

Habitacin china La habitacin china es un experimento mental, propuesto originalmente por John Searle y popularizado por Roger Penrose,

mediante el cual se trata de rebatir la validez del Test de Turing y 1 de la creencia de que una mquina puede llegar a pensar. Searle se enfrenta a la analoga entre mente y ordenador cuando se trata de abordar la cuestin de la conciencia. La mente implica no slo la manipulacin de smbolos, y adems de una sintaxis posee una semntica.

Descripcion

Searle y la Inteligencia Artificial Fuerte


En 1995, cuando Herbert Simon y Allen Newell Simon escribieron que "Ahora hay 2 mquinas que leen, aprenden y pueden crear" , se trataba de dar a entender que se haba dado una solucin al problema mente-cuerpo. Pero Searle en su texto de "Mentes, Cerebros, Ciencia" ataca este pensamiento, y con el experimento de la Habitacin China muestra cmo una mquina puede realizar una accin sin siquiera entender lo que hace y el por qu lo hace. Por lo tanto segn Searle la lgica usada por las computadoras es nada ms que una que no busca el contenido en la accin como la usada por los seres humanos.

El experimento de la habitacin china


Supongamos que han pasado muchos aos, y que el ser humano ha construido una mquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada que le da un hablante natural de ese idioma, estas entradas seran los signos que se le introducen a la computadora, la cual ms tarde proporciona una respuesta en su salida. Supngase a su vez que esta computadora fcilmente supera la Prueba de Turing, ya que convence al hablante del idioma chino de que s entiende completamente el idioma, y por ello el chino dir que la computadora entiende su idioma. Ahora Searle nos pide que supongamos que l est dentro de ese computador completamente aislado del exterior, salvo por algn tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino. Supongamos tambin que fuera de la sala o computador est el mismo chino que crey que la computador entenda su idioma y dentro de esta sala est Searle que no sabe ni una sola palabra en dicho idioma, pero est equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a "Si entran tal y tal caracteres, escribe tal y tal otros"). De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y as hacer creer a un observador externo que l s entiende chino, aunque nunca haya hablado o ledo ese idioma. Dada esta situacin cabe preguntarse: Cmo puede Searle responder si no entiende el idioma chino? Acaso los manuales saben chino? Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus respuestas) como, un sistema que entiende chino?

De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial fuerte -los que afirman que programas de ordenador adecuados pueden comprender el lenguaje natural o poseer otras propiedades de la mente humana, no simplemente simularlasdeben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el conjunto de componentes supere el test, el test no confirma que en realidad la persona entienda chino, ya que como sabemos Searle no conoce ese idioma.

El argumento de la habitacin china


Esto es as en el contexto de la siguiente argumentacin: 1. Si la Inteligencia Artificial Fuerte es verdadera, hay un programa para el idioma chino tal que cualquier mecanismo que lo ejecute entiende chino. 2. Una persona puede ejecutar mecnicamente un programa para el idioma chino sin entender el idioma chino. 3. Los argumentos de la inteligencia artificial fuerte son falsos porque en realidad el sistema no entiende Chino, nada ms simula entender. Una puntualizacin importante: Searle no niega que las mquinas puedan pensar -el cerebro es una mquina y piensa-, niega que al hacerlo apliquen un programa.

Criticas
El experimento mental de la habitacin china confirmara la premisa 2, a juicio de sus defensores. A juicio de sus detractores, la premisa 2 basada en la inferencia a partir del experimento mental no es concluyente. Las objeciones suelen seguir una de las tres lneas siguientes: Aunque el habitante de la habitacin no entienda chino, es posible que el sistema ms amplio formado por la habitacin, los manuales y el habitante entienda chino. Una persona manipulando signos escritos dentro de una habitacin esttica no es el nico candidato posible para ocupar el puesto de sistema computacional capaz de entender chino. Hay otros modelos posibles: 1. un robot capaz de interactuar con el entorno y aprender del mismo 2. un programa que regule los procesos neuronales involucrados en la comprensin del chino, etc. No hay razn para decir que estos modelos slo exhiben una comprensin aparente, como en el caso de la habitacin y su habitante, pero son modelos de Inteligencia Artificial. Si la conducta de la habitacin no es evidencia suficiente de que entiende chino, tampoco puede serlo la conducta de ninguna persona. Se hace uso de una figura retrica tratando de desfigurar el concepto de entendimiento, ya pues es absurdo decir que la mquina no puede "responder en chino a un hombre" porque "no entiende realmente el chino", para entender de ese modo "se ha de ser capaz de crear la idea en base a la forma conceptual", esa teora de la idea quizs sea algo ms "idealista" que cientfica. En cualquier caso la mente de un hombre se basa en algoritmos ms complejos y ms costosos de procesar que los que actualmente poseen los actuales computadores. Es cuestin de tiempo. La adquisicin de entendimiento (a lo que podemos llamar inteligencia) es un proceso evolutivo, en el cul puede aplicarse diferentes tcnicas y herramientas que conlleven al

individuo a un aprendizaje (en este caso del idioma chino), por lo cul se hace necesario establecer niveles de entendimiento en el tiempo.

Respuestas a los argumentos en contra


Aunque es verdad que el sistema maneja el chino, ste no entiende el idioma, es decir, la persona dentro del cuarto no entiende lo que est haciendo, nada ms lo est haciendo. Por consiguiente, el que un computador maneje un idioma, no significa que ste entienda lo que est haciendo, nada ms significa que est realizando una accin. A su vez, la persona que maneja el chino no slo se puede entender como una persona, lo que trata de mostrar el ejemplo es el cmo las computadoras no entienden lo que manejan y nada ms siguen unas reglas ya determinadas sin tener que entenderlas. La ltima proposicin tiene muchas contradicciones, por ejemplo se sabe que los que estn leyendo estas palabras s entienden el idioma, al contrario de la computadora, que tan solo maneja informacin sintctica (es decir que nada ms manejan una accin, sin contenido propio), los humanos manejamos informacin semntica (con contenido, lo que nos asegura que comprendamos lo que hacemos, ya que le vemos contenido a lo que hacemos). Que un sistema pueda responder a acciones con una accin, no significa que tenga Inteligencia en s mismo, todo lo que hace para responder a las acciones con una accin es inentendible para el, simplemente responde a las acciones con una accin que sucede mediante inferencias, creando relaciones y agrupando, para determinar una conclusin basta y probable de ser errnea. Es hasta ahora imposible poder demostrar lo contrario pues no hay manera de plasmar lo biolgico en una mquina, y lo biolgico es sumamente complejo ms an que lo artificial, lo artificial al crearse es entendible en su totalidad, en cambio hay ciertas partes de lo biolgico que an no se pueden interpretar, tal es el caso de la inteligencia de los seres. El ser humano tiene capacidades que jams podrn ser imitadas por una mquina, simplemente por ser biolgico, natural.

You might also like