La habitación china aparece en un artículo de John Searle denominado "Mentes, cerebros y programas" (Minds, Brains and Programs) en la revista Behavioral and Brain Sciences, en el año 1980. Con este experimento mental, Searle defendió la imposibilidad de crear IA (Inteligencia Artificial) a partir de un programa basado en la computación. Searle distingue entre IA fuerte e IA débil para mostrar dos posiciones distintas que, si bien parten del establecimiento de una analogía entre la mente y los programas computacionales, sus consecuencias son bien distintas: mientras que para la IA débil la computación es una herramienta en el estudio de la mente, para la IA fuerte, un programa computacional es (o puede llegar a ser) idéntico a la mente humana. La habitación china es un intento de reducir al absurdo la teoría de la IA fuerte, sustentada sobre dos pilares básicos:

  • Un enfoque funcionalista según el cual las funciones de la mente humana se pueden simular sin reproducir, necesariamente, las causas físicas que las producen (es decir, el sistema nervioso).
  • Una vertiente conductista, basada en otro experimento mental conocido como test de Turing, cuyas conclusiones sostenían la idea de que para producir inteligencia artificial bastaría con crear una máquina cuyo comportamiento fuera indistinguible del de un agente humano.
De hecho, la habitación china puede leerse específicamente como un intento de refutación de la teoría de Alan Turing.

El juego de imitación

En 1950, Alan Turing escribió un artículo titulado "La maquinaria de computación y la inteligencia" (Computing machinery and Intelligence), donde plasmó su famoso experimento mental llamado "el juego de imitación", y popularmente conocido como test de Turing. En él trató de responder a la pregunta sobre si las máquinas podrían pensar evitando meterse en definiciones esencialistas, abstractas y polémicas sobre la naturaleza de la inteligencia y el pensamiento. Para ello decidió proceder al modo conductista y centrar su atención en lo único que puede ser observado de forma objetiva: la conducta. Lo que el test de Turing evaluaría en este experimento mental que, dicho sea de paso, se puede reproducir en la realidad (y así se ha hecho), es la conducta lingüística de una máquina.

Un observador humano se encuentra en una habitación comunicándose mediante un teletipo (chateando, diríamos hoy) con otro humano situado en otra habitación, y con una máquina instalada en otra estancia simultáneamente. El observador no sabe cuál de los dos interlocutores es humano y cuál no. Debe averiguarlo evaluando la competencia lingüística de ambos. Cuando una máquina pudiera engañar un número estadísticamente significativo de veces al observador humano, estaríamos autorizados, según Turing, a considerar que la máquina piensa o es inteligente.

Turing vaticinó que en un plazo de 50 años, un ser humano no tendría más de un 70% de posibilidades de distinguir a un sujeto humano de una máquina. Esta inquietante profecía no solo no se ha cumplido, sino que algunos programas de software como el test CAPTCHA se basan precisamente en la imposibilidad de superar el test de Turing de los programas computacionales. Se han realizado experimentos donde un programa consigue engañar a un humano, pero nunca satisfacen todas las condiciones del juego de imitación.

La habitación china

Searle se imagina a sí mismo en el interior de una habitación. Se le han suministrado unos manuales donde se especifican determinadas reglas sintácticas del chino escritas en inglés. Searle conoce a la perfección el inglés, pero no sabe nada de chino. Desde el exterior se le suministran textos con preguntas en inglés y en chino, y él proporciona las respuestas. En el caso del inglés, no tiene ningún problema en responder, y en chino, los manuales le proporcionan toda la información necesaria para hacerlo. Podríamos imaginar, dice Searle, que gracias a los manuales nadie notaría que no sabe chino. Esto, sin embargo, no demostraría que comprende dicho idioma.

La tesis de Searle es que, del mismo modo que su conducta lingüística podría transmitir la falsa sensación de que entiende chino, el hecho de que las respuestas de un programa computacional fueran idénticas a las de un ser humano no implicaría que dicho programa comprendiera nada de lo que dice o hace.

En el caso de un programa computacional que parece dar respuestas inteligentes y en el de un agente humano que habla un chino perfecto sin saber lo que dice sucede exactamente lo mismo: se manipulan símbolos formales, relacionados entre sí por relaciones sintácticas, pero vacíos de contenido semántico para el emisor.

Cognición, intencionalidad y semántica

Para Searle, la computación opera únicamente en un nivel sintáctico y, a diferencia de los defensores de la IA fuerte, no cree posible que de esas operaciones simbólicas pueda surgir comprensión semántica (relativa al contenido de esos símbolos). Searle no cree posible que un programa computacional puede desarrollar intencionalidad, una condición necesaria para que se den estados cognitivos como la comprensión. La intencionalidad es la propiedad mediante la cual determinados estados mentales se dirigen hacia, o versan sobre, objetos del mundo exterior. Hablamos de creencias, deseos, intenciones, etc. Pero Searle afirma que de la computación de una secuencia de símbolos formales, solo se deriva otra secuencia de símbolos formales inferidos mediante determinadas reglas. Nada más.

Las réplicas al experimento de la habitación china

"Mentes, cerebros y programas" fue publicado con las réplicas de veintisiete investigadores de la ciencia cognitiva y las contrarréplicas de Searle a los principales argumentos. El filósofo esquiva la mayor parte de las objeciones debido a que, o bien no constituyen una refutación de la tesis del artículo, o entran en contradicción con los supuestos de los que parte el funcionalismo desde el cual se le plantean las críticas.

Las conclusiones de la habitación china se han seguido discutiendo y se han planteado objeciones que ciertamente no carecen de sentido (como las de Paul y Patricia Churchland, por ejemplo). En la actualidad, la IA ha abandonado la idea de crear inteligencia de la nada y se esfuerza en encontrar las claves del aprendizaje humano para reproducirlas, una idea que ya estaba presente en Turing. Solo el tiempo revelará si Searle estaba o no en lo cierto respecto a la IA.