John R Searle (Spanish) PDF

John Searle: 20 años encerrado en la «Habitación China» Mario Moro Hernández* Departamento de Psicología Básica Universi

Views 79 Downloads 5 File size 163KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

John Searle: 20 años encerrado en la «Habitación China» Mario Moro Hernández* Departamento de Psicología Básica Universidad Autónoma de Madrid

RESUMEN El filósofo de la mente John R. Searle ha ido deslizando en diversas publicaciones, durante los últimos 20 años, un argumento contra lo que se conoce como Inteligencia Artificial «fuerte» que ha pasado a la literatura psicológica con el nombre de «la Habitación China». Dicho argumento ha resultado especialmente prolijo tanto en críticas como en alabanzas. De hecho, el propio Searle (1997) se jacta de haber contabilizado hasta 100 réplicas a su argumento desde 1980 hasta 1997. Desde luego, es un argumento que ha ofrecido una válvula de escape a aquellos psicólogos y filósofos de corte constructivista-naturalista-realista para atacar aquellas posiciones de carácter más funcionalistacomputacional. En este artículo ofrezco un análisis del argumento de Searle señalando algunas de las debilidades que muestra. Lo que me mueve a centrarme en la metáfora de la «Habitación China» es continuar analizando algunos de los mitos fundacionales de la psicología cognitiva. Del mismo modo que ya analicé la máquina de Turing (Moro, 2002a; 2002b), en esta ocasión quiero centrarme en el mito anti-computacional que ha tenido más impacto en psicología y filosofía de la mente. Por supuesto, no es el único, ni el mejor (otras posturas anti-computacionales se pueden encontrar, por ejemplo, en Lucas, 1972 o Penrose, 1989; 1994).

* El autor quiere agradecer a Eduardo Moro Martín su inestimable colaboración en la tarea de transcripción del presente artículo, durante su convalecencia de un accidente deportivo. Para cualquier contacto con el autor referido a este artículo, dirigirse a Mario Moro Hernández. E-mail: [email protected]

Introducción Después de haber analizado la posible visión conceptual de la máquina de Turing en psicología y el uso meramente retórico de la misma dentro de los manuales de psicología cognitiva —y, de soslayo, también en los de historia de la psicología— (Moro, 2002a; 2002b), en esta ocasión, me voy a centrar en el análisis de otro de los mitos fundacionales (cf. Castro, Jiménez, Morgade y Blanco, 2001) de la cultura computacionalista en psicología: la Habitación China, de John R. Searle. La motivación que me lleva a centrarme ahora en el argumento esgrimido por este autor, el cual es sobradamente conocido, es ofrecer una reflexión más acerca de la viabilidad, plausibilidad, coherencia y en definitiva validez epistemológica del mismo como crítica a las perspectivas computacionales dentro de la psicología y la filosofía de la mente. Porque, si bien es cierto que hay que analizar las perspectivas positivas que favorecen ciertos puntos de vista —i. e., estudiar en profundidad la máquina de Turing y la Teoría de la Computación para legitimar las perspectivas cognitivas computacionales y del Procesamiento de la Información—, no es menos cierto que también hay que tener en cuenta aquellos argumentos que ponen en peligro, bien sea real o aparente, la viabilidad y validez de dichos puntos de vista. Sin duda, la mejor forma de validar determinado punto de vista es atender a los críticos. El argumento de la Habitación China aparece por primera vez en 1980 en el número 3 de The Behavioral and Brain Sciences y desde entonces Searle ha ido deslizándolo por diversas publicaciones a lo largo de los últimos veinte años (p. e., Searle, 1982; 1984; 1989;1990; 1992; 1997). Resulta bastante llamativo cómo este autor no tiene ningún reparo en «sacarse de la manga» el as que corona su obra en las más diversas situaciones y contextos. A pesar de ello y a pesar del tiempo, lo más llamativo de todo es que el argumento es el mismo en todas las ocasiones. De este modo, el objetivo del artículo es analizar el argumento searliano mostrando sus debilidades y comprobar cómo, a pesar del paso del tiempo, Searle lo mantiene invariable.

El argumento de John Roger Searle John R. Searle propone el argumento de la Habitación China por primera vez en 1980 a propósito de una disgresión sobre la comprensión significado de las producciones lingüísticas motivada por los avances que se estaban dando en Inteligencia Artificial. Desde 1965 se estaba investigando la posibilidad de lograr una interacción hombre-máquina al estilo de la que mantienen los seres humanos entre sí, mediante la creación de programas que podían mantener conversaciones más

o menos coherentes con interlocutores humanos. En concreto, él cita como ejemplos el SHRDLU de Terry Winograd (1973) y el ELIZA de Joseph Weizenbaum (1965) si bien, en su artículo, afirma que va a centrarse en el trabajo de Roger Schank y sus colegas de Yale (cf. Schank y Abelson, 1977). En realidad, el tema de fondo que recorre el artículo es si se puede afirmar que estos programas comprenden las entradas que le introduce el hombre y, en funciónde las mismas, contestan; lo cual implica que dichos programas tienen un acceso al significado o si, por el contrario, las respuestas que dan a esas entradas se elaboran en función de ciertos parámetros sintácticos. Esto indicaría que las máquinas no son sensibles al significado. La primera de estas opciones es la defendida por aquellos autores que se identifican con lo que Searle llama «Inteligencia Artificial fuerte» (o IA fuerte). Dichos autores sostienen que los computadores digitales tienen capacidades cognitivas similares a las humanas, entre las cuales estaría el acceso al significado. Searle, sin embargo, sostiene el segundo punto de vista, que niega que el ordenador tenga capacidad cognitiva alguna. Aún existe una postura intermedia, que Searle denomina «Inteligencia Artificial débil» (o IA débil). Respecto a ésta última, que se correspondería con la metodología de simulación, sostiene que es igual de útil para el estudio de la mente que la simulación para el estudio de la meteorología, y no la tiene en cuenta para nada. Ahora bien, ¿por qué alguien es capaz de atribuir capacidades cognitivas a un ordenador? La respuesta hay que buscarla en el artículo de 1950 «Computing Machinery and Intelligence», escrito por Alan M. Turing. En él se propone un procedimiento que ha pasado a ser conocido como el «test de Turing». La prueba consiste en encerrar a una persona en una habitación sin otro medio de comunicación con el exterior que un dispositivo de consola, como puede ser un teletipo. Esta persona mantiene una conversación con dos interlocutores, uno humano y el otro máquina. En el momento en que la persona del interior no logre discernir entre uno cuál de ellos es el ordenador y quién la persona, entonces Turing dice que tiene que atribuirse al comportamiento de la máquina las mismas cualidades que al comportamiento humano. Por supuesto, Turing argumenta de un modo muy elaborado esta tesis; pero para los objetivos del presente trabajo basta con describir estas líneas maestras, ya que el argumento de la Habitación China es una parodia del test de Turing, como el mismo John Searle reconoce (p. e., 1997). Lo que este autor propone es muy sencillo: Supóngase una habitación con dos ranuras como única comunicación con el exterior. Dentro de ella hay una persona encerrada, inicialmente el propio Searle, hablante competente de un idioma, en este caso inglés, pero que desconoce totalmente el chino. Además, hay una pila con

caracteres chinos y un libro que contiene reglas de cómo han de unirse los distintos caracteres en función de las secuencias escritas en chino que entran en la habitación. Este libro de reglas está escrito en el idioma en el que la persona del interior es competente. Una vez expuestas las condiciones iniciales, hay que señalar que un hablante chino introduce secuencias de ideogramas que conforman preguntas. Una vez que las preguntas entran, el individuo del interior devuelve otras secuencias en chino que son respuestas a las preguntas que entran. Para formar dichas secuencias, lo que hace es utilizar el libro de reglas.

Con estos elementos Searle sostiene que aunque la persona del interior pueda ofrecer respuestas en chino que sean comprensibles para un hablante chino y coherentes con las preguntas que se introducen en la habitación, de ahí no se sigue que la persona del interior comprenda el chino del mismo modo que comprende la lengua en la que es competente. Por tanto, que un programa sea capaz de pasar el test de Turing no significa que éste, por sí mismo, tenga estados mentales, intencionalidad, acceso al significado ni habilidad cognitiva alguna. Este es, en esencia, el argumento con el que John R. Searle dice borrar de un plumazo cualquier atisbo de viabilidad de la IA fuerte como ciencia de estudio de la mente —y de paso, cualquier postura derivada como el funcionalismo— (p.e., Searle, 1980; 1984; 1990a; 1990b; 1997).

Las debilidades del argumento de John Roger Searle Es evidente que un argumento que ha cosechado más de cien críticas durante veinte años, como el propio Searle reconoce haber respondido, debe tener algo que falla. Es ahora el momento de centrarse en algunos de los puntos débiles que muestra la Habitación China para ver si es tan válido como dice su autor. La primera objeción que se me ocurre hacer es de tipo más bien formal, de diseño. La Habitación China pertenece a esa herramienta tan socorrida y frecuente en la filosofía analítica del experimento mental. Los experimentos mentales son diseños en los que debido a la naturaleza de las hipótesis a contrastar, es imposible realizar el diseño empírico. Ejemplos de experimentos mentales son la Tierra gemela de Hilary Putnam, el gato de Schrödinger, el mismo test de Turing... La Habitación China también es un experimento de este tipo. Por supuesto que si lleváramos a la práctica el diseño, una persona tardaría unas cuantas de sus vidas simplemente para localizar en el libro de reglas el primer símbolo que formaría la respuesta que tiene que dar. Sin embargo, mi crítica no va por ese camino.

Cuando se revisan todos los artículos en los que Searle saca a relucir la Habitación China, la descripción de las condiciones experimentales es lo único que permanece constante. Sin embargo, ni los motivos que le llevan a recuperar el argumento ni las conclusiones a las que llega son siempre los mismos. Por ejemplo, en «Minds, Brains and Programs» la discusión que se dispone a abordar Searle es: «¿Qué significación psicológica y filosófica debemos otorgar [attach] a los recientes esfuerzos en la simulación de las capacidades cognitivas humanas?» (1980; p. 417). En 1984 Searle retoma el argumento de la Habitación China en la segunda de sus conferencias, dentro de las Reith Lectures de la BBC de ese año, titulada «¿Pueden los computadores pensar?». En esta ocasión, Searle pretende resolver el problema mente-cuerpo a través de la necesidad de un cerebro para que haya mente. Aquí es la primera vez que expone los cuatro axiomas derivados de la Habitación China. Seis años más tarde, a invitación de Scientific American, en 1990, participó en un debate sobre Inteligencia Artificial con los Churchland. Para este número escribió un artículo titulado «Is the Brain’s Mind a Computer Program?» cuyo objetivo era nuevamente responder a la pregunta «¿Puede pensar una máquina?» (Searle, 1990a; p. 10 de la v. e.) Sin embargo, ese mismo año publica «Is the Brain a Digital Computer?», su discurso presidencial de la American Philosophical Association. En esta ocasión, Searle trae el argumento para responder a la pregunta «¿Es la mente un programa informático?» (1990b; p. XXX), aunque el propósito del artículo sea discutir el postulado inicial del modelo computacional que dice que «la mente es al cerebro lo que el software es al hardware» (ibid.). Aunque lo más relevante de «Is the Brain a Digital Computer?» es que aparecería ampliado en el libro que Searle escribió en 1992: The Rediscovery of the Mind. Respecto a la Habitación China, en este libro concluía que tal argumento «concedía demasiado al computacionalismo» (Searle, 1997; p. 120). Pero la pregunta a la que trata de responder en esta ocasión es la misma que aquella a la que trató de responder dos años antes, en 1990. Ni que decir tiene que, cuando retoma el argumento en su libro The Mistery of Conciousness (1997), los motivos que lo llevan a rescatarlo son otros completamente distintos; a saber, abordar el problema de la conciencia y la imposibilidad de hacerlo a través de la elaboración de teorías computacionales. Con esto pretendo únicamente ilustrar el hecho de la variabilidad de los contextos en los que Searle recurre a la Habitación China. Por supuesto, hay casos en los que puede resultar pertinente utilizarlo, como «Minds, Brains and Programs». Sin embargo, hay otras ocasiones en las que este

argumento es completamente accesorio –e incluso, arbitrario– como es el caso de The Mistery of Conciousness. Por otro lado, las conclusiones a las que llega Searle tras enunciar el argumento de la Habitación China son siempre las mismas, aunque en cada ocasión son diferentes. Me explico. Searle expone las características diferenciales entre los ordenadores y los cerebros, algo que a partir de 1984 lo enuncia a través de cuatro axiomas: 1. Los cerebros causan las mentes. 2. La sintaxis no es suficiente para la semántica. 3. Los programas de computador están definidos enteramente por su estructura formal o sintáctica. 4. Las mentes tienen contenidos mentales; específicamente, tienen contenidos semánticos.

A su vez, extrae cuatro conclusiones, que son: Conclusión 1. Ningún programa de computador es suficiente por sí mismo para dar un sistema, una mente. Los programas, dicho brevemente, no son mentes y no son suficientes por sí mismos para tener mentes. Conclusión 2. El modo en que las funciones del cerebro causan las mentes no puede ser solamente en virtud de pasar un programa de computador. Conclusión 3. Cualquier otra cosa que cause las mentes tendría que tener poderes causales equivalentes (al menos) a los del cerebro. Conclusión 4. Para cualquier artefacto que pudiéramos construir que tuviese estados mentales equivalentes a los estados mentales humanos, el desarrollo de un programa de computador no sería suficiente por sí mismo. Más bien, el artefacto tendría que tener poderes equivalentes a los del cerebro humano.

De este modo, en 1980, Searle llega a la conclusión: «La cuestión es que la capacidad causal del cerebro para producir intencionalidad no puede consistir en su implementación [to instantiating] en un programa de ordenador, desde el momento en que para cualquier programa que usted quiera es posible implementar dicho programa para algunas cosas y aún no tendrá ningún estado mental. Sea lo que sea que hace que el cerebro produzca intencionalidad, no puede

consistir en la implementación de un programa, puesto que ningún programa, por sí mismo, es suficiente para la intencionalidad» (p. 458). En 1984 la conclusión que extrae es: «Los estados mentales son fenómenos biológicos. La conciencia, la intencionalidad y la causación mental son todas ellas partes de nuestra vida biológica, junto con el crecimiento, la reproducción, la secreción de la bilis y la digestión» (p. 48 de la v. e.). Por otro lado, en 1990a, dice: «Lo que importa es que la simulación no es lo mismo que la duplicación, y ese hecho reviste igual importancia, ya se trate de pensar en la aritmética o de sentir angustia. La clave no está en que el ordenador apenas llegue a medio campo y no a la puerta contraria. Está en que el ordenador ni siquiera hace el saque; no está jugando a ese juego» (p. 16 de la v. e.). En 1990b, la conclusión a la que llega es que el cerebro no realiza procesamiento de la información. Así sostiene que: «El cerebro en lo que concierne a sus operaciones intrínsecas no procesa información. Es un órgano biológico específico y sus procesos neurobiológicos específicos causan formas de intencionalidad específicas. En el cerebro, de modo intrínseco, hay procesos neurobiológicos que algunas veces causan conciencia. Pero esto es el final de la historia» (p. XXX). Similar conclusióncabe esperar en The Rediscovery of the Mind, mientras que en The Mistery of Conciousness Searle termina diciendo que: «La conciencia está causada por la conducta de microelementos del sistema nervioso y se realiza en estructuras de esos sistemas nerviosos. La conciencia no es reductible al modo como se pueden reducir otras propiedades biológica porque tiene una ontología de primera persona. Lo que esto quiere decir es que la conciencia existe sólo cuando se experimenta como tal [...] de modo que podemos, y en realidad debemos, conceder la irreductibilidad de la conciencia sin pretender que se trata de algo que, de uno u otro modo, anda metafísicamente aparte de nuestro mundo físico real» (1997, pp. 191-192 de la v. e.). Por tanto, el diseño de la Habitación China es inaceptable desde un punto de vista metodológico. Aunque se trate de un experimento mental, en todo los casos debería permanecer constante, tanto la hipótesis inicial como la interpretación final de los resultados, puesto que desde un punto de vista experimental la réplica de un experimento debe mantener constante no sólo las condiciones experimentales sino también las hipótesis y la interpretación de resultados de acuerdo con esas hipótesis. Esto es algo que creo haber dejado bien claro que no ocurre.

Es cierto que él siempre dice que la Inteligencia Artificial fuerte no es viable, y tras la aplicación del experimento de la Habitación China lo demuestra. Sin embargo, el hecho es que Searle empieza a hablar de un tema. Entonces, y tras preparar el terreno mediante comentarios la mayoría de las veces irrelevantes y absurdos, relaciona el tema que está tratando con la IA fuerte. Es en ese momento cuando saca a relucir la Habitación China, para terminar sacando las más diversas conclusiones, sobre los más diversos temas, derivadas directamente de la inviabilidad de la IA fuerte. De este modo, Searle habla de la intencionalidad, la conciencia, los qualia, el significado... Pero esta estrategia es análoga a la siguiente. Supongamos un investigador que realiza un experimento sobre discriminación de estímulos visuales. Cuatro años después, pretende estudiar la discriminación de estímulos auditivos. Para ello, recupera el experimento que realizó sobre estímulos visuales y en funciónde los resultados de entonces, elabora toda una explicación de cómo se produce la discriminación de los estímulos auditivos, ya que, según este supuesto investigador, él está tratando de explicar la discriminación perceptiva. Por supuesto que esto es del todo inaceptable, pero es lo que lleva haciendo Searle durante más de 20 años. Esta sería pues mi primera objeción. Una segunda objeción al argumento de la Habitación China es que Searle comete ciertos errores de tipo conceptual. El más grave de todos es que no atiende a la diferencia que supone la ejecución de un algoritmo y la implementación de un algoritmo en un soporte físico (Alonso, s. f.). Es decir, que a pesar de que Searle diga en repetidas ocasiones que el soporte físico no es importante para la posibilidad de la existencia de cognición (p. e., Searle, 1980; 1984; 1990a; 1997), lo cierto es que su argumentación siempre termina concluyendo que únicamente un soporte biológico específico, a saber, el sistema nervioso central, es capaz de producir mente. Según la postura de Searle, la cognición es una propiedad emergente del cerebro causada por procesos biológicos específicos y, como tal, no puede ser implementada en otro soporte distinto a él. Ahora bien, en Teoría de la Computación hay una tesis, la tesis de Church, según la cual cualquier función recursiva es efectivamente computable. En la práctica esto significa que cualquiera que sea la función computable que se quiera calcular, ésta puede ser calculada mediante cualquier procedimiento efectivo diseñado para ello. Es decir, que independientemente del modelo computacional que esté utilizando —por ejemplo, algoritmos de Markov, cálculo λ de Church o las funciones recursivas por minimalización de Kleene—, el resultado será equivalente al que se obtendría utilizando otro modelo, como pueden ser las funciones Turing computables. Esta relación de equivalencia que establece la tesis de Church para los distintos modelos de Teoría de la Computción es también aplicable en el caso de la Habitación China del siguiente modo.

La IA parte del supuesto de que los distintos procesos mentales son computacionales de manera que, aunque no se conozca la forma en la que están constituidos, un programa de ordenador cuyos productos sean iguales a los de un determinado proceso mental es equivalente a ese proceso mental. ¿Qué se extrae de aquí? Ni más ni menos que la ejecución de un algoritmo no depende del soporte físico en el que se implementa. Una tercera objeción a Searle se deriva de la crítica que hacen los Churchland en su artículo «Could a Machine Think?» (1990). En él sostienen que el argumento de la Habitación China no es válido puesto que reclama desde el inicio una petición de principios ligada al segundo axioma searliano que dice: «La sintaxis no es suficiente para la semántica» y que contiene dentro de sí la conclusión 1, «Ningún programa de computador es suficiente por sí mismo para dar un sistema, una mente. Los programas, dicho brevemente, no son mentes y no son suficientes por sí mismos para tener mentes». Lo que dicen los Churchland es que Searle no puede concebir que un sistema artificial puramente sintáctico sea capaz de conseguir «los mismos estados cognitivos y los mismos logros que hallamos en los seres humanos» (p. 21 de la v. e.). Searle defiende que la semántica es un componente de la conciencia y, como tal, no puede ser implementado en un ordenador. Sin embargo, parece claro que un requisito esencial de la semántica es que los símbolos sean los adecuados —i. e. estén bien construidos de acuerdo con una gramática—. Esta circunstancia conlleva la necesaria intervención de la sintaxis, que guía la construcción de dichos símbolos. De este modo la semántica está cimentada sobre la sintaxis y las reglas que la rigen, de cuya aplicación depende que se genere un significado, que se genere otro diferente o ninguno. En efecto, y a pesar de lo que diga Searle, un ordenador maneja cierto grado de semántica desde el momento en el que no todas las señales que se le introducen son válidas para producir respuestas, sino sólo aquellas que respetan las reglas. Hasta aquí, el argumento no es muy divergente respecto a lo que plantea la Habitación China. Sin embargo, esta línea de razonamiento que estoy señalando se refiere al nivel del hardware y a un nivel muy bajo de software —en el cuál, no podríamos hablar de programas—. Un programa, aunque puede estar escrito en ensamblador o código máquina directamente, normalmente está escrito en un lenguaje de programación —lenguajes de alto nivel— los cuáles «poseen un léxico (vocabulario o conjunto de símbolos permitidos), una sintaxis, que indica cómo realizar construcciones del lenguaje, y una semántica que determina el significado de cada construcción correcta» (Prieto-Espinosa et al., 2002; p. 519). Esta acotación sobre los lenguajes de programación indica que los ordenadores sí son sensibles a la semántica. Por lo menos a la de las órdenes que constituyen los programas. Pero aún hay

más. Un programa de ordenador puede ser tan sensible a la semántica como lo es un niño que está adquiriendo su lengua materna. En la actualidad es completamente plausible diseñar programas que sean capaces de solicitar información y almacenarla, para hacer un uso posterior de la misma, según las demandas externas. Esto no es más que una descripción muy superficial de lo que es un sistema experto. Por tanto, un programa de este tipo, en efecto, reconoce secuencias de símbolos de manera sintáctica. Pero una vez que las pasa por el filtro sintáctico, el programa pasa dichas secuencias por un segundo filtro semántico, que determinará si la secuencia simbólica que está entrando se corresponde semánticamente con información ya almacenada; y si no se corresponde con nada que tenga ya almacenado, al igual que hacen los niños pequeños cuando ven u oyen por primera vez una palabra, el programa solicitará la información que necesite para dotarla de significado. En este caso, queda claro que el programa es sensible al significado. La pregunta que cabe hacerse ahora es muy simple, ¿un programa que en función de la información que recibe del exterior, y que dependiendo de esa información y la que ya posee, adapte sus respuestas no puede ser constitutivo de una mente? Según Searle, no. Pero, ¿no es esto mismo lo que hace la mente humana? Según yo lo veo, sí. Y esto, no es ni más ni menos que lo que enuncia el cuarto axioma: «Las mentes tienen contenidos mentales; específicamente, tienen contenidos semánticos». Por tanto, si a un programa de este tipo se le introduce la información adecuada, también tendrá los contenidos semánticos que reclama Searle como contenidos mentales. Y si el programa contiene contenidos mentales, es evidente que tiene que ser una mente. Pero esto deja de lado la cuestión fundamental de si la sintaxis puede ser constitutiva de la semántica. En este sentido, no me queda más remedio que alinearme con los Churchland y decir que posiblemente no, pero no se puede rechazar de antemano la posibilidad de que pueda ser así (vid. Churchland y Churchland, 1990). Esta tercera objeción a la Habitación China abre paso a una cuarta que escuece a Searle especialmente: la Habitación China se asienta sobre una posición dualista. Searle rechaza de plano que sea así (p. e., Searle, 1980;1990a; 1997). Y esto es del todo esperable teniendo en cuenta que Searle se define a sí mismo como un naturalista biológico —lo cual no pasa de ser una postura materialista—. Sin embargo, la Habitación China basa su «potencia» en la actuación de los programas a nivel de hardware. Esto es muy fácil de ver. La persona que está en el interior de la habitación, en realidad, lo que está haciendo es seguir unas reglas que le permiten sacar al exterior unas secuencias ideográficas que un nativo chino sí que entiende. Sin embargo, estas reglas no comportan ningún programa, puesto que el programa de la Habitación China lo constituyen, en realidad, las instrucciones

que se le dan al individuo sobre lo que tiene que hacer dentro de la habitación. Las reglas que contiene el libro serían, haciendo el símil con los ordenadores, los indicadores de las direcciones a través de las cuáles discurre la información dentro de la habitación. De este modo, el papel del libro de reglas es el de «unidad de control» y, en concreto, el de «decodificador de instrucciones» y «decodificador de direcciones». Es decir, el libro se encarga de controlar la actuación de la CPU, que estaría formada por la habitación, el individuo que está en su interior y el libro de reglas. Su tarea fundamental sería, por un lado, interpretar el contenido del registro de instrucciones —i. e., las reglas que contiene el propio libro— y generar las señales adecuadas para ejecutar la instrucción —i. e., señalar al individuo qué símbolos tiene que seleccionar como salida—. Por otro lado se encarga de interpretar la dirección en el registro de direcciones de la memoria RAM y selecciona la posición de memoria a la que debe acceder —i. e., da al individuo la posición del ideograma que tiene que coger y dónde tiene que colocarlo en la secuencia que saca—. Según se acaba de ver, el individuo, dentro de la habitación, no es más que una pieza de hardware. En concreto, responde al concepto de «unidad de tratamiento» y más exactamente al de «Unidad Aritmético-Lógica» (ALU). Es decir, Searle reserva al individuo el papel de realizar las operaciones matemáticas, las operaciones lógicas y comparaciones. Evidentemente, en el caso de la Habitación China, no hay operaciones matemáticas posibles. Sin embargo, la actuación del individuo no es más que la resolución de un condicional «...si... entonces...» y una de las tareas de éste, como buena ALU, consiste en hacer comparaciones entre los distintos ideogramas posibles para hallar las respuestas adecuadas. Por tanto, decir que la persona no comprende el chino es lo mismo que decir que una neurona no comprende chino, esto es evidente. La posición dualista de la Habitación China se manifiesta en la atribución de las propiedades del software al hardware y pretender que éste funcione según principios que no le corresponden. De hecho, cuando Searle imputa la cualidad de programa al libro de reglas, está violando la distinción hardware-software de manera deliberada para así poder atacar las posiciones funcionalistas y de la IA «fuerte». Éstas mantienen que el nivel de análisis adecuado para la descripción de la actuación de un sistema es un plano funcional independiente del plano físico de ese sistema. Resumiendo, en el argumento de Searle el análisis se ciñe al plano del hardware. Sin embargo, todas las conclusiones y argumentos que él asegura desbancan el proyecto de la IA «fuerte» están situadas en el plano del software aunque él lo enmascara de tal modo que parece que estuviera moviéndose siempre en un único plano.

Discusión final y conclusiones Rebatir un argumento tan enraizado en la cultura psicológica contemporánea como es la «Habitación China» no es fácil. Más aún cuando el argumento es defendido contra viento y marea por su autor durante dos décadas a pesar de las críticas continuas y, algunas de ellas, feroces. En concreto, me viene a la mente la crítica de Daniel Dennett publicada en The New York Review of Books respondiendo a la reseña que Searle hacía de su libro The Consciousness Explained. En dicha respuesta, Dennett decía cosas como «Searle no tiene un programa de investigación. se limita a defender un conjunto de verdades de andar por casa. Éstas le llevan de paradoja en paradoja, pero hasta que no responda a los críticos que ponen esto de manifiesto, ¿quién sabe?» (Dennett, 1995?; reproducido en Searle, 1997; p. 113 de la v. e.). De hecho la idea del presente trabajo surgió precisamente después de leer esta crítica de Dennett y comprobar que es cierto que Searle lleva veinte años diciendo lo mismo. La lectura de los artículos en los que Searle expone el argumento de la Habitación China provocan la sensación de entrar en un bucle en el que parece que el tiempo se hubiera detenido. Así, después de leer cada uno de ellos, parece que Searle los hubiera escrito todos a la vez y hubiera ido dosificando su publicación. Esto podría explicar el porqué de la reiteración en el argumento sin atender a esas «más de cien» críticas. El objetivo que me planteé al comienzo era rebatir el argumento de la Habitación China para engrosar esa cuenta de Searle. En ese sentido creo que el objetivo ha sido conseguido, aunque es cierto que me hubiera gustado penetrar en más debilidades que muestra este mito fundacional del «anticognitivismo». Por un lado, creo haber dejado claro que la Habitación China, viola los principios fundamentales del método científico al no tener perfectamente definido el campo de aplicación ni las hipótesis que el experimento ha de verificar o rebatir. De otra parte, considero haber dejado patente uno de los principales errores conceptuales en los que Searle incurre. No es lo mismo ejecutar un algoritmo que el soporte que lo ejecuta. El razonamiento que acompaña a esta crítica se basa en una objeción de Alonso (s. f.), aunque llevada desde el terreno de la lógica al de la psicología. Esta objeción abre el camino a las dos siguientes. La tercera objeción que planteo hace hincapié en el error de considerar que un programa no puede disponer de un componente semántico. Creo haber dejado bien claro que esto, no sólo no es cierto, sino que además se está llevando a cabo desde hace algunos años. De este modo el axioma searliano que afirma que sólo las mentes tienen contenidos semánticos es falso. Lo cual basta por sí solo para desestimar la teoría que soporta el argumento de la Habitación China.

Finalmente, he señalado cómo este argumento hace gala de un dualismo que desde la postura epistemológica en la que está situado Searle es inaceptable. Esto lo he demostrado poniendo de manifiesto cómo en realidad los elementos que se ponen en juego dentro de la Habitación China —i. e., los ideogramas, el libro de reglas y el individuo del interior— serían componentes físicos, hardware; mientras que todas las conclusiones a las que da paso el experimento se sitúan en el plano mental, software. Esto desecha también por sí mismo cualquier credibilidad hacia alguien que sin dudarlo dos veces rechaza de un modo excesivamente beligerante el dualismo que acompaña a la posiciones funcionalistas y de la Inteligencia Artificial. Por tanto no cabe más que decir que el argumento de la Habitación China, que tanto gusta utilizar a aquellos que rechazan el funcionalismo y todo lo que éste conlleva, es inconsistente y falaz. En modo alguno pone en peligro el programa funcionalista, a pesar de que Searle lleve más de veinte años pensando y diciendo lo contrario.

Referencias bibliográficas Alonso E. (s.f.) Curso de lógica y computabilidad. Madrid: manuscrito no publicado. Castro, J., Jiménez, B., Morgade, M. y Blanco, F. (2001) La función de los mitos fundacionales en la promoción de una identidad disciplinar para la psicología. Valencia: Revista de Historia de la Psicología. Churchland, P. M. y Churchland, P. S. (1990) «Could a Machine Think?». Scientific American, 262, 1, 32-39 (versión española, 1990, «¿Podría pensar una máquina?». Investigación y ciencia, 182, 3, 18-24). Lucas, J. R. (1972) The freedom of will. Oxford: Oxford University Press. Moro, M. (2002a) Dos platos distintos para una receta. Perversiones de la máquina de Turing en la historia de la psicología contemporánea. Madrid: manuscrito no publicado. Moro, M. (2002b) Palabras, palabras, palabras... ¿y qué? un análisis retórico de la máquina de Turing en la literatura psicológica española (1982-1995). Madrid: manuscrito no publicado. Penrose, R. (1989) The Emperor’s New Mind:Concerning Computers, Minds, and the Laws of Physics. Oxford: Oxford University Press (v. e., 1991, La nueva mente del emperador.

Barcelona: Grijalbo-Mondadori). Penrose, R. (1994) Shadows of the Mind: A Search for de Missing Science of Consciousness. Oxford: Oxford University Press (v. e., 1996, Las sombras de la mente. Barcelona:GrijalboMondadori). Schank, R. C. y Abelson, R. P. (1977) Scripts, Plans, Goals and Understanding. Hillsdale, New Jersey: Lawrence Erlbaum Press. Searle, J. R.(1980) «Minds, Brains and Programs». The Behavioral and Brain Sciences, 3, 417- 458. Searle, J. R. (1984) Minds, Brains and Science. The 1984 Reith Lectures. Cambridge, Mass.: Hardvard University Press. (V. e., cuarta edición, 2001, Mentes, cerebros y ciencia. Madrid: Cátedra). Searle, J. R.(1989) «Reply to Jacquete». Philosophy and Phenomenological Research, XLIX, 701708. Searle, J. R.(1990a) «Is the Brain’s Mind a Computer Program». Scientific American, 262, 1, 26 31 (versión española, 1990, «¿Es la mente un programa informático?». Investigación y ciencia, 182, 3, 10-16). Searle, J. R.(1990b) «Is the Brain a Digital Computer?». Discurso presidencial de la American Philosophical Association. Fuente desconocida. Searle, J. R.(1992) The Rediscovery of the Mind. Cambridge: Cambridge University Press (versión española, 1994, El descubrimiento de la mente, Barcelona: Grijalbo). Searle, J. R. (1997) The Mystery of Conciousness. New York: New York Review of Books (versión española, 2000, El misterio de la conciencia. Intercambios con Daniel C. Dennett y David J. Chalmers. Barcelona: Paidós). Turing, A. M. (1950) «Computing Machinery and Intelligence», Mind, 59, 236. (v. e., 1985, «¿Puede pensar una máquina?» En Turing, A., Putnam, H. y Davidson, D. Mentes y máquinas. M. Garrido (comp.). Madrid: Tecnos). IMPORTANTE: El presente texto fue presentado en formato póster en el XVI Symposium de la Sociedad Española de Historia de la Psicología (SEHP) celebrado en Sevilla del 2 al 5 de abril de 2003. El autor quiere dejar claro que en aquel momento presentó este trabajo bajo el amparo del Departamento de Psicología Básica de la Facultad de Psicología de la Unviersidad Autónoma de Madrid puesto que era el centro en el que estaba cursando sus estudios de Psicología. En aras de evitar cualquier conflicto, D. Mario Moro Hernández quiere comunicar explícitamente su NO PERTENENCIA al organigrama de la Facultad de Psicología de la Universidad Autónoma de Madrid.