La inteligencia artificial (IA) ha progresado y se ha desarrollado rápidamente en los últimos años. Hoy en día tenemos ordenadores, teléfonos y otros tipos de hardware que muestran habilidades e inteligencia que hacen que los humanos en algunos aspectos parezcan primitivos.1 Debido al rápido progreso de esta tecnología, muchos postulan que la IA puede volverse hasta consciente, y que las implicaciones pueden socavar las narrativas religiosas. Si la IA puede llegar a ser consciente, entonces podría haber una explicación física de lo que nos hace humanos.2

El concepto del alma en el Islam, conocido como rūḥ en árabe, es algo sobre lo que tenemos poco conocimiento revelado. Sin embargo, sí que podemos afirmar que se trata de algo “invisible”, que proviene de una realidad trascendente. Teniendo en cuenta la perspectiva fisicalista, si el alma, que es la cosa inmaterial que mueve el cuerpo, pudiese ser reemplazada por algo físico, la religión estaría socavada.

El fisicalista puede argumentar que la conciencia y la capacidad de experimentar estados conscientes subjetivos (también denominados estados fenoménicos) pueden explicarse mediante la inteligencia artificial. La conciencia se vuelve análoga a un programa de ordenador. Sin embargo, existe una diferencia entre una IA débil y una IA fuerte. La IA débil se refiere a la capacidad de un sistema informático para mostrar inteligencia. Esto puede incluir responder ecuaciones matemáticas complejas o vencer a varios oponentes en una partida de ajedrez en menos de una hora. La IA fuerte se refiere al hecho de que los sistemas informáticos sean realmente conscientes. En otras palabras, tener la capacidad de experimentar estados conscientes subjetivos, lo que incluye dar significado a las cosas. La IA débil es posible y ya se ha desarrollado. Sin embargo, una IA fuerte es no es posible de alcanzar. Las razones de ello son las siguientes.

La primera razón, que es más un punto general, es que los ordenadores no son sistemas independientes que tienen la capacidad de razonar. Para que algo pueda ser caracterizado como consciente implica que tenga una fuente independiente de pensamiento racional. Sin embargo, los ordenadores (y los programas informáticos) fueron diseñados, desarrollados y fabricados por seres humanos que son independientemente racionales. Por lo tanto, los ordenadores son solo una prolongación de nuestra capacidad de ser inteligentes. William Hasker lo explica con estas palabras:

“Los ordenadores funcionan como lo hacen porque han sido construidos por seres humanos dotados de una percepción racional. En otras palabras, un ordenador es simplemente una extensión de la racionalidad de sus diseñadores y usuarios; no puede llegar ser una fuente independiente de pensamiento racional, de la misma manera que un televisor no puede llegar a ser una fuente independiente de noticias y entretenimiento”.3

La segunda razón es que los humanos no solo son inteligentes, sino que su razonamiento tiene intencionalidad. Esto significa que nuestro razonamiento trata sobre algo o de algo y que está asociado con un significado.4 Por el contrario, los programas de ordenador no se caracterizan por tener significado. Los sistemas informáticos simplemente manipulan símbolos. Para el sistema, los símbolos no tratan sobre algo o de algo; todo aquello que los ordenadores pueden “ver” no son más que los símbolos que están manipulando, independientemente de lo que nosotros podamos pensar sobre los símbolos. Los programas informáticos se basan simplemente en reglas sintácticas (la manipulación de símbolos), no semánticas (significado).

Para comprender la diferencia entre semántica y sintaxis, observa las siguientes oraciones:

  • I love my family.
  • αγαπώ την οικογένειά μου.
  • আমি আমার পরিবারকে ভালবাসি.

Estas tres frases significan lo mismo: Amo a mi familia. Esto refiriéndose a la semántica, el significado de las oraciones. Pero la sintaxis es diferente. En otras palabras, los símbolos utilizados son diferentes. La primera oración utiliza “símbolos” en inglés, la segunda en griego y la última en bengalí. A partir de esto se puede desarrollar el siguiente argumento:

  1. Los programas informáticos son sintácticos (basados ​​en la sintaxis);
  2. Las mentes tienen semántica;
  3. La sintaxis por sí misma no es suficiente para la semántica, ni es constitutiva de esta;
  4. Por lo tanto, los programas informáticos por sí mismos no son mentes.5

Imagina que una avalancha, de alguna manera, organiza las rocas que caen de las montañas formando las palabras “Amo a mi familia”. Querer afirmar que la montaña sabe lo que significa la disposición de las rocas (símbolos) sería insostenible. Esto indica que la mera manipulación de símbolos (sintaxis) no da lugar a significado (semántica).

Los programas informáticos se basan en la manipulación de símbolos, no en el significado. Del mismo modo, yo no puedo saber el significado de la oración en bengalí simplemente manipulando las letras (símbolos). No importa cuántas veces manipule las letras en bengalí, no llegaré a entender el significado de las palabras. Es por ello que para la semántica necesitamos más que simplemente tener la sintaxis correcta. Los programas informáticos funcionan con sintaxis y no con semántica. Los ordenadores no conocen el significado de nada.

El experimento mental de la habitación china de John Searle es un ejemplo sólido para mostrar que la mera manipulación de símbolos no conduce a la comprensión de lo que significan:

“Imagina que estás encerrado en una habitación y en la habitación hay varias cestas llenas de símbolos chinos. Imagina que tú (como yo) no entiendes ni una palabra de chino, pero te dan un libro de reglas en inglés para manipular los símbolos chinos. Las reglas especifican la manipulación de símbolos de manera puramente formal, en términos de su sintaxis, no de su semántica. Entonces, una de las reglas podría decir: “Saque el garabato fulanito de la canasta número uno y colóquelo junto al garabato fulanito de la canasta número dos”. Ahora suponga que algunos otros símbolos chinos son introducidos en la habitación y le dan más reglas para así poder devolver símbolos chinos fuera de la habitación. Suponga que, sin que usted lo sepa, los símbolos que entran en la sala son llamados ‘preguntas’ por las personas que están fuera de la sala, y que los símbolos que devuelve fuera de la sala se llaman ‘respuestas a las preguntas’. Suponga además que los programadores son tan buenos en el diseño de programas y que además tú eres tan bueno manipulando los símbolos, que muy pronto tus respuestas serán indistinguibles de las de un hablante nativo chino. Y ahí estás tú encerrado en la habitación barajando tus símbolos chinos y repartiendo símbolos chinos en respuesta a los símbolos chinos entrantes… El propósito de la historia es que, desde el punto de vista de un observador externo, según la implementación del programa de ordenador formal, te comportas exactamente como si entendieras chino, pero la verdad es que no entiendes ni una palabra.”6

En el experimento mental de la Habitación China, la persona dentro de la habitación está simulando un ordenador. Otra persona está manejando los símbolos de una manera que hace que la persona que hay dentro de la habitación parezca entender chino. Sin embargo, la persona de la habitación no entiende el idioma; simplemente imita ese estado (de comprensión). Searle concluye:

“Tener los símbolos por sí mismos- solo tener la sintaxis- no es suficiente para tener la semántica. El mero manejo de símbolos no es suficiente para garantizar el conocimiento de lo que significan ”. 7

El objetor podría responder a esto argumentando que, aunque el programa de ordenador no conoce el significado, el sistema sí que lo conoce. Searle ha llamado a esta objeción “la respuesta del sistema”.8

Sin embargo, ¿por qué razón sabemos que el programa no conoce el significado? La respuesta es simple: es porque no tiene capacidad de asignar significado a los símbolos. Dado que un programa de ordenador no puede asignar significado a los símbolos, ¿cómo puede un sistema de ordenador, que depende del programa, comprender el significado? No se puede producir comprensión solo teniendo el programa correcto. Searle presenta una versión ampliada del experimento mental de la habitación china para mostrar que el sistema en su conjunto no puede entender el significado: “Imagina que memorizo el contenido de las cestas y el libro de las reglas, y hago todos los cálculos en mi cabeza. Incluso puedes imaginarte que lo hago fuera (de la habitación), al aire libre. En realidad, no hay nada en el ‘sistema’ que no esté en mí, y como yo no entiendo chino, tampoco lo hace el sistema”.9

Lawrence Carleton postula que el argumento de la habitación china de Searle no es válido. Sostiene que el argumento de Searle comete la falacia que se conoce como la ‘negación del antecedente’. Carleton sostiene que Searle comete la falacia porque “no se nos da ninguna evidencia de que solo haya una forma de producir intencionalidad”.10 Afirma que Searle está asumiendo que solo los cerebros tienen los procesos necesarios para manejar y comprender los símbolos (intencionalidad), y los ordenadores no. Carleton presenta la falacia de la siguiente manera:

“Decir, ‘Ciertos equivalentes de procesos cerebrales producen intencionalidad’ y ‘X no tiene esos equivalentes’, por lo tanto, ‘X no tiene intencionalidad’, es cometer la falacia académica ‘negación del antecedente’”.11

Sin embargo, Dale Jacquette sostiene que Searle no comete la falacia académica, ya que podemos aceptar que una interpretación del argumento de Searle es:

“Si X es (intrínsecamente) intencional, entonces X tiene ciertos equivalentes de procesos cerebrales”.12

Jacquette cree que el argumento de Searle es una concesión al funcionalismo. Argumenta que los funcionalistas “sostienen que no hay nada especial en el protoplasma, por lo que cualquier materia organizada adecuadamente, que instancia el programa de entrada-salida correcto, duplica la intencionalidad de la mente” .13 Searle puede también parecer que admite que las máquinas podrían tener la capacidad de entender chino. Sin embargo, afirma que “veo argumentos muy sólidos para decir que no podríamos decir tal cosa de una máquina, ya que el funcionamiento de la máquina se define únicamente en términos de procesos informáticos sobre elementos formalmente definidos …”14

Si los ordenadores no pueden dar significado a los símbolos, ¿a qué tipo de máquina consciente se refiere Searle? Incluso si se postulara un robot (algo que Searle rechaza), aún presentaría problemas insuperables. Las máquinas se basan en “procesos informáticos sobre elementos formalmente definidos”. Parece que la mera posibilidad de que una máquina tenga comprensión (atribuyendo significado a los símbolos) requeriría algo más que los procesos y elementos antes mencionados. ¿Existe tal máquina? La respuesta es no. ¿Podrían existir? Si pudieran, probablemente no se describirían como máquinas, ya que se requeriría algo más que “procesos computacionales sobre elementos formalmente definidos”.

Según Rocco Gennaro, muchos filósofos están de acuerdo con la opinión de Searle, sobre que los robots no pueden tener una conciencia fenomenal.15 Algunos filósofos argumentan que, para construir un robot consciente, “la experiencia cualitativa debe estar presente”16, algo sobre lo que son pesimistas. Otros explican este pesimismo con las siguientes palabras:

“Explicar la conciencia es explicar cómo esta apariencia interna subjetiva de información puede surgir en el cerebro, por lo que crear un robot consciente sería crear una apariencia interna subjetiva de información dentro del robot … no importa cuán avanzado sea, probablemente no hará que el robot llegue a ser consciente, ya que las apariencias internas fenomenales también deben estar presentes. ”17

La IA no puede dar significado a los símbolos, simplemente los manipula de formas muy complejas. Por lo tanto, nunca habrá una versión sólida de IA. En conclusión, la religión no se puede ver socavada.

 

Glosario:

Transcendente: Que está más allá de los límites de cualquier conocimiento posible.

Fisicalismo: El fisicalismo es la tesis metafísica que sostiene que la conciencia puede reducirse o ser idéntica a los procesos físicos. El fisicalismo también es una doctrina filosófica sobre la naturaleza de lo real, que afirma que lo que existe es exclusivamente físico, incluido lo mental o el “alma”. El fisicalismo es una forma de monismo y está relacionado íntimamente con el materialismo y el naturalismo.

Fenoménicos: Perteneciente o relativo al fenómeno como apariencia o manifestación de algo.

Análoga: Que tiene analogía (relación de semejanza entre cosas distintas) con algo.

Percepción: Sensación interior que resulta de una impresión material hecha en nuestros sentidos. Conocimiento, idea.

Constitutiva: Que forma parte esencial o fundamental de algo y lo distingue de los demás

Falacia: Engaño, fraude o mentira con que se intenta dañar a alguien.

Intrínsecamente: Intrínseco: Íntimo, esencial.

Funcionalismo: Doctrina sociológica y antropológica que considera que la sociedad está constituida por partes que funcionan para mantener el conjunto y en la que el mal funcionamiento de una parte obliga al reajuste de las otras.

Lingüística: Conjunto de corrientes lingüísticas según las cuales los elementos lingüísticos se definen en virtud de su función en el sistema lingüístico.

Protoplasma: Sustancia celular que comprende el citoplasma y el núcleo. Citoplasma: Región celular comprendida entre la membrana plasmática y el núcleo, con los órganos celulares que contiene.

Subjetivo: Perteneciente o relativo al modo de pensar o de sentir del sujeto, y no al objeto en sí mismo.

Socavar: Debilitar algo o a alguien, especialmente en el aspecto moral.

 

Autor: Hamza Andreas Tzortzis

Traductor:  Sh. Mohammad Idrissi

Articulo tomado de Sapience Institute

 

Referencias:

1 El fisicalismo es la visión de que la conciencia puede reducirse, explicarse o ser idéntica a los procesos físicos de alguna manera.

2 En la filosofía de la mente, fisicalismo o materialismo son términos sinónimos, aunque tienen historias y significados diferentes cuando se usan en otros dominios del conocimiento.

3 Hasker, Hasker. Metaphysics (Downer’s Grove, IL: InterVarsity, 1983), 49; also see “The Transcendental Refutation of Determinism,” Southern Journal of Philosophy 11 (1973) 175–83.

4 Searle, John, Intentionality: An Essay in the Philosophy of Mind. (Cambridge: Cambridge University Press, 1983), p. 160.

5 Searle, John. (1989). Reply to Jacquette. Philosophy and Phenomenological Research, 49(4), 703.

6 Searle, John. (1984) Minds, Brains and Science. Cambridge, Mass: Harvard University Press, pp. 32–33.

7 Searle, John. (1990) Is the Brain’s Mind a Computer Program? Scientific American 262: 27.

8 Ibid, 30.

9 Ibid.

10 Carleton, Lawrence (1984). Programs, Language Understanding, and Searle. Synthese, 59, 221.

11 Ibid.

12 Jacquette, Dale. “Searle’s Intentionality Thesis.” Synthese 80, no. 2 (1989): 267.

13 Ibid, 268.

14 Searle, John. (1980b) Minds, Brains, and Programs. Behavioral and Brain Sciences 3, 422.

15 Gennaro, Rocco. Consciousness. (London: Routledge, 2017), p. 176.

16 Ibid.

17 Ibid.