Traducido por el equipo de SOTT.net

Es el 5 de julio de 2024, y América y Europa son escenarios de una guerra cultural total entre la élite progresista posmoderna que domina Occidente y la resistencia populista insurgente. Esta guerra cultural se ha extendido a todas las facetas de nuestras vidas; al menos en Estados Unidos, es prácticamente imposible ver una película, leer un cómic, encender la televisión o escuchar a un cómico sin verse enfrentado a la guerra cultural.
Terminator
© Sony Pictures Releasing CIS
Mientras esta guerra cultural se libra en nuestros televisores y teléfonos móviles, otra guerra, una guerra real, está teniendo lugar, entre el Océano Mundial y la Isla Mundial, entre América y sus aliados por un lado, y China y sus aliados por otro. Las dos potencias dominantes aún no han entrado directamente en guerra, pero sus aliados en Ucrania y Rusia están librando una guerra casi total con un número de bajas similar al de la Primera Guerra Mundial. Ambos bandos han decretado que se trata de una lucha existencial, y amenaza con estallar en la Tercera Guerra Mundial en cualquier momento. Si lo hace, se manifiesta la posibilidad de una destrucción termonuclear global.

Lo extraordinario de la posibilidad de la Tercera Guerra Mundial es que, incluso si no nos aniquilamos a nosotros mismos, podría ser la última guerra mundial librada por seres humanos. La cuarta guerra, la Guerra Mundial 100, podría ser librada por la IA. La Inteligencia Artificial ya ha empezado a transformar la sociedad, y muchos de los científicos, ingenieros y académicos que trabajan en este campo creen que esto es sólo el principio de un tsunami de aprendizaje de las máquinas que será tan enorme que la IA, tarde o temprano, prácticamente sustituirá a la humanidad.

Voy a dar por sentado que estos expertos en IA están técnicamente en lo cierto sobre lo que se avecina, y a explorar las ramificaciones filosóficas de ello. Hay muchas razones por las que podrían estar equivocados sobre el futuro de la tecnología de IA, pero para nuestros propósitos de hoy vamos a suponer que tienen razón sobre la línea de tendencia tecnológica.

Pesimistas y optimistas

Ante la perspectiva de la sustitución de la humanidad por la IA, los pensadores pueden dividirse vagamente en "pesimistas" y "optimistas".

Los "pesimistas" creen que la sustitución de la humanidad por la IA sería algo malo y, por tanto, que la IA representa un riesgo existencial para la humanidad. Quizá el más destacado de los pesimistas sea Eliezer Yudkowsky, fundador de la comunidad racionalista Less Wrong (Menos Equivocados) e investigador del Machine Intelligence Research Institute (Instituto de Investigación sobre Inteligencia Artificial). Yudkwosky argumenta ampliamente en Twitter que el desarrollo de una IA superinteligente provocará la extinción de la humanidad si (como es probable) se optimiza accidentalmente para objetivos que no están alineados con la existencia humana. Esto se conoce como el problema de la alineación, y es un problema muy real para el aprendizaje automático basado en redes neuronales.

En el extremo opuesto se encuentran pensadores "optimistas" como Hugo de Garis y Nick Land. Estos hombres están de acuerdo en que la IA podría llevar a la extinción humana, pero a diferencia del pesimista Yudkowsky et. al, ¡lo acogen como una buena situación! De Garis es quizás el principal exponente de la visión optimista. Así lo explica:
La cuestión es si la humanidad debe construir máquinas divinas, masivamente inteligentes, llamadas "artilectos" (intelectos artificiales), que las tecnologías del siglo XXI harán posibles, y que tendrán capacidades mentales billones de billones de veces por encima del nivel humano. La sociedad se dividirá en dos (posiblemente tres) grandes grupos filosóficos... El primer grupo es el de los "Cosmistas" (basados en la palabra Cosmos) que están a favor de construir artilectos. El segundo grupo es el de los "Terranos" (basado en la palabra Terra, la tierra) que se oponen a la construcción de artilectos, y el tercer grupo es el de los "Cyborgs", que quieren convertirse ellos mismos en artilectos añadiendo componentes artilectuales a sus propios cerebros humanos.
De Garis no es inconsciente del riesgo que ve Yudkowsky. De hecho, da por sentado que se producirá el peor de los casos según Yudkowsky:
La cuestión de la "dominación de las especies" [derivada del conflicto entre los grupos] dominará nuestra política mundial este siglo, dando lugar a una gran guerra que matará a miles de millones de personas...

Creo que se avecina una guerra gigantesca a finales de este siglo por la cuestión de los artilectos.
¿Por qué querrían los humanos construir artilectos (también conocidos como IAs superinteligentes) si eso supondrá nuestra aniquilación? De Garis debatió con el profesor Kevin Warwick sobre esta misma cuestión. De Garis explica:
Kevin [Warwick] cree que los artilectos no deberían construirse nunca. Son demasiado arriesgados. Nunca podremos estar seguros de que puedan volverse contra nosotros una vez que alcancen un estado avanzado de inteligencia masiva. Yo, en cambio... Creo que la humanidad debería construir estas supercriaturas divinas con capacidades intelectuales billones de billones de billones de veces por encima de nuestros niveles. Creo que sería una tragedia cósmica si la humanidad congelara la evolución en el enclenque nivel humano. [énfasis añadido]
El filósofo Nick Land, creador del concepto de la Ilustración Oscura y fundador (junto a Curtis Yarvin) del movimiento que se conoció como Neoreacción, ha expresado sentimientos similares. De hecho, Yudkowsky señala las similitudes en su análisis del pensamiento de Nick Land:
[El Aceleracionismo de Land] es similar en espíritu al cosmismo, como filosofía contra el humanismo, detallado en The Artilect War (La guerra de los artilectos, 2005), de Hugo de Garis. Sin embargo, la idea básica es simple. Están los Terranos, o los humanistas, que prefieren mantener a los humanos bajo control, y están los Cosmistas, que quieren mantener el progreso de la expansión de la inteligencia, y cumplir una especie de destino cósmico...
En palabras del propio Land:
El deseo maquínico puede parecer un poco inhumano, ya que desgarra las culturas políticas, borra las tradiciones, disuelve las subjetividades y hackea los aparatos de seguridad, rastreando un tropismo sin alma hasta el control cero. Esto se debe a que lo que aparece ante la humanidad como la historia del capitalismo es una invasión desde el futuro por parte de un espacio inteligente artificial que debe ensamblarse a sí mismo enteramente a partir de los recursos de su enemigo...

Nada humano logra salir del futuro cercano.
Tanto Hugo de Garis como Nick Land son considerados pensadores de derechas, mientras que Yudkowsky está, por supuesto, más alineado con el pensamiento de izquierdas (o al menos con la Tribu Gris, como diría Scott Alexander). Sin embargo, la división entre las facciones "Terran" y "Cosmist" no es estrictamente de izquierda-derecha. El globalista progresista Yuval Noah Harari ha defendido el potencial positivo de la IA para crear entidades que sean enormemente diferentes de los seres humanos actuales, lo que llevaría a la aparición de una nueva especie en una era posthumana que desplazaría a los "comedores inútiles" del mundo.

¿Tienen razón? ¿Será sustituida la humanidad por la IA? Y si es así, ¿deberíamos acoger la sustitución como una evolución cósmica del pensamiento? Para responder a esta pregunta, tenemos que examinar la teoría filosófica de la mente que subyace a su visión del mundo.

La Teoría Computacional de la Mente

Una cosa que Land, de Garis, Harari y Yudkowsky tienen en común es una creencia implícita en la Teoría Computacional de la Mente (TCM).

La TCM postula que los procesos cognitivos son de naturaleza computacional, de modo que la mente puede entenderse como un sistema que procesa información como un ordenador. La versión de Hilary Putnam de la TCM, a veces denominada Teoría Computacional Clásica de la Mente o TCCM, es la más conocida. Ha recibido algunas críticas en los 50 años transcurridos desde su desarrollo, pero creo que sigue siendo lo más parecido a una teoría "dominante" de la mente.

La TCCM sostiene que si podemos replicar los procesos computacionales del cerebro humano, podemos, en principio, crear una inteligencia artificial que posea cognición y conciencia humanas o incluso sobrehumanas. Preste atención: Posee, no emula, no simula, sino posee. Como explica la Enciclopedia Stanford de Filosofía,
La TCCM no pretende ser metafórica. La TCCM no sostiene simplemente que la mente es como un sistema informático. TCCM sostiene que la mente es literalmente un sistema informático. Por supuesto, los sistemas informáticos artificiales más conocidos están hechos de chips de silicio o materiales similares, mientras que el cuerpo humano está hecho de carne y hueso. Pero la TCCM sostiene que esta diferencia oculta una similitud más fundamental, que podemos captar mediante un modelo computacional al estilo de Turing.
Para resumir la visión del mundo de, por ejemplo, Hugo De Garis, podríamos decir:
  1. La difusión de mentes superiores por todo el cosmos es el bien supremo.
  2. Las mentes humanas no son más que sistemas informáticos. No hay nada "especial", "espiritual" o "metafísico" en la mente humana.
  3. Las máquinas artificialmente inteligentes son sistemas informáticos superiores.
  4. Por lo tanto, las máquinas de IA tienen mentes superiores.
  5. Por lo tanto, debemos extender las IAs por todo el cosmos, incluso si eso significa que seamos reemplazados.
Y por favor, tenga en cuenta que esta no es una posición puramente teórica. Tengo varios amigos cercanos en la industria de la IA, y la idea de que nos reemplazaremos y deberíamos reemplazarnos a nosotros mismos por la IA está lo suficientemente extendida como para ser bastante alarmante para aquellos de nosotros que sentimos afecto por la humanidad. "Estamos creando la siguiente etapa en la evolución de la vida inteligente", dirán con una sonrisa, y provocando la destrucción de la etapa actual: nosotros.

Ahora bien, para ser claros, uno no tiene que suscribir la TCM para creer que la IA podría suponer una amenaza existencial para la humanidad. Por ejemplo, yo rechazo la TCM pero reconozco que un potente sistema de aprendizaje automático podría destruirnos a todos accidentalmente simplemente por el hecho de que se le otorgue demasiado poder en conjunción con una desalineación de sus valores.

Pero me parece imposible ser optimista sobre nuestra sustitución a menos que se suscriba la TCM. Si uno cree que la mente humana tiene algo de especial -que de alguna manera somos algo más que ordenadores de carne y hueso-, entonces nuestra sustitución por la IA sería una tragedia de proporciones existenciales, por muy "inteligentes" que fueran las IA.

¿Es la mente humana un ordenador?

Hagamos una pausa aquí e introduzcamos el pensamiento de otra gran mente: Roger Penrose. En sus libros The Emperor's New Mind (La nueva mente del emperador, 1989) y Shadows of the Mind (Sombras de la mente, 1994), Penrose sostiene que la mente humana no es una máquina de Turing, es decir, que la teoría computacional de la mente no es correcta.

Para defender sus argumentos, Penrose se basó en los teoremas de incompletitud de Gödel, que afirman que en cualquier sistema formal consistente capaz de expresar aritmética elemental existen enunciados verdaderos que no pueden demostrarse dentro del sistema. Penrose argumenta que los matemáticos humanos pueden ver la verdad de estas afirmaciones indemostrables, lo que sugiere que el entendimiento humano trasciende los sistemas formales.

A partir de ahí, Penrose concluye que el pensamiento y el entendimiento humanos no son algorítmicos. Sostiene que la mente humana puede comprender y resolver problemas que no pueden ser abordados por ningún proceso algorítmico, lo que implica que la cognición humana no puede ser plenamente capturada por las máquinas de Turing (que operan con algoritmos). Como él mismo explica:
La verdad matemática no es algo que determinemos simplemente mediante un algoritmo. Nuestra conciencia es un ingrediente crucial en nuestra comprensión de la verdad matemática. Debemos "ver" la verdad de un argumento matemático para estar convencidos de su validez.

Si podemos ver [a partir del teorema de Gödel] que el papel de la conciencia es no algorítmico cuando se forman juicios matemáticos, donde los cálculos y las pruebas rigurosas constituyen un factor tan importante, entonces seguramente podemos estar persuadidos de que tal ingrediente no algorítmico podría también para el papel de la conciencia en circunstancias más generales (no matemáticas)...
Los libros de Penrose tienen ya tres décadas y han sido discutidos a favor y en contra por muchos grandes pensadores. Mucho más recientemente, sin embargo, el legendario Federico Faggin (inventor tanto de las tecnologías de compuerta de silicio como de los microprocesadores comerciales) ha expuesto puntos de vista bastante similares a los de Penrose. En su libro Irreductible, de 2022, Faggin escribe lo siguiente:
La verdadera inteligencia no consiste sólo en la capacidad de calcular y procesar datos, que en muchos casos las máquinas pueden hacer mucho mejor que nosotros, sino que es mucho más. La verdadera inteligencia no es algorítmica. Es la capacidad de comprender... La verdadera inteligencia es intuición, imaginación, creatividad, ingenio e inventiva... Las máquinas nunca podrán hacer estas cosas.

Un ejemplo de aprendizaje automático es cuando enseñamos a un ordenador a reconocer una taza a partir de su imagen visual. Para aprender esa tarea es necesario disponer de una muestra representativa de imágenes de tazas, denominada conjunto de entrenamiento, y de un programa que realice la simulación de una red neuronal artificial debidamente estructurada que encuentre automáticamente una jerarquía de rasgos comunes (correlaciones estadísticas) que estén presentes en todas las tazas que forman parte del conjunto de entrenamiento. Cuando el programa ha aprendido las correlaciones existentes en las numerosas imágenes cuyo nombre es "taza", también puede reconocer una taza en una imagen que no formaba parte del conjunto de entrenamiento. En este punto parece que la red neuronal "entiende" lo que es una taza... pero el programa aún no puede comprender lo que significa "taza". De hecho, un experto podría crear muchas imágenes sintéticas que el ordenador etiquetaría erróneamente como tazas cuando nosotros comprenderíamos inmediatamente que no son tazas...

Es precisamente aquí donde reside el misterio de la comprensión, ya que los saltos intuitivos que proporciona la conciencia van mucho más allá de lo que puede lograrse con el aprendizaje automático.

Mientras que las redes neuronales artificiales requieren muchos ejemplos antes de poder generalizar, podemos aprender a reconocer y comprender conscientemente con sólo uno o unos pocos ejemplos, porque los aspectos intuitivos no algorítmicos de la conciencia están siempre operativos con nosotros.
Tanto Penrose como Faggin son científicos, no filósofos, por lo que no dedican mucho tiempo a proporcionar su propia teoría filosófica de la mente, prefiriendo en su lugar centrarse en los mecanismos físicos por los que una conciencia no algorítmica podría emerger del cerebro a través de procesos cuánticos.

Afortunadamente, Penrose y Faggin nos han proporcionado suficiente información para integrar su argumento en una filosofía de la mente más amplia.

La Teoría Noética de la Mente

En mayo de 2023 escribí The Rarity of Noesis (La rareza de la noesis). Ese artículo afirma la existencia de una facultad intelectual filosóficamente largamente olvidada, diversamente llamada insight, noesis, nous o intellectio. La facultad noética de la mente humana es la que nos permite captar los primeros principios o verdades fundamentales de la realidad.

Cuando el estadístico y superblogger William M. Briggs leyó ese artículo, me recomendó que leyera An Aristotelian Account of Induction (Un relato aristotélico de la inducción), de Louis Groarke. Lo he terminado recientemente (simultáneamente con Irreductible; de ahí este artículo) y a él nos dirigimos ahora.

Afortunadamente, el Statistician to the Stars (Estadístico de las Estrellas) ya ha escrito un resumen del pensamiento de Groarke mejor de lo que yo podría hacerlo. Según [el resumen de Brigg de] Groarke, Aristóteles definió cinco niveles de inducción. Estos son, en orden de certeza, de más a menos certeza: (1) inducción-intelección, (2) inducción-intuición, (3) inducción-argumento, (4) inducción-analogía, y (5) la más familiar inducción-probabilidad. Briggs las resume como sigue:
(1) La inducción-intelección es la "inducción propiamente dicha" o "inducción estricta". Es la que toma "datos" de nuestros sentidos limitados y finitos y proporciona "los principios más básicos de la razón..." La inducción-intelección produce "Abstracción de conceptos necesarios, definiciones, esencias, atributos necesarios, primeros principios, hechos naturales, principios morales." De este modo, la inducción es una forma superior de razón que la mera deducción, que es algo casi mecánico. El conocimiento proporcionado por la inducción-intelección viene completo y no puede deducirse: es el conocimiento más seguro que tenemos.

(2) La inducción-intuición es similar a la inducción-intelección. "Opera a través de la astucia, un poder general de discernimiento de la sagacidad" y proporciona el conocimiento de "cualquier semejanza o similitud, la noción general de pertenencia a una clase, cualquier discernimiento de igualdad o unidad..." Esta forma de inducción nos proporciona las reglas fundamentales de la lógica. Observamos que nuestra madre está ahora en esta habitación y ahora no, y a partir de ahí inducimos el principio de no contradicción, que no puede demostrarse de ninguna otra manera. Ningún universal puede ser conocido excepto inductivamente porque nadie puede nunca sentir cada cosa. El lenguaje existe, y funciona, gracias a la inducción-intuición.

(3) La inducción-argumentación, dada por silogismos inductivos, es la "forma más rigurosa de inferencia inductiva" y proporciona un conocimiento de "propiedades o principios esenciales o necesarios (incluido el conocimiento moral)". Un ejemplo es cuando un físico se niega a realizar un experimento con el electrón número 2 porque ya ha realizado el experimento con el electrón número 1, y afirma que todos los electrones son idénticos. La inducción-argumento puede proporcionar certeza condicional, es decir, verdad condicional.

(4) La inducción-analogía es la forma de inducción menos rigurosa pero más familiar (en la vida cotidiana) y proporciona conocimiento de "Lo que es plausible, contingente o accidental; conocimiento relativo a convenciones, asuntos humanos." Esta forma de inducción explica los chistes de abogados (¿Cuál es la diferencia entre un buen abogado y un mal abogado? Un mal abogado hace que tu caso se alargue durante años. Un buen abogado hace que dure aún más).

(5) La inducción-probabilidad, por supuesto, es el tema de la mayor parte de este libro. Proporciona conocimientos sobre "Rasgos accidentales, frecuencia de propiedades, correlaciones en poblaciones" y cosas por el estilo. Es, como bien sabe cualquiera que lea estas palabras, la más propensa al error. Pero el error no suele estar en no ver las correlaciones y confundir propiedades accidentales con esencias, sino en describir mal las causas, en confundir correlación con causalidad aunque todo el mundo conozca la advertencia en contra de ello.
La inducción-intelección y la inducción-intuición, tal como las describen Briggs y Groarke, no son más que los componentes de la facultad noética sobre la que he escrito, la facultad de la percepción directa, noesis, nous o intellectio.

Inducción-intelección e inducción-intuición son también las facultades que, según Roger Penrose, tienen los humanos y no los ordenadores. Cuando Penrose escribe que "debemos 'ver' la verdad de un argumento matemático para estar convencidos de su validez", está argumentando que los matemáticos deben aprehender el argumento noéticamente.

Asimismo, la inducción-intelección y la inducción-intuición son precisamente las facultades que explican el "misterio de la comprensión" de Faggin, donde "las redes neuronales artificiales requieren muchos ejemplos antes de poder generalizar, [pero] podemos aprender a reconocer y comprender conscientemente con sólo uno o unos pocos ejemplos."

Así, Penrose y Faggin, en su crítica a la teoría computacional de la mente, están utilizando implícitamente la olvidada teoría de la inducción que Aristóteles elucidó por primera vez hace unos 2.375 años, que Groarke y Briggs han revivido en su trabajo, y que yo he utilizado para apoyar el mío.

Si Aristóteles, Groarke, Briggs y yo estamos en lo cierto sobre la existencia de las facultades noéticas, y Penrose y Faggin están en lo cierto sobre la IA, entonces la inteligencia artificial es inferior a la inteligencia humana porque carece de facultades noéticas. No se trata en absoluto de inteligencia artificial (intellectio), sino sólo de racionalidad artificial (ratio). La IA puede razonar, pero no alcanzar la perspicacia.

Consideremos un ejemplo famoso del campo del reconocimiento de imágenes, que es un tipo de IA discriminativa (lo contrario de la IA generativa). Google Fotos utiliza un algoritmo de IA para clasificar las fotos subidas a su plataforma. Allá por 2015, los usuarios empezaron a notar algo horrible: La IA de Google a menudo clasificaba erróneamente imágenes de africanos negros y afroamericanos como gorilas o chimpancés. Google fue públicamente avergonzado por su "IA racista", pero dado el conjunto de entrenamiento disponible en ese momento, no fue capaz de entrenar a su IA para distinguir correctamente los negros de los grandes simios. Por lo tanto, simplemente cambió el algoritmo para que los gorilas y los chimpancés quedaran excluidos de la clasificación.

Ahora bien, ¿significa esto que los africanos y los afroamericanos son gorilas porque Google Fotos lo dice? Evidentemente, no. ¿Significa que Google Fotos era racista porque dijo que lo eran? No, no lo hace. Google Photos no entiende en absoluto lo que es la "raza". Por decirlo en términos aristotélicos-groarkianos, Google Fotos se basa exclusivamente en la inducción probabilística de nivel 5, y la inducción de nivel 5 no puede distinguir entre propiedades esenciales, necesarias y accidentales. No entiende qué es esencialmente un ser humano.

De hecho, la incapacidad de distinguir las propiedades esenciales de las que no lo son está en el centro de los fallos de la IA tanto discriminativa como generativa. Ahora bien, para cualquier fallo de categorización, se puede utilizar un conjunto de datos suficientemente grande para entrenar eventualmente a la IA para que reconozca normalmente la categoría deseada. Pero esto sólo puede hacerse porque los entrenadores ya han reconocido la categoría por inducción de nivel superior.

¿Tienen razón Penrose y Faggin?

Penrose y Faggin tienen toda la razón al afirmar que la IA carece por completo de facultad noética. Aunque parezca una afirmación atrevida, no lo es. En realidad no estoy afirmando nada remotamente controvertido.

Verá, ni siquiera el más ferviente defensor de la IA sostendría que las IAs tienen facultades noéticas, ¡porque los defensores de la IA no creen en la existencia de facultades noéticas en primer lugar!

Al no distinguir entre intellectio y ratio, quienes suscriben la teoría computacional de la mente (o cualquier otra teoría física y algorítmica de la mente) están totalmente ciegos ante la existencia de la noesis.

Los teóricos de la TCM son como los daltónicos que afirman que, como no pueden ver el color, el color no existe. Pero, como dije en La rareza de la noesis, que algunos hombres no puedan ver el color no significa que ninguno de nosotros pueda ver el color, y que algunos hombres no puedan percibir la verdad noéticamente no significa que ninguno de nosotros pueda percibir la verdad noéticamente.

Si la IA no tiene una facultad noética, ¿qué facultad tiene que le permita un rendimiento tan impresionante? Tiene la facultad de la razón, que los antiguos llamaban logos y ratio. Esta facultad incluye la deducción (argumentación basada en reglas de inferencia), así como el nivel más bajo de la inducción, la inducción-probabilidad. De nuevo, esto no es controvertido. La Enciclopedia Stanford de Filosofía señala:
Las primeras investigaciones sobre IA hacían hincapié en la lógica. Los investigadores trataban de "mecanizar" el razonamiento deductivo. Un ejemplo famoso fue el programa informático Logic Theorist (Newell y Simon 1956), que demostró 38 de los primeros 52 teoremas de Principia Mathematica (Whitehead y Russell 1925). En un caso, descubrió una demostración más sencilla que la de Principia.

La incertidumbre es uno de los problemas que se plantearon en los primeros trabajos sobre IA. Casi todos los razonamientos y la toma de decisiones funcionan en condiciones de incertidumbre. Por ejemplo, es posible que haya que decidir si ir de picnic sin saber si va a llover. La teoría bayesiana de la decisión es el modelo matemático estándar de inferencia y toma de decisiones en condiciones de incertidumbre. La incertidumbre se codifica a través de la probabilidad. En las décadas de 1980 y 1990, los avances tecnológicos y conceptuales permitieron crear programas informáticos eficientes que aplican o aproximan la inferencia bayesiana en escenarios realistas. Se produjo una explosión de la IA bayesiana, que incluyó avances en el reconocimiento del habla y los vehículos sin conductor. Los algoritmos manejables que gestionan la incertidumbre son un gran logro de la IA contemporánea... y posiblemente un presagio de progresos futuros más impresionantes.
Desde que se escribió ese artículo, hemos visto ese "impresionante progreso futuro" entrar en la actualidad. La IA contemporánea, como ChatGPT 4o, ha sido entrenada en un conjunto de datos tan amplio que su rendimiento en la inducción de nivel 5 (inducción por probabilidad) parece perspicaz. Parece como si ChatGPT comprendiera. Pero no lo hace, porque carece de noesis.

Por supuesto, si los teóricos de la TCM tienen razón, también carecemos de noesis, porque la noesis no existe, como tampoco existen los dos niveles superiores de inducción. Lo que pensamos que es nuestro "insight" es sólo deducción e inducción de nivel 5 con probabilidad. Pero esta posición es, filosóficamente, muy mala. Es un camino sin retorno hacia el nihilismo y la desesperación.

Los teóricos de la TCM deben -si siguen su teoría hasta su conclusión lógica- estar de acuerdo con los empiristas en que hay un problema con la inducción; por tanto, deben estar de acuerdo con los nominalistas en que las esencias no son reales; por tanto, deben estar de acuerdo con los escépticos en que la epistemología está confundida por el trilema de Munchausen; por lo tanto, deben estar de acuerdo con los relativistas en que la moral no tiene fundamento objetivo u ontológico, ya que nada lo tiene; y por lo tanto, deben estar de acuerdo con los nihilistas en que nada importa realmente excepto, tal vez, una arbitraria voluntad de poder -o voluntad de sujetapapeles, si esa es tu estructura de incentivos.

Si, como afirma la TCM, somos robots de carne, entonces eso es todo lo que somos y todo lo que podemos ser, y si eso es todo lo que podemos ser, entonces no hay razón para no sustituirnos por mejores robots de cualquier material que sea. Si la TCM está en lo cierto, el Übermensch que venza a la humanidad será una IA, y la figura musculosa que atraviese el paisaje del futuro no será un héroe vitalista salido de un mito pagano, sino un T-800 Terminator.

Así pues, la verdadera cuestión no es si la IA tiene noesis (no la tiene), sino si al menos algunos seres humanos la tienen. Y este debate filosófico entre la Teoría Computacional de la Mente y la Teoría Noética de la Mente no es trivial. Es, de hecho, el debate más importante del mundo en estos momentos. La filosofía ha sido condenada históricamente como una masturbación mental sin sentido e irrelevante para la acción pragmática, pero la IA nos enfrenta a una circunstancia en la que todo el destino de la humanidad podría depender de qué teoría filosófica de la mente sea la correcta.

Si llegamos a la conclusión de que no somos más que robots de carne, entonces es mucho más probable, de hecho casi seguro, que permitamos que nuestra especie sea eliminada por la IA. (En el mejor de los casos, nos fusionaremos con la IA como conciencia digital, pero dado que las máquinas carecen de noesis, es totalmente improbable que los humanos digitales la conserven). La presunción de que la noesis no existe lleva al resultado de que la noesis deja de existir.

Si, por otro lado, llegamos a la conclusión de que los humanos son algo más que carne, si llegamos a la conclusión de que la mente accede a estados superiores a los que puede alcanzar una máquina puramente algorítmica y fisicalista, entonces los humanos importan. Si somos criaturas singularmente capaces de comprender la Verdad, la Belleza y la Bondad, no podemos ni debemos permitirnos sucumbir al implacable avance de la IA. Debemos, si llega el caso, librar la Yihad Butleriana para impedirlo.

¡Qué ironía que el auge de la inteligencia artificial haya hecho que la filosofía humana sea más importante que nunca! Contemple esto en The Tree of Woe.

(Por supuesto, si usted es un robot de carne, en realidad no puede contemplar nada, pero aun así es bienvenido a colocar un simulacro de pensamiento generado algorítmicamente en los Comentarios).