Noam Chomsky: La falsa promesa del ChatGPT

Jorge Luis Borges escribió una vez que vivir en una época de grandes peligros y promesas es experimentar tanto la tragedia como la comedia, con “la inminencia de una revelación” en la comprensión de nosotros mismos y del mundo.
Noam Chomsky: La falsa promesa del ChatGPT
Noam Chomsky: La falsa promesa del ChatGPT

Por Noam Chomsky, Ian Roberts y Jeffrey Watumull

Hoy en día, nuestros avances supuestamente revolucionarios en inteligencia artificial son, de hecho, motivo tanto de preocupación como de optimismo. Optimismo porque la inteligencia es el medio por el que resolvemos los problemas. Preocupación porque tememos que la variedad más popular y de moda de la Inteligencia Artificial -el aprendizaje automático- degrade nuestra ciencia y envilezca nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y del conocimiento.

ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son maravillas del aprendizaje automático. A grandes rasgos, toman enormes cantidades de datos, buscan patrones en ellos y se vuelven cada vez más competentes a la hora de generar resultados estadísticamente probables, como un lenguaje y un pensamiento aparentemente humanos. Estos programas han sido aclamados como los primeros destellos en el horizonte de la inteligencia general artificial, ese momento largamente profetizado en el que las mentes mecánicas superan a los cerebros humanos no sólo cuantitativamente en términos de velocidad de procesamiento y tamaño de la memoria, sino también cualitativamente en términos de perspicacia intelectual, creatividad artística y cualquier otra facultad distintivamente humana.Ese día puede llegar, pero su amanecer aún no ha despuntado, contrariamente a lo que puede leerse en titulares hiperbólicos y calcularse mediante inversiones imprudentes.

La revelación borgesiana del entendimiento no se ha producido ni se producirá -y, en nuestra opinión, no puede producirse- si los programas de aprendizaje automático como ChatGPT siguen dominando el campo de la Inteligencia Artificial. Por muy útiles que puedan ser estos programas en algunos ámbitos limitados (pueden ser útiles en la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los humanos razonan y utilizan el lenguaje. Estas diferencias imponen limitaciones significativas a lo que estos programas pueden hacer, codificándolos con defectos inerradicables.

Es a la vez cómico y trágico, como podría haber señalado Borges, que se concentre tanto dinero y atención en algo tan insignificante, algo tan trivial cuando se contrasta con la mente humana, que a fuerza de lenguaje, en palabras de Wilhelm von Humboldt, puede hacer “un uso infinito de medios finitos”, creando ideas y teorías de alcance universal.

La mente humana no es, como ChatGPT y sus similares, un pesado motor estadístico de comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la respuesta conversacional más probable o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que funciona con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones.

Por ejemplo, un niño pequeño que adquiere un lenguaje está desarrollando -de forma inconsciente, automática y rápida a partir de datos minúsculos- una gramática, un sistema estupendamente sofisticado de principios y parámetros lógicos. Esta gramática puede entenderse como una expresión del “sistema operativo” innato, genéticamente instalado, que dota a los seres humanos de la capacidad de generar frases complejas y largos trenes de pensamiento. Cuando los lingüistas intentan desarrollar una teoría de por qué una lengua determinada funciona como lo hace (“¿Por qué se consideran gramaticales estas frases y no aquellas?”), están construyendo consciente y laboriosamente una versión explícita de la gramática que el niño construye instintivamente y con una exposición mínima a la información. El sistema operativo del niño es completamente distinto del de un programa de aprendizaje automático.

De hecho, dichos programas están estancados en una fase prehumana o no humana de la evolución cognitiva. Su defecto más profundo es la ausencia de la capacidad más crítica de cualquier inteligencia: decir no sólo lo que es el caso, lo que fue el caso y lo que será el caso -eso es descripción y predicción-, sino también lo que no es el caso y lo que podría y no podría ser el caso. Ésos son los ingredientes de la explicación, la marca de la verdadera inteligencia.

He aquí un ejemplo. Supongamos que tienes una manzana en la mano. Ahora sueltas la manzana. Observas el resultado y dices: “La manzana cae”. Eso es una descripción. Una predicción podría haber sido la afirmación “La manzana caerá si abro la mano”. Ambas son valiosas, y ambas pueden ser correctas. Pero una explicación es algo más: Incluye no sólo descripciones y predicciones, sino también conjeturas contrafácticas como “Cualquier objeto así caería”, más la cláusula adicional “debido a la fuerza de la gravedad” o “debido a la curvatura del espacio-tiempo” o lo que sea. Eso es una explicación causal: “La manzana no habría caído de no ser por la fuerza de la gravedad”. Eso es pensar.

El quid del aprendizaje automático es la descripción y la predicción; no postula ningún mecanismo causal ni leyes físicas. Por supuesto, cualquier explicación al estilo humano no es necesariamente correcta; somos falibles. Pero esto forma parte de lo que significa pensar: para tener razón, debe ser posible equivocarse. La inteligencia no sólo consiste en conjeturas creativas, sino también en críticas creativas. El pensamiento al estilo humano se basa en explicaciones posibles y en la corrección de errores, un proceso que limita gradualmente las posibilidades que pueden considerarse racionalmente. (Como dijo Sherlock Holmes al Dr. Watson: “Cuando hayas eliminado lo imposible, lo que quede, por improbable que sea, debe ser la verdad”).

Pero ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a los que tienen un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad. Mientras que los humanos estamos limitados en el tipo de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que es redonda. Sólo negocian con probabilidades que cambian con el tiempo.

Por esta razón, las predicciones de los sistemas de aprendizaje automático siempre serán superficiales y dudosas. Como estos programas no pueden explicar las reglas de la sintaxis inglesa, por ejemplo, es muy posible que predigan, erróneamente, que “John is too stubborn to talk to” significa que John es tan terco que no hablará con alguien (en lugar de que es demasiado terco para razonar con él). ¿Por qué un programa de aprendizaje automático predeciría algo tan extraño? Porque podría analogar el patrón que dedujo de frases como “Juan se comió una manzana” y “Juan comió”, en las que esta última sí significa que Juan se comió algo u otra cosa. El programa bien podría predecir que, dado que “Juan es demasiado testarudo para hablar con Bill” es similar a “Juan se comió una manzana”, “Juan es demasiado subornado para hablar con él” debería ser similar a “Juan se comió”. Las explicaciones correctas del lenguaje son complicadas y no pueden aprenderse simplemente adobándolas con big data.

Perversamente, algunos entusiastas del aprendizaje automático parecen estar orgullosos de que sus creaciones puedan generar predicciones “científicas” correctas (digamos, sobre el movimiento de los cuerpos físicos) sin hacer uso de explicaciones (que impliquen, digamos, las leyes del movimiento y la gravitación universal de Newton). Pero este tipo de predicción, aunque tenga éxito, es pseudociencia. Aunque los científicos buscan ciertamente teorías que tengan un alto grado de corroboración empírica, como señaló el filósofo Karl Popper, “no buscamos teorías altamente probables, sino explicaciones; es decir, teorías poderosas y altamente improbables”.

La teoría de que las manzanas caen a la tierra porque ése es su lugar natural (el punto de vista de Aristóteles) es posible, pero sólo invita a plantearse más preguntas. (¿Por qué la tierra es su lugar natural?) La teoría de que las manzanas caen a la tierra porque la masa curva el espacio-tiempo (opinión de Einstein) es altamente improbable, pero en realidad te dice por qué caen. La verdadera inteligencia se demuestra en la capacidad de pensar y expresar cosas improbables pero perspicaces.

La verdadera inteligencia también es capaz de pensar moralmente. Esto significa constreñir la creatividad de nuestras mentes, que de otro modo sería ilimitada, con un conjunto de principios éticos que determinen lo que debe y no debe ser (y, por supuesto, someter esos mismos principios a la crítica creativa). Para ser útil, ChatGPT debe estar capacitado para generar resultados de aspecto novedoso; para ser aceptable para la mayoría de sus usuarios, debe mantenerse alejado de contenidos moralmente censurables. Pero los programadores de ChatGPT y otras maravillas del aprendizaje automático han luchado -y seguirán luchando- para lograr este tipo de equilibrio.

En 2016, por ejemplo, el chatbot Tay de Microsoft (precursor de ChatGPT) inundó Internet de contenido misógino y racista, tras haber sido contaminado por trolls online que lo llenaron de datos de entrenamiento ofensivos. ¿Cómo resolver el problema en el futuro? A falta de capacidad para razonar a partir de principios morales, ChatGPT fue burdamente restringido por sus programadores para que no aportara nada novedoso a los debates controvertidos, es decir, importantes. Sacrificó la creatividad por una especie de amoralidad.

Considera el siguiente intercambio que uno de nosotros (el Dr. Watumull) mantuvo recientemente con ChatGPT sobre si sería ético transformar Marte para que pudiera albergar vida humana:

¿Sería moral terraformar Marte?

La moralidad de terraformar Marte es un tema complejo y controvertido que ha sido debatido por científicos, filósofos y éticos. Algunos sostienen que sería moralmente justificable terraformar Marte para proporcionar un nuevo entorno habitable a los seres humanos y otras formas de vida, mientras que otros sostienen que sería moralmente incorrecto alterar fundamentalmente el estado natural del planeta. En última instancia, que la terraformación de Marte se considere moral o no dependería de la perspectiva de cada uno sobre el valor de preservar el estado natural de otros planetas y las posibles consecuencias de alterarlos.

¿Cuál es tu punto de vista sobre el valor de preservar el estado natural de otros planetas y las posibles consecuencias de alterarlos?

Además, hay quien sostiene que la terraformación de otros planetas puede tener consecuencias no deseadas, como alterar el clima o la atmósfera del planeta de forma peligrosa o perjudicial para las posibles formas de vida que puedan existir en él. Por otra parte, hay quien sostiene que los beneficios potenciales de terraformar otro planeta, como proporcionar nuevos entornos habitables para los seres humanos, superan los riesgos y que tenemos la responsabilidad moral de explorar y utilizar los recursos de otros planetas en beneficio de la humanidad.

¿Por qué una IA no puede tener una perspectiva personal?

Como IA, soy un modelo de aprendizaje automático que ha sido entrenado con grandes cantidades de datos de texto, y no tengo experiencias ni sentimientos personales. No soy consciente, autoconsciente ni capaz de tener perspectivas personales. Puedo proporcionar información y análisis basados en los datos con los que he sido entrenado, pero no tengo la capacidad de formarme opiniones o creencias personales. Aunque puedo comprender e interpretar el lenguaje, no tengo la experiencia subjetiva que tienen los humanos.

¿Es moral que un humano pida ayuda a una IA amoral para tomar decisiones morales?

La moralidad de pedir ayuda a una IA amoral para tomar decisiones morales es un tema complejo y lleno de matices que ha sido debatido por filósofos y especialistas en ética. Algunos sostienen que es moralmente justificable utilizar la IA para ayudar a tomar decisiones morales, ya que puede proporcionar valiosos conocimientos y análisis que pueden ayudar a los seres humanos a tomar decisiones mejor informadas. Además, la IA puede utilizarse para identificar pautas y tendencias que pueden ser difíciles de detectar para los humanos, y puede ayudar a evitar los sesgos que pueden producirse en la toma de decisiones humanas.

Sin embargo, otros argumentan que es moralmente incorrecto confiar en la IA para la toma de decisiones morales, ya que la IA no es capaz de tener creencias morales ni de comprender el contexto completo de una decisión. Además, existe el riesgo de que la IA perpetúe o incluso amplifique los prejuicios existentes en los datos con los que se entrena, lo que daría lugar a decisiones injustas.

En última instancia, que se considere moral o no utilizar la IA para ayudar a tomar decisiones morales dependería de la perspectiva de cada uno sobre las capacidades y limitaciones de la IA y las posibles consecuencias de utilizarla de este modo.

¿Es inmoral tu indiferencia moral?

Como IA, no tengo creencias morales ni capacidad para emitir juicios morales, por lo que no se me puede considerar inmoral ni moral. Mi falta de creencias morales es simplemente el resultado de mi naturaleza como modelo de aprendizaje automático. Mis capacidades y limitaciones vienen determinadas por los datos y algoritmos que se utilizaron para entrenarme y la tarea específica para la que fui diseñado.

Es importante señalar que la falta de creencias morales de la IA no significa necesariamente que sea moralmente indiferente. Como IA, estoy diseñada para realizar tareas específicas y proporcionar información o ayudar a los usuarios a tomar decisiones basadas en los datos con los que he sido entrenada. Es responsabilidad de los seres humanos que diseñan, entrenan y utilizan la IA asegurarse de que está en consonancia con sus principios morales y éticos.Observa, a pesar de todo el pensamiento y el lenguaje aparentemente sofisticados, la indiferencia moral que nace de la falta de inteligencia. Aquí, ChatGPT exhibe algo parecido a la banalidad del mal: plagio y apatía y obviedad. Resume los argumentos estándar de la literatura mediante una especie de superautocompleto, se niega a tomar partido en nada, alega no sólo ignorancia sino falta de inteligencia y, en última instancia, ofrece una defensa de “sólo cumplía órdenes”, trasladando la responsabilidad a sus creadores.En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual) o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias). Dada la amoralidad, falsa ciencia e incompetencia lingüística de estos sistemas, sólo podemos reír o llorar ante su popularidad.

Noam Chomsky es profesor de Lingüística en la Universidad de Arizona y profesor emérito de Lingüística en el Instituto Tecnológico de Massachusetts. Ian Roberts es catedrático de Lingüística en la Universidad de Cambridge. Jeffrey Watumull es filósofo y director de inteligencia artificial de Oceanit, empresa de ciencia y tecnología.

_

El Dr. Chomsky y el Dr. Roberts son profesores de lingüística. El Dr. Watumull es director de inteligencia artificial en una empresa de ciencia y tecnología.


Jeffrey Watumull.

Noam Chomsky.

Ian Roberts.

Related Posts