Cuentan las crónicas que Jacobo IV de Escocia confinó a dos recién nacidos y a una mujer sordomuda en la isla de Inchkeith, en el fiordo de Forth. El cruel experimento tenía como propósito averiguar si los niños podrían desarrollar un idioma por sí mismos sin estar expuestos a él, es decir, si el lenguaje humano era innato. Este experimento no era del todo original, pues en épocas anteriores se habían realizado experimentos similares. Como puede suponerse, ninguno de ellos pudo demostrar que los seres humanos nacemos con un lenguaje específico ya aprendido.
No sólo su supuesta naturaleza innata ha despertado gran interés y fascinación a lo largo de la historia. Aspectos tales como el modo en que se aprende el lenguaje, su conexión con el pensamiento, su estructura interna o la manera en que se despliega en nuestro cerebro, también han sido objeto de innumerables especulaciones y estudios. El misterio del lenguaje ha atraído la atención tanto de la ciencia básica, principalmente la lingüística, como de la ciencia aplicada, en donde la inteligencia artificial ha cobrado especial relevancia en los últimos años.
El misterio no es sencillo. El uso del lenguaje va más allá de la simple construcción de oraciones con un léxico y una gramática específicos. Consideremos las oraciones que empleamos en nuestra vida cotidiana. Para formular o comprender muchas de ellas, no sólo necesitamos conocimiento léxico y gramatical, sino también habilidades cognitivas adicionales, como el razonamiento (“He llegado una hora más tarde de lo previsto”), el conocimiento del mundo (“París es la capital de Francia”) y la intención comunicativa (“Guárdame esta maleta hasta que vuelva”). Algunos autores proponen diferenciar entre la competencia formal y la competencia funcional del lenguaje: la competencia formal se refiere al conocimiento del vocabulario de un idioma y a su utilización para formar oraciones gramaticalmente correctas; la competencia funcional, por otro lado, incluye habilidades cognitivas que, aunque no son específicas del lenguaje, como el razonamiento o el conocimiento del mundo, resultan esenciales para su uso efectivo en contextos reales
Ante el misterio del lenguaje, aparecen de forma relativamente repentina los grandes modelos neuronales de lenguaje, que son la herramienta más exitosa de la inteligencia artificial para resolver tareas relacionadas con la comprensión y generación del lenguaje humano. No obstante, surge la pregunta: ¿cómo se desenvuelven realmente estos modelos en las dos competencias del lenguaje, la formal y la funcional? Distintas investigaciones indican que estos modelos muestran un alto rendimiento en la competencia formal del lenguaje, mientras que en la competencia funcional, los resultados son más modestos. Sin embargo, el notable éxito en la competencia formal de estos modelos plantea importantes cuestiones para la teoría lingüística que predomina actualmente.
Los grandes modelos neuronales de lenguaje, como GPT y otros similares, son especializaciones de las redes neuronales profundas diseñadas para el procesamiento del lenguaje natural. Estas redes se entrenan con millones de textos, lo que les permite adquirir conocimientos no solo de la gramática y el léxico, sino también de información factual, razonamiento, teoría de la mente y otras habilidades cognitivas. Estas habilidades son adquiridas indirectamente, ya que la optimización de la red (mediante el ajuste de parámetros internos) se centra en la tarea de predecir palabras que han sido intencionadamente ocultadas en las oraciones de los textos de entrenamiento. La optimización matemática de esta red es factible gracias a que opera en un espacio continuo y diferenciable. Adicionalmente, las capacidades cognitivas de estos modelos se pueden perfeccionar a través de entrenamientos especializados en tareas específicas. ChatGPT es un ejemplo de un modelo que ha sido afinado de esta manera.
Como se ha mencionado anteriormente, los modelos neuronales de lenguaje han alcanzado unos resultados en la competencia formal del lenguaje que hasta hace poco eran inimaginables para la mayoría de los lingüistas. De hecho, estos modelos superan ampliamente a los sistemas basados en enfoques simbólicos propuestos por la hegemónica lingüística generativa de Noam Chomsky. Esta situación ha llevado a algunos investigadores a plantear, casi de forma herética, la necesidad de revisar ciertos principios fundamentales de la teoría chomskiana.
Quizá, el principio chomskiano más importante que los modelos neuronales ponen en tela de juicio es la idea de que gran parte del conocimiento gramatical es innato. Es decir, que los humanos nacemos con un conocimiento gramatical inicial que con la experiencia se va perfeccionando. La hipótesis opuesta es la empirista, que defiende un conocimiento gramatical innato inexistente y que la gramática se aprende con la experiencia. El alto rendimiento de los modelos de lenguaje neuronales en la competencia formal del lenguaje vendría a reforzar esta hipótesis empirista, ya que estos modelos aprenden el lenguaje prácticamente desde cero y los únicos sesgos iniciales de aprendizaje son fundamentalmente los derivados de la arquitectura de la red neuronal. Otros principios chomskianos que se proponen revisar como consecuencia del buen desempeño de los modelos neuronales del lenguaje son la disociación entre sintaxis y semántica, el innatismo de la estructura jerárquica, la necesidad de una modelización simbólica del lenguaje y la interconexión entre lenguaje y pensamiento.
En cualquier caso, pese a que el alto rendimiento de los grandes modelos de lenguaje en tareas lingüísticas es innegable; afirmar que el cerebro humano funciona de manera análoga es todavía aventurado. Por ejemplo, para desarrollar la competencia formal del lenguaje, los humanos requieren de una exposición a un volumen de palabras mucho menor que el utilizado en el entrenamiento de estos modelos. Esta y otras cuestiones deberán investigarse con más detalle y siguiendo un enfoque interdisciplinar dentro del ámbito de las ciencias cognitivas (psicología, filosofía, antropología, lingüística, inteligencia artificial y neurociencia), donde se deberá prestar una especial atención, quizá hasta ahora insuficiente desde la lingüística, al campo de las redes neuronales y del aprendizaje profundo en general. Esta interacción entre las distintas disciplinas facilitará un avance más robusto en la resolución del misterio del lenguaje humano. l
Orai NLP Teknologiak