Ambigüedad y malentendidos: cómo la IA navega la comunicación humana

Actualmente, la IA tiene ciertas limitaciones. En lo que respecta al lenguaje, todavía le cuesta captar las sutilezas de la comunicación humana e interpretar matices. En este sentido, la ambigüedad es uno de sus puntos débiles.

Actualmente, la IA tiene ciertas limitaciones. En lo que respecta al lenguaje, todavía le cuesta captar las sutilezas de la comunicación humana e interpretar matices. En este sentido, la ambigüedad es uno de sus puntos débiles.

Los nuevos avances en el campo de la inteligencia artificial y el aprendizaje automático han introducido mejoras en herramientas como ChatGPT para acercarlo a la comunicación humana. Y, en general, la IA hace un trabajo decente. Quizás no lo entiende todo, pero con el contexto suficiente, es capaz de ver la ambigüedad y las diferentes interpretaciones posibles de una oración. ¿Cómo se entrena a la IA para que pueda mantener la ilusión de una conversación con un ser humano? ¿Comprende, o solo imita?

La inteligencia artificial y la complejidad del lenguaje humano

Algunos sistemas de IA utilizan técnicas de procesamiento del lenguaje natural (NLP por sus siglas en inglés) para identificar patrones e inferir significado. El procesamiento del lenguaje natural realiza un tratamiento computacional del lenguaje humano a través del análisis léxico, sintáctico, semántico y morfológico. Puede que nos parezca un concepto demasiado técnico, pero el NLP está presente en muchas herramientas que usamos a diario, como la traducción automática o el reconocimiento de voz.

Actualmente, la IA tiene ciertas limitaciones. En lo que respecta al lenguaje, todavía le cuesta captar las sutilezas de la comunicación humana e interpretar matices. En este sentido, la ambigüedad es uno de sus puntos débiles. La lingüística define este concepto como un fenómeno según el cual una expresión lingüística tiene diferentes interpretaciones.

Somos ambiguos constantemente cuando nos comunicamos. A veces sin querer porque no somos lo suficientemente claros con nuestras instrucciones, a veces intencionadamente como cuando hacemos una broma con doble sentido. Una oración también puede ser ambigua porque las palabras tienen más de un significado. A menudo, no hay problema porque los humanos llenamos los vacíos que deja la ambigüedad con el contexto. Por ejemplo, si decimos «¿has visto la camiseta del elefante?» sabemos que nos referimos a una camiseta que tiene un dibujo de un elefante y no a una prenda diseñada para el animal. No es que el otro significado sea incorrecto gramaticalmente, pero nuestro contexto sociocultural nos empuja a entender la oración de una manera concreta. Si leemos una receta y nos dice que frotamos el tomate sobre el pan, sabemos que debemos frotarlo por la miga y no por la corteza.

La inteligencia artificial, en cambio, infiere el significado sirviéndose de la estadística. Los modelos probabilísticos en IA asignan probabilidades a las diferentes respuestas posibles y eligen la más probable en función de un contexto determinado. Ahora bien, ¿cómo podemos saber si la IA es verdaderamente competente a la hora de interpretar contextos y proporcionar respuestas? Aquí entra la prueba de esquemas de Winograd.

Con la idea de mejorar el Test de Turing —diseñado en 1950 para identificar si una IA es o no inteligente—, Hector Levesque formuló unas preguntas para que la respuesta requiriera conocimiento y comprensión del contexto típico. Estas oraciones no suponen ningún problema para los humanos, pero dar la respuesta correcta no es tan fácil para la IA.

«I spread the cloth on the table in order to protect it. To protect what?» La respuesta nos puede parecer evidente, ¡proteger las mesas! Pero para llegar a esta conclusión es necesario saber que los manteles suelen servir para proteger las mesas y no al revés. Necesitamos esta pieza clave del contexto, del funcionamiento del mundo, para descifrar el mensaje. ChatGPT es capaz de contestar correctamente esta pregunta, pero los resultados no siempre son tan buenos con otros esquemas de Winograd.

En versiones anteriores, si preguntábamos «El abogado había hecho la pregunta al testigo, y se mostró reacio a repetirla. ¿Quién se mostró reacio a repetirla?», ChatGPT respondía «En esta frase, ‘se’ hace referencia al testigo. Por lo tanto, la frase se refiere al testigo como la persona que se mostró reacio a repetir la pregunta». En este caso, ChatGPT no era capaz de responder correctamente y fallaba el test porque le faltaba la clave del contexto que los humanos tenemos: tradicionalmente, en un juicio es el abogado quien hace preguntas y no el testigo. En versiones más actualizadas, responde «En este contexto, ‘se mostró reacio a repetirla’ se refiere al abogado. Así que el abogado fue quien se mostró reacio a repetir la pregunta al testigo». ChatGPT va mejorando en sus respuestas y puede llegar a ser capaz de resolver correctamente las ambigüedades si tiene el contexto suficiente y ha sido entrenado con los datos adecuados.