¿Qué es la «alucinación» de la inteligencia artificial?

Representación de una IA en el plano físico.

El mes pasado, a días de la coronación de Carlos III, ChatGPT generó un curioso texto que está causando revuelo a nivel global. El mismo lee: “La ceremonia de coronación tuvo lugar en la Abadía de Westminster, en Londres, el 19 de mayo de 2023. La abadía ha sido el escenario de las coronaciones de los monarcas británicos desde el siglo XI, y es considerada uno de los lugares más sagrados y emblemáticos del país”. 

En ese párrafo de apariencia tan inocente se oculta un fenómeno que los expertos están llamando “alucinación”. En el entorno de las Inteligencias Artificiales, una alucinación es una pieza de información arrojada por el sistema que presenta datos incorrectos, sesgados o directamente erróneos: la coronación de Carlos III ya estaba pactada para el día 6 de mayo, pero por algún motivo la IA llegó a la errónea conclusión de que la ceremonia sería el día 19. 

Cabe destacar que el mismo sistema advierte que solo puede generar respuestas con información disponible en la web, por lo que caer en este tipo de problemas a la hora de ofrecer respuesta a una consulta, puede ser más común de lo que pensábamos. En marzo, por motivo del lanzamiento de GPT-4, OpenAI explicó: “esta versión del sistema tiene muchas limitaciones conocidas, que estamos trabajando para abordar, cómo los prejuicios sociales, las alucinaciones o las indicaciones contradictorias”. 

Los chatbots funcionan con una tecnología conocida como Modelo de Lenguaje Grande o LLM (Large Language Model), es decir que aprende sus habilidades analizando cantidades masivas de texto digital extraído de internet. Al identificar patrones en esos datos, un LLM aprende a hacer algo determinado: adivinar la siguiente palabra en una secuencia de palabras, actuando entonces como una versión ultra poderosa de una herramienta de autocompletar. El problema justamente radica en que la red está plagada de información falsa, por ende la tecnología aprende a repetir las mismas falsedades. 

El sistema de OpenAI no es el único que ha manifestado alucinaciones, recientemente se hicieron públicos resultados que también expresan el fenómeno, producto de información arrojada por Google Bard y otros sistemas similares. Como la tendencia puede ser particularmente nociva, se aconseja ser cautelosos y tomar con pinzas toda información presentada por los chatbots.

¿Querés saber más sobre inteligencias artificiales? Hacé clic acá.

ETIQUETA:

Compartir