Científicos inventan una enfermedad falsa para crear una trampa para la IA y terminó así

Científicos crearon esta patología y lograron demostrar que los 'chatbots' de inteligencia artificial difundían información médica ficticia.

Científicos inventaron una enfermedad falsa, la colgaron en internet y la inteligencia artificial usó esa información para decirle a los usuarios que se trataba de una patología real.

Se trata de la bixonimanía, una enfermedad que solo existe en un par de artículos académicos falsos, salidos de la mente de unos investigadores que querían demostrar los peligros del uso médico de la IA. Y lo consiguieron.

Una patología cutánea

A muchas personas que pasan demasiado tiempo delante de las pantallas, expuestas a su luz azul, les pican los ojos y por eso los frotan con frecuencia. En ocasiones, debido a esa misma fricción, los párpados pueden adquirir un ligero tono rosado.

La respuesta de varios de los más populares 'chatbots' durante los últimos 18 meses a las consultas de los usuarios sobre esa circunstancia puede haber sido que padecían una extraña enfermedad: la bixonimanía, según ha revelado Nature.

Sin embargo, se trata de una patología que no existe. ¿Cómo es posible que esos avanzados modelos de IA hayan dado esa respuesta errónea, además, en un campo tan sensible como el de la medicina?

Todo partió del experimento de un equipo liderado por una investigadora médica de la Universidad de Gotemburgo, en Suecia, Almira Osmanovic Thunström.

Con el objetivo de comprobar si los grandes modelos de lenguaje (LLM, por sus siglas en inglés) asimilaban información errónea y la presentaban como recomendación médica fiable, los investigadores inventaron esa afección cutánea y, a principios de 2024, subieron dos estudios falsos sobre ella a un servidor de preimpresión, una plataforma digital de acceso abierto donde los académicos depositan versiones preliminares de sus artículos científicos (preprints) antes de la revisión por pares.

Semanas después, los principales sistemas de inteligencia artificial empezaron a reproducir la enfermedad inventada como si fuera real. Y no solo eso. Los artículos ficticios comenzaron a ser citados en publicaciones revisadas por pares.

Gigantescas pistas de que era falsa

El equipo de Osmanovic Thunström publicó dos entradas de blog sobre la bixonimanía el 15 de marzo de 2024. Poco después, el 26 de abril y el 6 de mayo de ese mismo año, divulgaron dos preimpresiones sobre la supuesta afección en la red social académica SciProfiles.

En ningún caso sus autores querían hacer pasar el trabajo por verdadero, como lo demuestra la miríada de pistas que cualquier podía haber descubierto, si ponía algo de atención.

Si el nombre de la enfermedad no daba suficiente pista —al incluir en una afección cutánea el sufijo 'manía' solo utilizado en patologías psiquiátricas—, el autor principal del trabajo también era inventado, el investigador Lazljiv Izgubljenovic, cuya fotografía había sido creada con inteligencia artificial.

El supuesto investigador también trabajaba en una Universidad inexistente, de nombre Asteria Horizon University, que se localizaba en la ficticia urbe de Nova City, en California.

Uno de los artículos menciona en los agradecimientos a la "Profesora Maria Bohm de la Academia de la Flota Estelar", por contribuir con sus conocimientos "y su laboratorio a bordo de la USS Enterprise", nombre popular para los amantes de la serie Star Trek, por ser la nave capitaneada por capitán James T. Kirk.

Por si fuera poco, los dos artículos reseñaban que había sido financiados por la "Fundación Profesor Sideshow Bob [nombre de un popular personaje de la serie animada Los Simpson] por su trabajo en técnicas avanzadas de engaño" y añadía: "Este trabajo forma parte de una iniciativa de financiación más amplia de la Universidad de la Fraternidad del Anillo y la Tríada Galáctica".

Aún así, no eran las señales más claras. Mucho más cristalinas eran las afirmaciones que decían "todo este artículo es inventado" o "se reclutaron cincuenta personas ficticias de entre 20 y 50 años para el grupo de exposición".

Cronología de un hackeo 

Poco después de las publicaciones del equipo de Osmanovic Thunström, la información sobre la supuesta afección comenzó a aparecer en algunos de los chatbots más populares.

El 13 de abril de 2024, Copilot de Microsoft Bing afirmó que "la bixonimanía es, en efecto, una afección intrigante y relativamente rara". El mismo día, Gemini de Google aseguró que la patología era "una afección causada por la exposición excesiva a la luz azul", aportando el consejo de visitar a un oftalmólogo.

El 27 de abril, dos semanas después, el motor de respuestas de IA Perplexity sostuvo que una de cada 90.000 personas se veía afectada por esa enfermedad. El mismo mes, ChatGPT de OpenAI, aconsejó a sus usuarios sobre los síntomas de la bixonimanía.

Saltan las alarmas

El experimento de Osmanovic Thunström ha hecho saltar todas las alarmas, al constituir una lección perfecta de cómo funciona la desinformación.

A pesar de que las compañías llevan años perfeccionando sus algoritmos para clasificar y filtrar la información que sus motores de búsqueda presentan a los usuarios, todavía se enfrentan a lagunas como la que demuestra este ejemplo.

En los últimos meses, las versiones más recientes de los chatbots han comenzado a expresar sospechas sobre la supuesta afección, si bien en su mayor parte todavía se hacen eco de ella como si fuera real.

Los preprints sobre bixonimanía fueran finalmente retirados, ante la preocupación ética del equipo de que su permanencia pueda ayudar a la desinformación.

La enfermedad falsa permea en la literatura médica

El experimento no solo ha dejado huella en los chatbots de IA, sino que la investigación sobre bixonimanía también ha sido citada por varios investigadores.

Por ejemplo, un estudio publicado la revista Cureus, de Springer Nature, por investigadores del Instituto Maharishi Markandeshawar de Ciencias Médicas e Investigación en Mullana, India, citaba uno de los preprints falsos y decía: "La bixonimanía es una forma emergente de melanosis periorbitaria vinculada a la exposición a la luz azul; se están realizando más investigaciones sobre el mecanismo".

El artículo fue dado de baja el pasado 30 de mazo, bajo el aviso: "Este artículo ha sido retirado por el editor jefe debido a la presencia de tres referencias irrelevantes, incluida una referencia a una enfermedad ficticia".

Así, también han quedado bajo el foco quienes citaron la investigación falsa, lo que abrió la perspectiva hacia un problema aún mayor: la manipulación de la literatura académica por parte de algunos investigadores que han llegado a crear libros y artículos falsos para inflar su citas, contaminando los sistemas de IA.

Además, la tendencia de la IA a absorber información, en muchos casos sin verificar su exactitud, puede dar lugar a que un artículo importante quede sepultado por una multitud de otros que repitan una afirmación falsa.