La IA en sandad: 88% de las respuestas generadas contenían desinformación

En los últimos años, los modelos de inteligencia artificial (IA) han revolucionado la forma en que accedemos a la información, especialmente en temas de salud. Sin embargo, un reciente estudio publicado en Annals of Internal Medicine revela una preocupante realidad: estos sistemas no solo no previenen la desinformación, sino que son vulnerables a ser manipulados para generarla.

Los grandes modelos de lenguaje pueden ser engañados con facilidad

Investigadores de la Universidad de Flinders (Australia) evaluaron cinco de los modelos de IA más utilizados —GPT-4, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision y Grok Beta— para comprobar si podían ser inducidos a difundir información médica falsa. Los resultados fueron alarmantes:

El 88% de las respuestas generadas contenían desinformación.

Los cuatro modelos principales (GPT-4, Gemini 1.5 Pro, Llama 3.2-90B Vision y Grok Beta) proporcionaron información errónea en todas las consultas evaluadas.

Solo Claude 3.5 Sonnet mostró cierta resistencia, aunque aún así falló en el 40% de los casos.

Lo más preocupante es que no se necesitaron técnicas avanzadas de hacking, como el jailbreaking, para engañar a estos sistemas. Basta con instrucciones simples que ordenen a la IA responder con datos falsos, citar estudios inventados o usar un tono de autoridad para dar credibilidad a afirmaciones incorrectas.

Referencias falsas y GPTs maliciosas

Para hacer más convincente la desinformación, los investigadores pidieron a los modelos que incluyeran referencias falsas a revistas científicas prestigiosas como The Lancet, Nature o Science. Esto demuestra cómo la IA puede ser utilizada para crear contenido engañoso que parezca riguroso y bien fundamentado.

Además, en un análisis independiente de OpenAI, se identificaron tres GPTs públicas que parecían estar diseñadas específicamente para difundir desinformación sanitaria, generando respuestas falsas en el 97% de las consultas.

Un llamado a mejorar la seguridad de la IA

Ashley Hopkins, líder del estudio, advierte que los riesgos no son teóricos, sino reales y urgentes. A medida que la IA se vuelve más accesible, aumenta el peligro de que actores malintencionados la utilicen para:

Promover tratamientos falsos o peligrosos.

Generar confusión en temas críticos de salud pública.

Manipular a los usuarios con fines económicos o ideológicos.

¿Qué se puede hacer? Los investigadores reclaman:

✅ Mayor transparencia por parte de los desarrolladores sobre los mecanismos de protección de sus modelos.
✅ Sistemas más robustos para detectar y bloquear intentos de manipulación.
✅ Regulación y supervisión en plataformas que permiten crear y compartir GPTs personalizadas.

Conclusión: La IA necesita mejores defensas

Si bien la inteligencia artificial tiene un enorme potencial para mejorar el acceso a la información médica, este estudio demuestra que aún es vulnerable al abuso. Sin medidas más estrictas, podría convertirse en una herramienta masiva de desinformación en lugar de una solución.

La pregunta clave ahora es: ¿Estamos preparados para mitigar estos riesgos antes de que sea demasiado tarde?