CulturaÚltimas noticias

IA y desinformación: cómo el contenido falso se recicla y termina circulando como fuente “confiable”

La inteligencia artificial generativa puede escribir con seguridad, citar supuestas fuentes y construir relatos coherentes incluso cuando la información que produce es falsa. Ese es uno de los principales riesgos de los sistemas actuales: generan textos verosímiles, pero no necesariamente verdaderos. El fenómeno, conocido como “alucinaciones”, se vuelve especialmente problemático cuando esos errores se publican, se validan socialmente y luego regresan al ecosistema digital como insumo “confiable”.

Así se forma un círculo vicioso de desinformación: la IA inventa, los humanos reproducen y los modelos vuelven a entrenarse con esos contenidos adulterados.


Cuando el error se convierte en fuente

Los casos en los que la IA genera citas, libros, personas o fallos judiciales inexistentes se multiplican. En Argentina, uno de los episodios más resonantes fue el del presidente del Tribunal Fiscal de la Nación, Miguel Nathan Licht, quien fue denunciado ante el Consejo de la Magistratura por publicar un libro que contenía citas falsas generadas con IA.

Ante la polémica, el funcionario reconoció públicamente que “la desprolijidad, el apuro y hasta alguna intervención poco feliz de la IA” influyeron en el resultado. La situación fue aún más llamativa porque el propio Licht había defendido previamente el uso de la IA en la justicia, siempre que se aplicara de forma ética y responsable.

Los errores también alcanzaron a los medios de comunicación. El 7 de diciembre, el diario La Nación publicó una nota sobre centros de investigación argentinos en la que figuraba un especialista inexistente, Roberto Ronda. Usuarios de redes sociales advirtieron la falla y señalaron que ChatGPT citaba esa misma nota como fuente. Más tarde, el medio aclaró que se trató de un error humano y que el artículo no había sido escrito con IA.

A nivel internacional, los ejemplos se repiten. En Noruega, Arve Hjalmar Holmen demandó a OpenAI luego de que ChatGPT afirmara falsamente que había asesinado a sus dos hijos.


Datos que preocupan

Un estudio de NewsGuard de abril de 2025 reveló que 3 de cada 10 respuestas de los principales chatbots contienen afirmaciones incorrectas. El problema no es solo la existencia del error, sino su validación posterior: cuando ese contenido falso se publica en libros, artículos o sitios considerados confiables, pasa a formar parte del corpus que otros sistemas de IA utilizan para entrenarse.

“La gravedad aparece cuando esas alucinaciones se incorporan a publicaciones que los modelos y las personas consideran fiables”, explicó a Chequeado Beatriz Busaniche, magíster en Propiedad Intelectual y presidenta de la Fundación Vía Libre. Según advirtió, esa información puede terminar incluso en proyectos colaborativos como Wikipedia, que luego son usados como fuente para entrenar nuevas inteligencias artificiales.


Por qué la IA “prefiere” inventar

Los grandes modelos de lenguaje no verifican datos: predicen palabras. Su objetivo es generar una respuesta plausible, no confirmar su veracidad. Cuando no cuentan con información suficiente o interpretan mal una consigna, pueden inventar hechos, citas o análisis completos.

Para Luciana Ferrer, investigadora del Instituto de Ciencias de la Computación de la UBA y del Conicet, los modelos priorizan ser útiles antes que honestos. “Si no saben la respuesta, tienden a inventar una que suene factible”, explicó.

Este comportamiento está alimentando advertencias más profundas. Investigadores de la Universidad Johannes Gutenberg de Mainz detectaron que los sistemas entrenados con datos generados por otras IAs se vuelven progresivamente menos confiables. Algunos especialistas incluso hablan de un posible “colapso del modelo” si se agotan los datos humanos de alta calidad, algo que podría ocurrir hacia 2026, según estimaciones citadas por el investigador Aarón J. Snoswell en The Conversation.


Qué recomiendan los especialistas

Ante este escenario, el consenso es claro: desconfiar y verificar. La forma correcta de escribir, el tono seguro o la estructura prolija no garantizan que la información sea verdadera.

“Confiar ciegamente en sistemas técnicos como la IA implica riesgos reales de reproducir falsedades, sesgos y violencia simbólica”, advirtió Busaniche. Ferrer coincidió: “Mi consejo es siempre dudar de las respuestas de la IA y contrastarlas con fuentes confiables”.

En un ecosistema informativo cada vez más atravesado por contenidos generados artificialmente, la verificación humana sigue siendo irremplazable. La IA puede ser una herramienta poderosa, pero sin pensamiento crítico, también puede convertirse en un amplificador masivo de la desinformación.


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *