Según un informe, el 45 por ciento de las noticias generadas por IA son falsas o tienen imprecisiones

Según un estudio realizado por la BBC y la Unión Europea de Radiodifusión, las inteligencias artificiales generan noticias distorsionadas de manera sistemática. Entre junio y julio de 2025, participantes de 22 organizaciones de medios públicos evaluaron cómo responden Chat GPT, Google Gemini, Microsoft Copilot y Perplexity a preguntas sobre noticias. Para eso, analizaron más de 3 mil respuestas en 18 países y 14 idiomas diferentes, e identificaron una serie de errores que se repite en las cuatro tecnologías. El 45 por ciento de las respuestas generadas por la IA sobre un tema noticioso tenían algún problema significativo. El principal inconveniente es que estas tecnologías atribuyen afirmaciones o frases a medios que nunca dijeron. A su vez, de las cuatro IAs, Gemini es la que mayores errores presenta. 

El hecho de que el 45 por ciento de las respuestas presenten problemas podría inducir a que el usuario se informe erróneamente. La atribución de fuentes es el principal error al representar el 31 por ciento del total. Según detalla el estudio, los medios de comunicación advierten que generalmente la IA genera respuestas y se las atribuye aunque ellos nunca la hayan dicho. En este sentido, Google Gemini tuvo una tasa de fallas particularmente alta al registrar un 72 por ciento de respuestas con atribuciones erróneas; en tanto que, el resto de los asistentes registraron menos del 25 por ciento.

En el informe, los autores explican: “Dado que las herramientas de IA desempeñan un papel cada vez más importante en la forma en que las personas buscan y obtienen noticias, es crucial que las respuestas de los asistentes de IA a las preguntas sobre noticias sean adecuadas y generen confianza en sus usuarios”. A su vez, plantean que, en una era de creciente desinformación, es fundamental que el público sea un consumidor de noticias informado y con capacidad de decisión. “Esto implicará comprender mejor cómo pueden fallar las respuestas de los asistentes de IA y qué aspectos se deben tener en cuenta al utilizarlos”, afirman. 

En este sentido, Leonardo Murolo, uno de los autores del libro “Desinformación y Fact-Checking en la Era de la IA”, plantea que es necesaria la alfabetización mediática. Así lo explica ante la Agencia de Noticias Científicas de la UNQ: “En la escuela, cuando estudiamos medios, vemos cómo se construye una noticia o los géneros periodísticos que hay. En estos tiempos, es necesario que se pongan también en discusión los medios de comunicación, la inclusión en las redes sociales de los trolls, bots e imágenes, videos, audios y textos generados por la IA”. Así, el autor invita a poner en duda aquellas noticias que le interesan al usuario y cotejarlas con otras fuentes de información.

Y continúa: “Hoy en día vemos videos de personas que dicen cosas que nunca dijeron o escuchamos la voz de ellos mismos producidas por las tecnologías. Es muy difícil no creer cuando estamos viendo una imagen, pero aún la IA no llegó a un nivel de sofisticación tal como para no darnos cuenta. Reconocer que lo que vemos o leemos puede ser manipulado por la IA es un primer paso. Luego, cada ciudadano tiene la responsabilidad de poner esa información bajo crítica”.

En esta línea, el Informe de Noticias Digitales 2025 del Instituto Reuters detectó que, así como los usuarios se informan mayoritariamente por redes sociales y no por medios tradicionales, siendo Facebook y YouTube las principales, los chatbots de IA también emergen como fuentes informativas. Si bien las cifras son bajas al haber un 7 por ciento de uso semanal de estas tecnologías para estos fines, los números crecen a un 15 por ciento cuando se trata de los jóvenes menores de 25 años.

Asimismo, desde el Instituto Reuters notaron que las audiencias se muestran entusiastas al usar la IA ya que hacen las noticias más accesibles o relevantes, como los resúmenes (27 por ciento), la traducción a diferentes idiomas (24 por ciento), mejores recomendaciones de artículos (21 por ciento) y chatbots para consultar sobre las noticias (18 por ciento). No obstante, detalla el informe, gran parte del público encuestado se muestra escéptico ante la irrupción de la IA en los contextos informativos y prefieren que haya una supervisión humana. 

De esta manera, en un contexto donde proliferan las noticias falsas y las teorías conspirativas, donde abundan los trolls y bots, y donde las IAs presentan aún errores significativos, mantenerse escépticos y comparar la información con distintos medios parece ser la clave.

Por Luciana Mazzini Puga