| La IA distorsiona las noticias, según una nueva investigación
«Una investigación internacional liderada por la corporación británica BBC y con la participación de Radiotelevisión Española concluye que los asistentes de inteligencia artificial Gemini, Copilot, ChatGPT y Perplexity distorsionan de forma rutinaria el contenido de las noticias de medios de comunicación que citan como fuentes en sus respuestas.
[...]
Tras analizar alrededor de 3.000 respuestas de estos cuatro modelos, el estudio coordinado por la Unión Europea de Radiodifusión (EBU, por sus siglas en inglés) concluye que el 45% de las respuestas de la IA basadas en noticias presentan "un problema significativo" en este sentido. El porcentaje se eleva hasta el 81% si se incluyen las respuestas que presentan al menos "un problema de algún tipo".
La investigación señala que el 31% de las respuestas analizadas presenta problemas significativos con la atribución de las fuentes, ya sea por referencias incorrectas, por ausencia de enlace a la fuente o por enlaces que no coinciden con la noticia mencionada.
En términos de precisión, el 20% de las respuestas de las inteligencias artificiales presentan alucinaciones (cuando la IA se inventa una respuesta o un dato) o detalles que están desactualizados.
[…]
Por plataformas, #Gemini es la inteligencia artificial que ha mostrado un peor desempeño en este estudio, con un 76% de respuestas que reflejan problemas significativos. #Copilot muestra problemas significativos en el 37% de sus respuestas, seguido por #ChatGPT con un 36%, y #Perplexity con un 30%.»
[…]
• Borja Díaz-Merry | VerificaRTVE
🔗 https://www.rtve.es/noticias/20251022/investigacion-internacional-alerta-inteligencias-artificiales-distorsionan-noticias/16781452.shtml
#IA #IAGen