Home
» Wiki
»
Por qué no deberías confiar en las noticias de los chatbots de IA
Por qué no deberías confiar en las noticias de los chatbots de IA
Definitivamente deberías pensarlo dos veces antes de utilizar un chatbot de IA para proporcionar resúmenes rápidos de noticias. Un nuevo informe de la BBC descubre que los chatbots populares cometen errores importantes en sus resultados resumidos.
Google Gemini tiene la tasa más alta de resúmenes problemáticos
La prueba incluye ChatGPT , Google Gemini , Microsoft Copilot y Perplexity AI . Para empezar, la BBC le hizo a cada chatbot 100 preguntas sobre noticias y les exigió que utilizaran fuentes de BBC News cuando fuera posible.
Los expertos de la BBC evaluaron posteriormente la calidad de estos resúmenes. De los resúmenes, el 51% contenía algún tipo de error, que podía ser inexactitudes fácticas, citas erróneas o información desactualizada.
De ellos, el 19% tenía algún tipo de error factual, como fechas incorrectas. Y el 13% de las citas atribuidas a la BBC en los resúmenes fueron alteradas del original o no existían en los artículos proporcionados a los chatbots.
Al analizarlo mediante un chatbot, Gemini de Google fue el peor infractor, con más del 60% de resúmenes que contenían información problemática. Microsoft Copilot quedó en segundo lugar con un 50%, mientras que ChatGPT y Perplexity tuvieron alrededor del 40% de respuestas problemáticas.
En su conclusión, la BBC dijo que muchos de los problemas no eran simplemente desinformación:
El estudio también encontró que la gama de errores cometidos por los asistentes de IA va más allá de las inexactitudes fácticas. Los asistentes de inteligencia artificial que probamos tuvieron dificultades para distinguir entre opiniones y hechos, redactaron editoriales y a menudo no incluyeron el contexto necesario. Incluso si todas las afirmaciones en los comentarios son exactas, este tipo de problemas pueden generar comentarios engañosos o sesgados.
Muchas personas nunca han intentado utilizar chatbots de IA para resumir noticias porque no confían en la fiabilidad de la tecnología. Pero los resultados del estudio fueron aún sorprendentes dada la gran cantidad de resultados problemáticos. La IA aún tiene un largo camino por recorrer antes de convertirse en una forma confiable de aprender más sobre las noticias.
Las funciones de IA aún son un trabajo en progreso
La tecnología de IA, especialmente los chatbots, continúa mejorando rápidamente. Pero como demuestra una investigación de la BBC, esperar información precisa sobre las noticias es un área enormemente problemática.
La BBC se ha quejado de otra función impulsada por IA: el Resumen de notificaciones de Apple Intelligence. En diciembre de 2024, un resumen de noticias del canal afirmó incorrectamente que Luigi Mangione se había disparado. Él es el hombre acusado de matar a tiros al director ejecutivo de una empresa de atención médica, Brian Thompson.