Traducido por el equipo de SOTT.net
Un artículo cortado y pegado de ChatGPT plantea interrogantes sobre el papel de los verificadores de hechos en los medios de comunicación tradicionales.

© agsandrew/Getty Images
En un error tan absurdo como revelador,
varios periódicos importantes, como el
Chicago Sun-Times y el
Philadelphia Inquirer,
publicaron recientemente una lista de lecturas de verano plagada de libros inexistentes "alucinados" por ChatGPT, muchos de ellos
atribuidos falsamente a autores reales.
El artículo sindicado, distribuido por King Features, de Hearst, vendía
títulos inventados basados en temas inventados, poniendo de relieve tanto la excesiva dependencia de los medios de los contenidos baratos de inteligencia artificial como la incurable podredumbre del periodismo tradicional. El hecho de que esta farsa pasara desapercibida para los editores de medios moribundos (el
Sun-Times acababa de despedir al 20% de su plantilla)
subraya una verdad más oscura: cuando la desesperación y la falta de profesionalidad se unen a algoritmos sin depurar, la difusa línea que separa los medios tradicionales de las tonterías simplemente desaparece.
La tendencia parece ominosa. La IA se ve abrumada por una mezcla de noticias falsas, datos falsos, ciencia falsa y mendacidad sin paliativos que está convirtiendo la lógica establecida, los hechos y el sentido común en
un pútrido fango de podredumbre cognitiva.
Pero, ¿qué es exactamente la alucinación de la IA?La alucinación de la IA se produce cuando un modelo generativo de IA (como ChatGPT, DeepSeek, Gemini o DALL·E) produce información falsa, sin sentido o inventada
con gran confianza. A diferencia de los errores humanos, estos errores se derivan de cómo los modelos de IA generan respuestas
prediciendo patrones plausibles en lugar de sintetizar hechos establecidos.