La IA se aprovecha de las redacciones
“La IA exprime el trabajo periodístico a gran escala sin otorgar crédito ni citar fuentes”, sostiene la Asociación de Medios de Información (AMI) citando una investigación realizada por el Centre for Media, Technology and Democracy de la Universidad de McGill, en Canadá. La investigación deja a la vista que los principales asistentes virtuales de IA (ChatGPT, Claude, Gemini y Grok ) absorben de forma sistemática las noticias para generar “respuestas propias”, sin citar a los medios de comunicación.
El estudio se denomina AI News Audit y sostiene que la “extracción masiva de valor corporativo” es una “amenaza” para la supervivencia de las redacciones. Sus autores, Taylor Owen y Aengus Bridgman, evaluaron más de 18.000 consultas sobre 2.267 noticias de medios canadienses en los cuatro principales modelos de IA de las empresas tecnológicas del sector.
“En una primera fase de la investigación, los autores desactivaron la búsqueda en internet para comprobar qué información habían asimilado internamente los sistemas durante su fase de aprendizaje. Los resultados demostraron que los modelos poseen un conocimiento detallado de la actualidad política y local, evidenciando que han ingerido de forma sistemática el trabajo de las empresas periodísticas”, sostiene el artículo publicado por la AMI.
“De hecho, demostraron tener al menos un conocimiento parcial en el 74 % de las respuestas sobre historias publicadas dentro de su periodo de aprendizaje. Sin embargo, el dato más alarmante para la industria mediática es que el 92 % de esas respuestas no incluyó ningún tipo de atribución a la fuente original. La información, costosa de producir y verificar, ha sido convertida en simple materia prima y su origen ha sido borrado por completo”, añade.
Con conexión.
Pero la investigación dio un paso más y verificó la respuesta de los asistentes virtuales una vez que se conectan a internet. Lo que vieron los investigadores en esta etapa fue que al formular preguntas genéricas sobre artículos recientes, todos los modelos de IA generaron textos que cubrían suficientes detalles, citas y hallazgos exclusivos del reportaje original como para reducir significativamente la motivación del usuario de visitar la página web del medio.
“En términos cuantitativos, las herramientas lograron cubrir el contenido distintivo de las noticias en entre el 54 % y el 81 % de las ocasiones, destacando Gemini como el modelo que más sustituye a la fuente (81 %), seguido de Claude (72 %), Grok (59 %) y ChatGPT (54 %)”, sostiene la publicación.
Aun cuando las IA exprimen al máximo los artículos periodísticos de los que se nutren para responder a los usuarios, las citas a los autores de los contenidos son escasas, desde el mínimo 1 % de ChatGPT hasta el 16 % de Claude, pasando por el 6 y 7 % de Gemini y Grok, respectivamente.
“Los autores recalcan que, aunque los sistemas proporcionan enlaces web en un 52 % de las respuestas, el lector rara vez ve el nombre del medio que ha creado la noticia en el texto que está consumiendo”, informa AMI.
Suscripciones.
Lo inquietante de la investigación canadiense, según la Asociación de Medios de Información, es que los modelos de suscripción, por los cuales un lector puede pagar para ver contenido exclusivo en un medio de comunicación, “no ofrecen una barrera real en los mercados actuales, ya que la inteligencia artificial logró reproducir el contenido periodístico restringido en un 64 % de las ocasiones —destacando el comportamiento específico de Claude, que replica este contenido de pago en un 68 % de los casos—, una cifra cercana al 70 % registrado en las noticias de acceso gratuito.
“Esto ocurre porque los algoritmos encuentran versiones en abierto de la misma historia debido a la alta competencia del sector, o porque logran acceder a las direcciones web de pago y esquivar las restricciones que sí bloquean a los lectores humanos. En ambos escenarios, el periodismo de pago es explotado sin compensación”, sostienen.
“Cuando la inteligencia artificial sí decide otorgar visibilidad, lo hace de una manera extremadamente asimétrica, fragmentando el ecosistema mediático. Las escasas menciones directas benefician casi en exclusiva a grandes corporaciones de difusión nacional y gratuita, ignorando de manera sistemática a la prensa regional y a las publicaciones de pago”, añaden.
Desinformación.
Otro aspecto que la investigación dejó expuesto es que algunos modelos de IA “tienden a inventar datos de forma agresiva cuando se les pregunta por eventos recientes que desconocen al estar fuera de su periodo de entrenamiento”. En ese sentido, mencionaron que la versión gratuita de ChatGPT y Grok llegan a generar respuestas inexactas en el 88 % y el 84 % de las ocasiones, respectivamente, creando narrativas falsas con un tono de aparente rigor. Diferente es el caso de Claude que prefiere no responder cuando carece de datos precisos.
A modo de conclusión, el informe de la universidad canadiense plantea a los legisladores algunas propuestas como la imposición de estándares de atribución obligatoria por defecto en las respuestas y el debate sobre un modelo de licencias legales obligatorias, un mecanismo de pago centralizado que aseguraría que las empresas tecnológicas compensen al conjunto del ecosistema periodístico de forma equitativa y no solo a los grandes grupos mediante acuerdos privados.
Una demanda contra Google en Europa.
El Observatorio Latinoamericano de Regulación, Medios y Convergencia informó días atrás que el Consejo Europeo de Editores (CEE), que agrupa a algunas de las principales empresas periodísticas de Europa, presentó una denuncia formal ante la Comisión Europea contra Google LLC y su matriz Alphabet Inc. por presunto abuso de posición dominante en el mercado de búsquedas en línea.
La demanda apunta específicamente contra “AI Overviews”, una función que muestra resúmenes automáticos generados por inteligencia artificial en la parte superior de los resultados de búsqueda, y “AI Mode”, que permite obtener respuestas desarrolladas sin salir del buscador.
Desde el CEE, Google usa contenidos periodísticos para entrenar sus sistemas de inteligencia artificial y generar respuestas automatizadas sin autorización, sin mecanismos efectivos de exclusión voluntaria y sin una compensación justa. Las empresas periodísticas europeas creen que esto reduce el tráfico, las audiencias y los ingresos de los medios, todos ellos elementos “esenciales para la sostenibilidad del periodismo profesional”.
El presidente del Consejo Europeo de Editores, Christian Van Thillo, dijo que su denuncia no busca frenar la innovación tecnológica, sino evitar que “un guardián dominante utilice su poder de mercado para apropiarse del contenido de los editores sin su consentimiento, sin una compensación justa y sin ofrecerles una forma realista de proteger su periodismo”.
Esta presión pone de relieve la tensión dentro ?del bloque en torno al complejo equilibrio que supone la regulación de las grandes tecnológicas, con enfrentamientos habituales entre Washington y Bruselas sobre las normas que ?frenan el dominio de las empresas estadounidenses en las redes sociales, las ?búsquedas en línea y la inteligencia artificial.
La Comisión Europea aplicó el pasado año esta normativa en sendas sanciones impuestas a tecnológicas estadounidentes, al multar a Apple con 500 millones de euros por prácticas monopolísticas en su tienda de aplicaciones móviles, a Meta con 200 millones de euros por su antigua obligación a los usuarios a pagar una suscripción para evitar publicidad personalizada, y a X con 120 millones de euros al considerar que el sistema de pago para lograr el distintivo azul infringe en términos de transparencia la ley.
Artículos relacionados
