Jueves 30 de octubre 2025

Argentina es uno de los países menos preocupados por la desinformación de la IA

Redaccion Avances 30/10/2025 - 11.14.hs

Dos datos en uno: aunque casi la mitad de los y las argentinas teme la desinformación impulsada por la Inteligencia Artificial (IA), el país se ubica entre los menos preocupados a nivel mundial por la generación y difusión de información falsa.

 

Los datos se conocieron en el marco de la Semana Mundial de la Alfabetización Mediática y los resultados más recientes revelan altos niveles de preocupación ante la posibilidad de que la IA genere y difunda información falsa, lo que resalta la creciente importancia de la alfabetización mediática para ayudar a las personas a desenvolverse en el complejo ecosistema informático actual.

 

El informe fue presentado por “Voices!” y su red internacional WIN (Worldwide Independent Network of Market Research), que presentan nuevos hallazgos de su Encuesta Global, que este año recoge las opiniones y creencias de alrededor de 35.000 personas en 40 países.

 

En la encuesta se indagó en el nivel de acuerdo con la frase: “me preocupa que la inteligencia artificial (IA) pueda crear y difundir información falsa” con una escala del 1 al 10, 1 siendo “no estoy de acuerdo en lo absoluto” y 10 “estoy completamente de acuerdo”.

 

Los resultados revelan que casi la mitad de la población mundial (45%) afirma estar muy preocupada (niveles de acuerdo 8+9+10) ante la posibilidad de que la IA cree y difunda información falsa, mientras que un 42% se muestra algo preocupado (niveles de acuerdo 4+5+6+7). Y solo un 14% no muestra preocupación (niveles de acuerdo 1+2+3).

 

Las percepciones varían significativamente entre regiones. En Africa y Asia, los niveles de preocupación son considerablemente menores en comparación con Europa y América del Norte. Finlandia (59%), Suecia (58%), Canadá (57%) e Irlanda (56%) se ubican entre los países más preocupados (nivel de acuerdo 8+9+10), mientras que los menos preocupados (nivel de acuerdo 1+2+3) son Argentina (25%), Paraguay (26%), Turquía (28%), Pakistán y China (31%) y Costa de Marfil (33%).

 

Argentina.

 

En nuestro país, un 43% manifiesta estar muy preocupado mientras que un 25% manifiesta estar poco o nada preocupado. “Es interesante resaltar que, si bien la preocupación significativa está cerca del promedio global, la no preocupación destaca entre los argentinos: el país se encuentra entre los 5 países menos preocupados junto con Turquía (28%), Paraguay (26%), Pakistán y China (31%) y Costa de Marfil (33%)”, señala el trabajo publicado.

 

Al igual que a nivel mundial, se detectan en el país fuertes variaciones por segmentos sociodemográficos: entre los más jóvenes las opiniones están divididas entre 37% que sostienen estar muy preocupados y 33% que dicen estar poco o nada preocupados. A medida que aumenta la edad aumenta la preocupación, que llega a 54% entre los mayores de 65 años. También crece significativamente a mayor educación (primaria (38%), secundaria (41%), superior (55%)) y disminuye a mayor nivel socioeconómico (ABC1 (48%), C2C3 (44%), DE (39%)). También, tiende a haber más preocupación en CABA (46%) y GBA (47%) que en el interior del país (41%).

 

Constanza Cilley, directora ejecutiva de Voices! y analista social a cargo del estudio, analizó que “en un contexto donde la IA redefine cómo se produce y se distribuye la información, fortalecer las habilidades de lectura crítica y verificación se vuelve indispensable. La alfabetización mediática no es solo un desafío educativo, sino una condición para proteger la calidad del debate público”.

 

Falsas.

 

En tanto, el mayor estudio internacional realizado hasta la fecha sobre el consumo de noticias a través de la Inteligencia Artificial descubrió que estos sistemas tergiversan la información en casi la mitad de sus respuestas.

 

La investigación, coordinada por la Unión Europea de Radiodifusión (UER), revela que el 45% del contenido informativo sintetizado por los principales asistentes de IA incluyen “al menos un problema significativo”.

 

Entre ellos se encuentran las referencias falsas, al asegurar que determinados medios de comunicación publicaron algo que en realidad no hicieron; editorialización, introduciendo sus propios juicios de valor o asignándolos incorrectamente a los medios; o las imprecisiones significativas, con inexactitudes “que pueden inducir a error al lector”.

 

En el estudio, de una escala sin precedentes, participaron 22 organizaciones de medios públicos de 18 países, entre ellas RTVE, dirigidas por la BBC británica. Sus profesionales evaluaron más de 3.000 respuestas sobre contenidos informativos y actualidad en 14 idiomas diferentes, sintetizadas por los cuatro principales asistentes de IA: ChatGPT, Copilot, Gemini y Perplexity.

 

Además de esa tasa del 45% de errores graves, la investigación categorizó otra escala de errores menores, como problemas al explicar el contexto, imprecisión en las citas de las fuentes o errores a la hora de presentar qué es un hecho y qué es una opinión de las fuentes. Se trata de errores que no deberían llevar a error al lector, pero que si se suman con los “problemas significativos” antes descritos, elevan la tasa de inexactitudes hasta el 81% de las respuestas de la IA.

 

“Esta investigación muestra de manera concluyente que estos errores no son incidentes aislados”, afirma Jean Philip De Tender, director de medios de la UER. “Son sistémicos, transfronterizos y multilingües, y creemos que ponen en peligro la confianza pública. Cuando la gente no sabe en qué confiar, termina por no confiar en nada, y eso puede frenar la participación democrática”.

 

El problema más grave y frecuente detectado en la investigación no fue solo que la IA inventase datos, sino su gestión de las fuentes que utilizan. Hasta el 31% de las respuestas de la IA mostraron “serios problemas de atribución”, incluyendo referencias engañosas, incorrectas o simplemente inexistentes. Es decir, tergiversaron lo que habían publicado los medios de comunicación o se lo inventaron.

 

 

'
'