La abogada y comunicadora Ana Correa disertó en el Centro Judicial
La comunicadora, abogada y activista por los derechos de las mujeres, Ana Correa, dio una charla sobre sesgos de género, la cual tuvo lugar en el Centro Judicial de Santa Rosa. En su disertación, se refirió específicamente de esa problemática y de los estereotipos existentes en un contexto de expansión en el uso de la inteligencia artificial.
“Hay que ver qué impacto tienen esos errores en la brecha digital de género”, remarcó. En ese sentido, la activista por los derechos de las mujeres planteó la necesidad de ir hacia una IA inclusiva.
En esa búsqueda, Correa creó “OlivIA”, una herramienta a la que se accede desde el Chat GPT y permite identificar sesgos y errores de género en ese ecosistema. “No hay que tenerle miedo a la IA, pero sí usarla con cuidado. Incluso saber de qué estamos hablando cuando hablamos de inteligencia artificial, aunque después la usemos más o menos”, acotó.
A OlivIA se le puede hacer la misma pregunta que al Chat GPT; la diferencia es que en sus respuestas identifica desigualdades simbólicas o estructurales. O sea, no habrá en ellas una mirada sesgada.
“Somos Belén”.
Correa habló en el Centro Judicial a partir de una invitación de la Oficina de la Mujer y Violencia Doméstica y el Centro de Capacitación. Ella formó parte del grupo de periodistas, comunicadoras y escritoras que el 3 de junio de 2015 organizó la primera marcha de “Ni Una Menos” en la Argentina y en 2019 escribió el libro “Somos Belén”, donde se narra la historia de la joven tucumana, que sufrió un aborto espontáneo, y terminó en la cárcel porque la justicia de esa provincia la condenó como si la interrupción del embarazo hubiera sido voluntaria.
En ese texto se basó la película “Belén”, que ganó varios premios internacionales, entre ellos el Premio Goya 2026 a la mejor película iberoamericana.
Bucles.
“Con la IA generativa hay un inconveniente central que no solo lo vemos en el Chat GPT, sino también en otras herramientas similares. Como sus respuestas se basan en datos disponibles fundamentalmente en internet, no siempre esas respuestas son precisas y muchas veces en esas respuestas aparecen lo que llamamos ‘bucles de retroalimentación’. ¿Por qué? Porque contestan con estereotipos, ya que asocian palabras exclusivamente a hombres o mujeres”, explicó la comunicadora.
Para ejemplificar, la comunicadora sostuvo que en las búsquedas, la palabra “abogado” siempre aparece ligado al hombre y “azafata”, a la mujer. “Con OlivIA intenté no dar respuestas tajantes ni cerradas, sino más bien estimular el debate. A partir de la información que cargué, y que incluye leyes y normativas internacionales, busqué al menos achicar esos márgenes de error”, agregó. En ese contexto fue que propuso ir hacia una inteligencia artificial inclusiva.
En otro tramo de la charla, Correa mencionó específicamente una serie de herramientas digitales que evalúan los fundamentos jurídicos y analizan la valoración de las pruebas; y enfatizó en la necesidad de utilizar la inteligencia artificial para estimular la “alfabetización y disminuir la brecha que existe en el acceso al conocimiento”.
Artículos relacionados
