Pasar al contenido principal

Red Feminista de Investigación en IA: combatir la violencia de género con innovaciones en inteligencia artificial

 

A pesar de su potencial de uso para lograr objetivos de desarrollo, la inteligencia artificial (IA) también amenaza con profundizar las desigualdades, especialmente para las mujeres y otras poblaciones vulnerables. Es por eso que el IDRC apoya la IA responsable, financiando proyectos centrados en abordar las barreras a la igualdad, tales como las innovaciones dentro de la Feminist AI Research Network o Red Feminista de Investigación en IA (FAIR).  

FAIR es una red global de científicos, economistas y activistas unidos en su dedicación a encontrar formas de hacer que la IA y las tecnologías relacionadas sean más efectivas, inclusivas y transformadoras. Los proyectos apoyados por FAIR tienen como objetivo identificar y corregir los prejuicios digitales fomentando la colaboración y desarrollando soluciones de inteligencia artificial que reflejen principios feministas.  

Una cohorte de proyectos FAIR aborda las amenazas a la seguridad de las mujeres, que son barreras importantes para la igualdad de género. A nivel mundial, el 27% de las mujeres experimenta alguna forma de violencia interpersonal y el 6% experimenta violencia sexual fuera de su pareja a lo largo de su vida, con tasas regionales de  hasta el 45% y el 11%, respectivamente.  Esas estadísticas representan contextos múltiples y únicos que exigen soluciones diferentes. A continuación, presentamos un vistazo a tres innovaciones feministas de IA diseñadas conjuntamente por innovadores regionales y miembros de la comunidad para combatir la violencia de género de la manera que mejor satisfaga las necesidades de los usuarios. 

Puntos destacados de las investigaciones

  • La Red de Investigación Feminista de IA (FAIR) del IDRC tiene como objetivo identificar y corregir prejuicios dentro de los espacios digitales, fomentando la colaboración y desarrollando soluciones de IA que reflejen principios feministas; tres de esas soluciones son SafeHER, AymurAI y SOF+IA. 

  • SafeHER es una aplicación diseñada para mujeres usuarias del transporte público en Manila, Filipinas, en función de sus experiencias y necesidades vividas. Proporciona herramientas tales como alerta SOS, uso compartido de ubicación en vivo, detección de gritos y un sistema de "amigos" para mejorar su seguridad en el transporte público. 

  • AymurAI fue desarrollado para abordar la falta de datos sobre casos de violencia de género en el sistema judicial argentino, fomentando en última instancia una mayor rendición de cuentas y transparencia dentro del poder judicial cuando se trata de violencia de género.    

  • SOF+IA es un chatbot feminista basado en la web creado para apoyar a las víctimas de violencia de género facilitada por la tecnología en plataformas de redes sociales. Guía a los usuarios sobre cómo denunciar casos, proporciona consejos de autocuidado digital y evalúa si una situación se puede denunciar a la policía. 

SafeHER  

Manila, en Filipinas, tiene uno de los sistemas de transporte más peligrosos del mundo para las mujeres: al menos el 80% denuncia acoso y agresión sexual. Si bien existen algunas aplicaciones de seguridad, Hazel Biana, socia de investigación de FAIR, descubrió que la mayoría impone a las mujeres la carga de protegerse, con sugerencias sobre como mantenerse alerta y viajar con armas. Biana también descubrió que las aplicaciones existentes no abordan los problemas subyacentes de la violencia contra las mujeres ni tienen en cuenta las funciones que las mujeres quieren. Por el contrario, SafeHER – desarrollada por Biana y un equipo de investigadores del Centro de Investigación de Desarrollo Social de la Universidad De La Salle en Manila, está diseñada basándose en las experiencias vividas y las necesidades declaradas de las mujeres usuarias del transporte público. La aplicación SafeHERentre otras herramientas, alerta SOS, compartir ubicación en vivo, detección de gritos y un sistema de "amigos" donde las mujeres pueden detectar a otras viajeras solitarias. Algunas otras características para desarrollo futuro incluyen recomendaciones de mejores rutas y detección de accidentes. La aplicación aún se encuentra en prueba alfa y está a punto de someterse a más pruebas e implementación en áreas alrededor de la universidad. Los desarrolladores están en conversaciones con agencias gubernamentales, tales como la Policía Nacional de Filipinas, la Comisión de Mujeres de Filipinas y unidades del gobierno local, para abordar los incidentes de violencia de género en los sistemas de tránsito. En general, la aplicación tiene como objetivo empoderar a las mujeres, desafiar las normas que culpan a las víctimas y crear conciencia sobre las preocupaciones de seguridad de las mujeres en el transporte. En última instancia, el equipo de SafeHER espera que los datos de su aplicación puedan usarse para influir en las políticas que hagan que el transporte público sea más seguro para las mujeres. 

Media
SafeHER promotional image
SafeHER

AymurAI 

AymurAI, desarrollada por Data Género en colaboración con un tribunal de Buenos Aires, Argentina, fue creada para ayudar a abordar la falta de datos sobre la violencia de género en el sistema judicial de la ciudad y en toda América Latina. La herramienta cuenta con dos características. La función de conjunto de datos identifica y extrae información relevante de sentencias judiciales relacionadas con casos de violencia de género, al tiempo que garantiza que toda la información confidencial, tal como las identidades, esté protegida. Una vez verificada por un miembro del personal del tribunal penal, la aplicación hace que los datos estén disponibles públicamente en línea, lo que a su vez mejora la calidad y cantidad de los datos sobre violencia de género y las sentencias judiciales relacionadas. La segunda característica es la anonimización de las sentencias legales, de modo que se puedan cargar los textos completos de las sentencias protegiendo la privacidad y la información sensible. 

El equipo del proyecto, liderado por la directora ejecutiva de Data Género, Ivana Feldfeber, espera que los datos puedan usarse para identificar patrones que podrían conducir a delitos más graves, tales como el feminicidio. Aunque la aplicación Aymur está diseñada para el contexto legal y cultural específico de Argentina, detecta mucha información en español, razón por la cual el equipo del proyecto ahora está explorando cómo adaptarla para su uso en México, lo que servirá para aumentar significativamente el alcance e impacto del programa. En general, la aplicación tiene como objetivo comprender la violencia de género desde una perspectiva judicial y fomentar una mayor rendición de cuentas y transparencia dentro del poder judicial cuando se trata de violencia de género. Recientemente, Aymur AI ha sido reconocida por la UNESCO en su Global Toolkit on AI and the Rule of Law for the Judiciary.

SOF+IA    

La violencia de género es cada vez más frecuente en línea. Una encuesta en 18 países dirigida por el Centro para la Gobernanza Internacional y apoyada por el IDRC encontró que aproximadamente seis de cada 10 mujeres (así como comunidades transgénero y no binarias) han experimentado lo que se conoce como violencia de género facilitada por la tecnología ( TFGBV, por sus siglas en inglés). La TFGBV incluye abusos como acoso, seguimiento, intercambio no consentido de imágenes íntimas y amenazas de muerte. En Chile, investigadores de Datos Protegidos y ODEGI diseñaron SOF+IA — un chatbot feminista basado en la web que brinda apoyo y recursos a quienes sufren TFGBV en plataformas de redes sociales. SOF+IA guía a los usuarios sobre cómo denunciar casos en esas plataformas, proporciona consejos de autocuidado digital y evalúa si una situación se puede denunciar a la policía. Los datos generados por SOF+IA también se utilizarán para aumentar la conciencia pública sobre TFGBV a través de visualizaciones de datos informativos y notificaciones personalizadas a los usuarios cuando ocurran ataques coordinados o acoso contra mujeres en plataformas de redes sociales, particularmente durante tiempos de conflicto y/o crisis sociopolítica. 

Conclusión 

La IA feminista se expande mucho más allá del ámbito de la violencia de género. Los proyectos de innovación de FAIR investigan sesgos y estereotipos discriminatorios en grandes modelos lingüísticos y crean comunidades para mujeres empleadas en trabajos colectivos, que participan en el etiquetado de los datos utilizados para entrenar los algoritmos. A+ Alliance, que alberga FAIR en colaboración con el IDRC, también creó un directorio global de expertas feministas en IA and y profesionales, parte de un ecosistema en crecimiento que apoya un futuro digital inclusivo, con la igualdad de género en su centro. 

Colaboradoras: Hannah Whitehead, Galardonada con el Premio de Investigación, Educación y Ciencia y Abbey Gandhi, Oficial de Gestión de Programas, Educación y Ciencia.