Réseau de recherche féministe sur l’IA : Lutter contre la violence fondée sur le genre grâce aux innovations en matière d’intelligence artificielle

Malgré son potentiel d’utilisation pour atteindre les objectifs de développement, l’intelligence artificielle (IA) menace également d’aggraver les inégalités, en particulier pour les femmes et les autres populations vulnérables. C’est pourquoi le CRDI appuie l’IA responsable en finançant des projets axés sur la lutte contre les obstacles à l’égalité, comme les innovations du Réseau de recherche féministe sur l’IA (FAIR).
FAIR est un réseau mondial de scientifiques, d’économistes et d’activistes unis dans leur détermination à trouver des moyens de rendre l’IA et les technologies connexes plus efficaces, plus inclusives et plus transformationnelles. Les projets soutenus par FAIR visent à cerner et à corriger les préjugés numériques en encourageant la collaboration et en élaborant des solutions d’IA qui reflètent les principes féministes.
Une cohorte de projets FAIR s’attaque aux menaces à la sûreté et à la sécurité des femmes, qui sont des obstacles importants à l’égalité des genres. À l’échelle mondiale, 27 % des femmes subissent une forme de violence interpersonnelle et 6 % subissent des violences sexuelles non conjugales au cours de leur vie, avec des taux régionaux pouvant aller jusqu’à 45 % et 11 %, respectivement. Ces statistiques représentent des contextes multiples et uniques qui exigent des solutions différentes. Voici un aperçu de trois innovations féministes en IA conçues conjointement par des personnes innovatrices à l’échelle régionale et des membres de la communauté pour lutter contre la violence fondées sur le genre de manière à mieux répondre aux besoins des utilisateurs.
Faits saillants
Le Réseau de recherche féministe sur l’IA (FAIR) du CRDI vise à cerner et à corriger les préjugés au sein des espaces numériques en favorisant la collaboration et en élaborant des solutions d’IA qui reflètent les principes féministes – trois de ces solutions sont SafeHER, AymurAI et SOF+IA.
SafeHER est une application conçue pour les femmes qui utilisent les transports en commun à Manille, aux Philippines, en fonction de leurs expériences et de leurs besoins. Elle fournit des outils comme l’alerte SOS, le partage de position en direct, la détection de cris et un système de jumelage pour améliorer leur sécurité dans les transports publics.
AymurAI a été développé pour remédier au manque de données sur les cas de violence fondée sur le genre dans le système judiciaire argentin, favorisant ainsi une plus grande responsabilisation et une plus grande transparence au sein du système judiciaire en ce qui concerne ce type de violence.
SOF+IA est un robot conversationnel féministe en ligne créé pour aider les victimes de violence fondée sur le genre facilitée par les technologies sur les plateformes de médias sociaux. Il guide les personnes qui l’utilisent sur la façon de signaler les cas, fournit des conseils numériques sur les soins personnels et évalue si une situation peut être signalée à la police.
SafeHER
La ville de Manille, aux Philippines, possède l’un des systèmes de transport les plus dangereux au monde pour les femmes, avec au moins 80 % d’entre elles signalant des cas de harcèlement et d’agression sexuelle. Bien que certaines applications de sécurité existent, Hazel Biana, partenaire de recherche de FAIR, a constaté que la majorité d’entre elles imposaient aux femmes le fardeau de se protéger, avec des suggestions les avisant de faire preuve de vigilance et de voyager avec des armes. Mme Biana a également constaté que les applications existantes ne s’attaquent pas aux problèmes sous-jacents de la violence à l’égard des femmes et ne tiennent pas compte des fonctions souhaitées par les femmes. En revanche, l’application SafeHER – développé par Mme Biana et une équipe de recherche du Centre de recherche sur le développement social de l’Université De La Salle à Manille – est conçue en fonction des expériences vécues par les femmes qui utilisent les transports en commun et de leurs besoins exprimés. Cette application comprend, entre autres outils, une alerte SOS, le partage de position en direct, la détection de cris et un système de jumelage où les femmes peuvent détecter d’autres personnes qui se déplacent seules. Parmi les autres fonctionnalités à développer, citons les recommandations sur les meilleurs itinéraires et la détection des collisions. L’application est toujours en phase d’essai alpha, mais elle est sur le point de subir d’autres essais et déploiements dans les zones autour de l’université. Les développeuses et les développeurs sont en pourparlers avec des agences gouvernementales, telles que la police nationale des Philippines, la Commission philippine sur les femmes et les unités gouvernementales locales, pour lutter contre les incidents de violence fondée sur le genre dans les systèmes de transport en commun. Dans l’ensemble, l’application vise à autonomiser les femmes, à remettre en question les normes qui blâment les victimes et à les sensibiliser aux préoccupations des femmes en matière de sécurité dans les transports en commun. En fin de compte, l’équipe SafeHER espère que les données de son application pourront être utilisées pour influencer les politiques qui rendent le transport en commun plus sûr pour les femmes.
AymurAI
L’application AymurAI – développée par Data Género en collaboration avec un tribunal de Buenos Aires, en Argentine – a été créée pour aider à combler le manque de données concernant la violence fondée sur le genre dans le système judiciaire de la ville et dans l’ensemble de l’Amérique latine. Elle compte deux caractéristiques. La fonction de jeu de données cerne et extrait les renseignements pertinents des décisions judiciaires relatives aux affaires de violence fondée sur le genre, tout en garantissant la protection de tous les renseignements de nature délicate, comme les identités. Une fois les données vérifiées par un membre du personnel du tribunal pénal, l’application les rend accessibles au public en ligne, ce qui améliore la qualité et la quantité des données sur la violence fondée sur le genre et les décisions de justice connexes. La deuxième caractéristique est l’anonymisation des décisions judiciaires, afin que les textes complets des décisions puissent être téléchargés tout en protégeant la confidentialité et les renseignements de nature délicate.
L’équipe du projet, dirigée par la directrice générale de Data Género, Ivana Feldfeber, espère que les données pourront ensuite être utilisées pour recenser les tendances qui pourraient mener à des infractions plus graves comme le féminicide. Bien que l’application Aymur soit adaptée au contexte juridique et culturel spécifique de l’Argentine, elle détecte beaucoup de renseignements en espagnol, c’est pourquoi l’équipe du projet étudie actuellement la façon de l’adapter pour une utilisation au Mexique, ce qui permettra d’accroître considérablement la portée du programme et son impact. Dans l’ensemble, l’application vise à comprendre la violence fondée sur le genre d’un point de vue judiciaire et à favoriser une plus grande responsabilisation et transparence au sein du système judiciaire en matière de violence fondée sur le genre. Récemment, Aymur AI a été reconnue par l’UNESCO dans son Global Toolkit on AI and the Rule of Law for the Judiciary.
SOF+IA
La violence fondée sur le genre est de plus en plus répandue en ligne. Une enquête menée dans 18 pays par le Centre pour la gouvernance internationale et appuyée par le CRDI a révélé qu’environ six femmes sur dix (ainsi que des membres des communautés transgenres et non binaires) ont été victimes de ce que l’on appelle la violence fondée sur le genre facilitée par les technologies, laquelle comprend des abus comme le harcèlement, le suivi, le partage non consensuel d’images intimes et les menaces de mort. Au Chili, des équipes de recherche de Datos Protegidos et d’ODEGI ont conçu SOF+IA, un robot conversationnel féministe en ligne qui fournit un soutien et des ressources aux personnes victimes de violence fondée sur le genre facilitée par les technologies sur les plateformes de médias sociaux. SOF+IA guide les personnes qui l’utilisent sur la façon de signaler les cas sur ces plateformes, fournit des conseils numériques sur les soins personnels et évalue si une situation peut être signalée à la police. Les données générées par SOF+IA serviront également à sensibiliser le public à ce genre de violence grâce aux visualisations de données informatives et aux avis personnalisés à l'intention des personnes qui l'utilisent lorsque des attaques coordonnées ou du harcèlement contre les femmes se produisent sur les plateformes de médias sociaux, en particulier en période de conflit ou de crise sociopolitique.
Conclusion
L’IA féministe s’étend bien au-delà de la portée de la violence fondée sur le genre. Les projets d’innovation FAIR étudient les préjugés et les stéréotypes discriminatoires dans les grands modèles linguistiques et créent des communautés pour les femmes qui travaillent dans des foules et qui participent à l’étiquetage des données utilisées pour former les algorithmes. A+ Alliance, qui héberge FAIR en collaboration avec le CRDI, a également créé un répertoire mondial de spécialistes dans le domaine de l’IA féministe, qui fait partie d’un écosystème en pleine croissance et qui soutient un avenir numérique inclusif, centré sur l’égalité des genres.
Collaborateurs : Hannah Whitehead, Titulaire de la bourse de recherche de CRDI, Éducation et science et Abbey Gandhi, Agente de gestion de programme, Éducation et science