Véritable sommité en droits de la personne et en IA, la Sud-Africaine Rachel Adams a fondé l’Observatoire africain de l’intelligence artificielle responsable (OAIAR) au début de 2022 pour susciter la réflexion. Que veut dire l’IA pour l’Afrique ? Quels sont les risques et les bénéfices pour les sociétés africaines ? Le déploiement de ces technologies peut-il porter atteinte à la démocratie? Comment peut-on s’appuyer sur les systèmes de valeurs, les traditions et les codes culturels d’Afrique pour poser des balises éthiques ? Et que serait une IA par l’Afrique et pour l’Afrique ? Voilà quelques questions qui occuperont les membres de l’Observatoire.
« On veut apporter l’expérience africaine sur la scène mondiale, précise Rachel Adams, qui dirige également le Just AI Center. Les discussions qui entourent l’intelligence artificielle sont influencées par les pays de l’hémisphère nord. De ce fait, les outils développés reflètent leurs standards éthiques, normatifs et de gouvernance : il faut que les pays du Sud aient leur place dans ces réflexions. »
À travers l’OAIAR, qui est entre autres soutenu par le Centre de recherches pour le développement international du Canada, la chercheuse veut fournir des outils aux pays d’Afrique pour superviser l’implantation de l’IA et l’encadrer.
Solution ou dérapages ?
Concrètement, comment l’IA se déploie-t-elle en Afrique ? Le monde bancaire compte parmi ceux qui s’en sont emparés en premier. D’est en ouest, les institutions financières se pressent d’intégrer l’IA à leurs systèmes d’octroi de crédit ou de service client. Pareillement, la firme canadienne Proto a beaucoup de succès auprès des banques africaines : sa technologie automatise la réception des réclamations, et ce, dans une diversité de langues locales telles que le kinyarwanda et le twi. La numérisation des services bancaires est d’ailleurs un moyen, selon la Facilité pour l’inclusion financière numérique en Afrique, d’offrir des services plus efficaces et inclusifs.
Les membres de l’OAIAR sont critiques. « Quand c’est la machine qui décide que tu n’as pas droit à un prêt [bancaire], un poste, un visa… vers qui te tourner ? » demande la chercheuse namibienne Kristophina Shilongo en entrevue.
L’équité des systèmes intelligents repose en grande partie sur les données avec lesquelles ils ont été entraînés. « Les données disponibles en Afrique sont largement basées sur l’expérience des hommes, affirme Rachel Adams. Par conséquent, les services sont biaisés. Mais ce n’est pas qu’un problème d’IA : cela découle de problèmes structurels profonds. » C’est pour contrer cette tendance que l’OAIAR s’est engagé à inclure la dimension de genre et de race dans tous ses travaux.
D’ailleurs, le réseau de l’OAIAR travaille aussi à la décolonisation de l’IA. « Nous voulons identifier, dans le monde de l’IA, les dynamiques héritées du colonialisme, afin de les désamorcer », détaille Rachel Adams.
L’importation de technologies mésadaptées aux contextes locaux est un problème, dit-elle. Par exemple, les systèmes de reconnaissance faciale « entraînés » hors du continent sont susceptibles de commettre des erreurs. Cela est particulièrement inquiétant quand ils sont employés à des fins de surveillance policière, comme à Johannesburg, où plus de 5000 caméras assistées par l’IA de la compagnie danoise iSentry & Milestone enregistrent les faits et gestes des passants.
L’Afrique est également ciblée par les entreprises pour le « test bêta » de leurs innovations. Des populations qui ne sont pas toujours en mesure de donner un consentement libre et éclairé font office de cobayes. L’entreprise spécialisée dans le profilage psychologique et idéologique Cambridge Analytica a ainsi testé sa capacité d’influence politique au Nigéria et au Kenya avant de s’attaquer au chantier de l’élection de Donald Trump, aux États-Unis.
Puis, il y a les abus du côté des données. Au Kenya, des applications de crédit prêtent des fonds selon de hauts intérêts sans évaluer la solvabilité des emprunteurs, et récoltent massivement les données de ceux-ci, telles que la localisation, les messages textes, les contacts et l’historique d’appels…
Pour contrecarrer ces dérapages, la Sud-Africaine Nokuthula Olorunju, membre de l’Observatoire, travaille sur la gouvernance de l’IA et le cadre juridique du cyberespace. Pour elle, l’encadrement des technologies se fait par une approche collaborative du bas vers le haut. « Nous allons à la rencontre des gens pour écouter leurs expériences et savoir ce que la technologie et leurs données signifient pour eux. À partir de là, nous avons une meilleure compréhension de leurs perceptions et réalités, pour bâtir de quoi les protéger. »
Pour cerner ce qui correspond à l’IA éthique dans chaque pays, Rachel Adams et une équipe internationale se sont lancées dans la création de l’Indice mondial de l’IA responsable. Cet outil permettra de comparer les pays à partir de critères établis mondialement et non pas seulement hérités des États du Nord. « Cet instrument est développé à partir du Sud, et surtout du continent africain, explique fièrement Rachel Adams. Il sera inspiré des conceptions régionales des droits de la personne, dans l’espoir d’être le plus inclusif possible. »
L’indice a pour ambition d’aider chaque citoyen et citoyenne à prendre conscience de ce qui se joue dans sa société. Car malgré les bémols soulevés par les chercheurs, les innovations en IA font partie de l’avenir et représentent de précieuses occasions à saisir.