Aller au contenu principal

Veiller à ce que l’IA générative soit synonyme d’IA responsable : Il faut laisser le temps de trouver les preuves

 

Matthew Smith

Spécialiste de programme principal(e), CRDI

L’émergence de puissantes applications d’intelligence artificielle (IA) générative, comme ChatGPT, soulève une question importante pour le développement international : Comment pouvons-nous gérer les risques et les avantages des technologies faisant appel à l’IA alors que leurs progrès vont plus vite que notre capacité à comprendre leur impact?

La version la plus récente de ChatGPT est déjà 10 fois plus puissante que le modèle 2022. Nous avons à peine eu le temps de réfléchir aux avantages et aux risques potentiels du modèle original dans les pays du Nord, et encore moins d’explorer les problèmes particuliers que la dernière version pourrait poser pour les pays du Sud.

La recherche peut aider, mais il faut du temps.

De nombreux projets de recherche que nous soutenons actuellement se concentrent sur l’IA prédictive, qui fait des prédictions fondées sur des données historiques. L’IA générative diffère des modèles prédictifs en ce qu’elle génère un nouveau contenu plutôt que de prédire un résultat.

Dans notre publication de 2018, Intelligence artificielle et développement humain : vers un programme de recherche , nous avons examiné un ensemble croissant de travaux menés par de nombreuses équipes de recherche et de développement en IA dans les pays du Sud. Cet article présente certains de leurs points de vue sur les raisons pour lesquelles l’IA générative doit être une IA responsable : sûre, fiable, durable et éthique.

Le professeur Jerry John Kponyo de la Kwame Nkrumah University of Science and Technology au Ghana est un partenaire de recherche du CRDI dans le cadre du programme Intelligence artificielle pour le développement en Afrique (IAPD Afrique), une entreprise conjointe avec l’Agence suédoise de coopération au développement international (ASDI). Il affirme que les outils d’IA générative, comme ChatGPT, présentent d’excellentes occasions de faire progresser l’Afrique vers la réalisation des objectifs de développement durable des Nations Unies.

« Ces modèles peuvent être utilisés pour développer des systèmes de santé plus précis et plus efficaces qui peuvent aider à diagnostiquer et à traiter les maladies plus efficacement, même dans les régions éloignées », explique M. Kponyo. « Ils sont également utiles pour créer des ressources éducatives plus accessibles à un plus large éventail d’élèves, quel que soit leur emplacement ou leur milieu socio-économique. »

Ernest Mwebaze de Sunbird AI en Ouganda, qui fait partie d’un réseau financé par le CRDI et qui se consacre au développement d’une IA soucieuse de l’égalité des genres, affirme que les modèles génératifs peuvent également aider à résorber la pénurie historique d’infrastructures de données en Afrique, un problème majeur pour les équipes de développement responsables.

« Il n’y a pas eu suffisamment de contenu contextuel provenant du continent africain pour soutenir la formation de modèles d’IA, et nous avons vu les effets des préjugés dans les données se propager à cause de cela », a déclaré M. Mwebaze. « L’IA générative peut améliorer considérablement les efforts actuels visant à créer du contenu contextuel provenant de l’Afrique. »

Malgré les possibilités qu’elle offre, l’IA générative présente également des risques importants.

La capacité de l’IA générative à produire des textes convaincants semblables à ceux d’un être humain signifie qu’elle peut être utilisée comme un outil dangereux pour la création de désinformation. La recherche financée par le CRDI a contribué à le démontrer qu’il s’agit déjà d’un défi de taille. Par exemple, il a été démontré qu’une telle utilisation de l’IA générative affecte négativement la participation des femmes aux processus démocratiques.

Nous ignorons toujours si l’IA générative créera autant d’emplois qu’elle en éliminera. Scott Timcke de Research ICT Africa, qui élabore l’indice mondial sur l’IA responsable financé par le CRDI, affirme que ces données liées aux emplois ne sont peut-être pas aussi importantes que les effets sociétaux plus larges de l’IA générative.

« Les économies de main-d’œuvre et l’augmentation de la productivité auront un effet économique, mais aussi un effet politique », a déclaré M. Timcke. « Dans les sociétés où la richesse achète une influence politique disproportionnée, les outils comme ChatGPT et les modèles d’IA générative renforceront les processus qui produisent les inégalités sociales. »

L’objectif principal de l’indice mondial est de comprendre le développement et l’utilisation de l’IA et ses implications sociales dans le monde entier. Il met surtout l’accent sur les perspectives des groupes mal desservis et marginalisés. Ce sont les personnes que M. Timcke craint qui passent entre les mailles du filet. « Dans la proverbiale course aux armements entre les grandes entreprises technologiques qui déploieront des modèles d’IA générative, les organismes de réglementation et ceux de législation doivent veiller à ce que le bien social ne soit pas une victime », a déclaré M. Timcke.

La perpétuation des inégalités existantes à l’aide d’applications d’IA générative est une préoccupation majeure. Le terrain d’entraînement de ces applications est Internet, qui regorge de bonnes et de mauvaises données. Le pire, ce sont les données toxiques comme des images et du texte contenant des abus flagrants (p. ex., la pornographie juvénile). Ces données peuvent être filtrées, mais ce processus est ouvert au renforcement des inégalités. Par exemple, l’entreprise américaine OpenAI a été critiquée pour avoir payé moins de 2 $ US (2,70 $ CA) par heure aux travailleurs kényans (environ le salaire moyen au Kenya) pour épurer les données textuelles, les soumettant ainsi à des heures de contenu troublant.

Bien que les données toxiques puissent être supprimées, les points de vue sociaux problématiques sont beaucoup plus difficiles à effacer des données en ligne dont dépendent les modèles d’IA. Par exemple, il a été démontré que GPT-3 associe constamment la population musulmane à la violence.

« Il existe un risque de renforcer les inégalités et les préjugés existants, en particulier dans les cas où les modèles d’IA générative sont formés sur des données qui reflètent les préjugés sociaux, économiques et culturels existants », a déclaré Luciá Mesa Vélez, du Ladysmith Collective, qui fournit la formation et le mentorat en matière d’inclusion, d’équité et de genre pour la recherche sur l’IA. « Cela pourrait entraîner une marginalisation accrue de groupes déjà vulnérables, comme les femmes et la population LGBTQIA+, dans les pays du Sud. »

À l’avenir, il est essentiel que nous ne placions pas tous nos espoirs dans l’IA pour résoudre les problèmes systémiques sous-jacents, tels que les inégalités. Mme Vélez dit que cela s'est déjà produit.

« Comme nous l’avons vu avec les technologies numériques, comme les téléphones cellulaires, qui étaient parfois considérées comme ayant la capacité d’autonomiser facilement les femmes, il ne suffit pas d’adopter des approches nouvelles ou innovantes pour résoudre de vieux problèmes. Nous devons procéder avec prudence, notamment en rassemblant les renseignements tirés des vastes connaissances existantes sur les promesses et les pièges de l’utilisation de la technologie et de la science des données pour le développement. »

Agir avec prudence, c’est aussi tenir compte de la diversité des contextes. Comme l’explique M. Kponyo, « plus de 2 000 langues sont parlées à travers l’Afrique, ce qui en fait l’un des continents les plus diversifiés au monde sur le plan linguistique. Il est donc crucial de développer des modèles linguistiques qui reconnaissent et comprennent ces langues, et pas seulement les langues couramment utilisées comme l’anglais, le français et l’arabe. »

M. Kponyo, M. Mwebaze et Mme Vélez font tous partie du programme IAPD Afrique, un bon exemple de l’approche écosystémique utilisée par le CRDI pour financer la recherche sur les technologies de l’information et les communications au service du développement. L’initiative de quatre ans avec l’ASDI soutient le développement dirigé par les Africains d’une IA responsable et inclusive, notamment grâce à une recherche de qualité supérieure, au renforcement des talents, ainsi qu’à l’orientation d’une stratégie et d’une politique appropriées au contexte.

Au cœur de cette approche se trouve une question fondamentale : Qui est responsable du développement de l’IA et pour qui est-elle développée? Ceux qui créent et affinent les modèles d’IA y intègrent inévitablement leurs valeurs, mais lorsque les technologies ont le potentiel d’avoir un impact mondial, quelles valeurs devraient être privilégiées?

Répondre à ces questions prend également du temps. Il en va de même pour la collecte de données probantes, qui est essentielle pour mieux comprendre les avantages, les risques et les options politiques. C’est pourquoi il est crucial de procéder avec prudence au développement et au déploiement de l’IA afin de protéger les populations marginalisées.

Étant donné le pouvoir de ces technologies de provoquer des perturbations sociales et économiques importantes, les bonnes mesures de protection doivent être en place pour protéger le bien public. La communauté internationale a progressé vers des principes largement acceptés sur le développement et la mise en œuvre d’une IA responsable et éthique – comme l’accord de l’UNESCO sur l’éthique de l’IA adoptée par 193 États membres en 2021 – mais nous commençons tout juste à comprendre les avantages et les risques potentiels, et comment les réglementer.

Cette conversation doit surtout cesser d’être dominée par les voix des pays du Nord et inclure les perspectives et les recherches des pays du Sud sur la façon dont ces technologies peuvent être gérées au profit de tous, peu importe où ils vivent. Avec l’émergence de l’IA générative, cette approche est plus justifiée et plus nécessaire que jamais.