Pasar al contenido principal

Asegurar que la IA generativa sea IA responsable: el argumento a favor de dar tiempo para encontrar la evidencia

 

Matthew Smith

Especialista Principal de Programas del IDRC

El surgimiento de poderosas aplicaciones de inteligencia artificial generativa (IA) tales como Chat GPT está planteando una pregunta importante para el desarrollo internacional: ¿Cómo podemos gestionar los riesgos y beneficios de las tecnologías de IA cuando sus avances progresan más rápido que nuestra capacidad para comprender su impacto?  

La versión más reciente de ChatGPT ya es 10 veces más potente que el modelo del 2022. Apenas hemos tenido tiempo de reflexionar sobre los posibles beneficios y riesgos del modelo original en el Norte Global, y mucho menos explorar los problemas particulares que la última versión podría plantear para el Sur Global.  

La investigación puede ayudar. Pero requiere tiempo. 

Muchos proyectos de investigación que apoyamos actualmente se centran en la IA predictiva, que hace predicciones basadas en datos históricos. La IA generativa se diferencia de los modelos predictivos en que genera contenido nuevo en lugar de predecir un resultado. 

En nuestra publicación del 2018, Inteligencia artificial y desarrollo humano: hacia una agenda de investigación, examinamos un creciente conjunto de trabajos realizados por decenas de investigadores y desarrolladores de IA en todo el Sur Global. Este artículo presenta algunos de sus puntos de vista sobre por qué la IA generativa debe ser una IA responsable: segura, confiable, sostenible y ética. 

El Prof. Jerry John Kponyo de la Universidad de Ciencia y Tecnología Kwame Nkrumah en Ghana es un socio de investigación del IDRC a través del programa Inteligencia Artificial para el Desarrollo en África (AI4D Africa), un esfuerzo conjunto con la Agencia Sueca de Cooperación Internacional para el Desarrollo. Kponyo dice que las herramientas de IA generativa tales como ChatGPT presentan oportunidades significativas para que África avance hacia el logro de los Objetivos de Desarrollo Sostenible de la ONU.  

“Estos modelos pueden ser usados para desarrollar sistemas de atención médica más precisos y eficientes que puedan ayudar a diagnosticar y tratar enfermedades de manera más efectiva, incluso en áreas remotas”, dice Kponyo. “También son útiles para crear recursos educativos que sean más accesibles para una gama más amplia de estudiantes, independientemente de su ubicación o antecedentes socioeconómicos”. 

Ernest Mwebaze de Sunbird AI de Uganda, parte de una red financiada por el IDRC dedicada al desarrollo de IA inclusiva de género, dice que los modelos generativos también pueden ayudar a resolver la escasez histórica de infraestructura de datos en África, un problema importante para los desarrolladores responsables.  

"No ha habido suficiente contenido contextual del continente africano para respaldar la capacitación de modelos de IA, y hemos visto los efectos del sesgo en los datos que se propagan debido a esto", dice Mwebaze. “La IA generativa puede mejorar significativamente los esfuerzos actuales para crear contenido contextual proveniente de África”.  

A pesar de las posibilidades que presenta, la IA generativa también presenta riesgos significativos. 

La capacidad de la IA generativa para producir texto convincente similar al de un individuo significa que puede usarse como una herramienta peligrosa para la creación de desinformación. Esta, investigación apoyada por el IDRC ha ayudado a demostrar que esto ya es un desafío importante. Por ejemplo, se ha demostrado que dicho uso de la IA generativa afecta negativamente la participación de las mujeres en los procesos democráticos. 

Aún está por determinarse si la IA generativa creará tantos puestos de trabajo como despidos. Pero Scott Timcke de Research ICT Africa, que está diseñando el Índice Global sobre IA Responsable, financiado por el IDRC, dice que esas cifras de empleo podrían no ser tan importantes como los efectos sociales más amplios de la IA generativa.  

“Los ahorros en mano de obra y el aumento de la productividad tendrán un efecto económico, pero también un efecto político”, dice Timcke. “En sociedades donde la riqueza compra la influencia política desproporcionada, herramientas como ChatGPT y los modelos generativos de IA reforzarán los procesos que producen la desigualdad social”. 

El propósito principal del Índice Global es comprender el desarrollo y el uso de la IA y sus implicaciones sociales en todo el mundo. Críticamente, el índice enfatiza las perspectivas de los grupos desatendidos y marginados. Esas son las personas a las que a Timcke le preocupa que caigan en el olvido. “En la proverbial carrera armamentista entre las grandes empresas tecnológicas en torno a quién implementará modelos generativos de inteligencia artificial, los reguladores y los legisladores deben asegurarse de que el bien social no sea una víctima”, dice Timcke.  

La perpetuación de las desigualdades existentes a través de aplicaciones generativas de IA es una preocupación importante. El campo de entrenamiento para estas aplicaciones es la Internet, que está llena de datos tanto buenos como malos. Lo peor son los datos tóxicos: imágenes y texto con abusos graves como la pornografía infantil. Dichos datos se pueden filtrar, pero ese proceso está abierto a reforzar las desigualdades. Por ejemplo, OpenAI, con sede en EE.UU., ha sido criticado por pagar a los trabajadores de Kenia menos de USD2.00 (CAD2.70) la hora (aproximadamente el salario promedio en Kenia) para limpiar datos de texto, lo que los somete a horas de contenido perturbador. 

Si bien los datos tóxicos se pueden eliminar, las vistas sociales problemáticas son mucho más difíciles de borrar que los datos en línea sobre los que dependen los modelos de IA. Por ejemplo, se ha demostrado que GPT-3 persistentemente asocia a los musulmanes con la violencia.  

“Existe el riesgo de reforzar los sesgos y las desigualdades existentes, particularmente en los casos en que los modelos generativos de IA se entrenan con datos que reflejan los sesgos sociales, económicos y culturales existentes”, dice Luciá Mesa Vélez, de Ladysmith Collective, que brinda servicios de género, equidad y tutoría de inclusión y capacitación en investigación de IA. “Esto podría resultar en una mayor marginación de grupos ya vulnerables, tales como las mujeres y la población LGBTQIA+, en el Sur Global”.  

En el futuro, es fundamental que no depositemos todas nuestras esperanzas en la IA para resolver los desafíos sistémicos subyacentes como la desigualdad. Vélez dice que eso ha ocurrido antes. 

“Como hemos visto con las tecnologías digitales tales como los teléfonos móviles, que a veces se consideraba que tenían la capacidad de brindar empoderamiento 'al alcance de la mano de las mujeres', la simple adopción de enfoques nuevos o innovadores para los viejos problemas es insuficiente. Necesitamos proceder con cuidado y precaución, incluso recopilando información del vasto conocimiento existente sobre las promesas y los peligros de aprovechar la tecnología y la ciencia de datos para el desarrollo”. 

Proceder con cuidado y cautela significa también tomar en consideración la diversidad de contextos. Como explica Kponyo, “se hablan más de 2000 idiomas en África, lo que lo convierte en uno de los continentes con mayor diversidad lingüística del mundo. Por lo tanto, es crucial desarrollar modelos de lenguaje que reconozcan y entiendan estos idiomas, no solo los de uso común tales como el inglés, el francés y el árabe”.  

Kponyo, Mwebaze y Vélez forman parte del programa AI4D Africa , un buen ejemplo del enfoque ecosistémico que utiliza el IDRC para financiar la investigación sobre tecnologías de la información y la comunicación para el desarrollo. La iniciativa de cuatro años de duración con SIDA apoya el desarrollo liderado por África de una IA responsable e inclusiva, incluso a través de la investigación de alta calidad y el fortalecimiento del talento, y al informar estrategias y políticas contextualmente apropiadas. 

En el corazón de este enfoque se encuentra una pregunta fundamental: ¿Quién es responsable del desarrollo de la IA y para quién se desarrolla? Aquellos que crean y refinan los modelos de IA inevitablemente incorporan sus valores en ellos, pero cuando las tecnologías tienen el potencial de un impacto global, ¿qué valores deben priorizarse?  

Responder a estas preguntas también lleva tiempo. Lo mismo ocurre con la recopilación de evidencia, que es fundamental para comprender mejor los beneficios, los riesgos y las opciones de política. Por eso es fundamental proceder con cautela en el desarrollo y despliegue de la IA para proteger a las poblaciones marginadas. 

Dado el poder de estas tecnologías para generar importantes trastornos sociales y económicos, se deben implementar las salvaguardas adecuadas para proteger el bien público. La comunidad internacional ha avanzado hacia principios ampliamente aceptados sobre el desarrollo y la implementación de una IA responsable y ética, como el acuerdo de la UNESCO sobre la Ética de la IA adoptado por 193 estados miembros en el 2021,pero apenas hemos comenzado a comprender las potenciales recompensas y potenciales riesgos, y cómo regularlos. 

Fundamentalmente, esta conversación debe dejar de estar dominada por voces del Norte Global e incluir perspectivas e investigaciones del Sur Global sobre cómo se pueden administrar tales tecnologías para beneficiar a todos, sin importar dónde vivan. Con el surgimiento de la IA generativa, este enfoque está más justificado y más necesario que nunca.