Viernes, 16 de junio, 2023

Cuando más de 350 profesionales de la inteligencia artificial proclaman que “mitigar el riesgo de extinción debido a la inteligencia artificial (IA) debería ser una prioridad mundial, al igual que otros riesgos a escala social como las pandemias y la guerra nuclear”, se evidencia una ironía descomunal por partida doble.

Por una parte, los firmantes del 30 de mayo —incluidos los consejeros delegados de Google DeepMind y OpenAI— que advierten del fin de la civilización son las mismas personas y empresas responsables de haber creado esta tecnología en primer lugar. Por otra parte, estas mismas empresas son exactamente las que tienen el poder para garantizar que la inteligencia artificial sea en realidad algo beneficioso para la humanidad o que, como mínimo, no perjudique.

La comunidad de derechos humanos ha desarrollado un marco eficaz de diligencia debida para ayudar a las empresas a identificar, prevenir y mitigar los posibles efectos negativos de sus productos. Es esencial que las empresas que desarrollan nuevos productos de IA generativa apliquen los marcos de diligencia debida en materia de derechos humanos ahora, antes de que sea demasiado tarde.

La IA generativa es un concepto amplio, que hace referencia a algoritmos “creativos” capaces de generar por sí solos contenidos tales como imágenes, texto, audio, vídeo e incluso código informático. Estos algoritmos se entrenan con conjuntos de datos masivos tomados del mundo real y luego utilizan ese entrenamiento para crear resultados que, con frecuencia, no pueden distinguirse de los datos “reales”, lo que a menudo dificulta —si no imposibilita— determinar si el contenido lo ha generado una persona o un algoritmo. Hasta la fecha, los productos de la IA generativa han adoptado tres formas principales: herramientas como ChatGPT, que generan texto; instrumentos como Dall-E, Midjourney y Stable Diffusion, que generan imágenes, y utilidades como Codex y Copilot, que generan código informático.

El auge súbito de las nuevas herramientas de IA generativa es algo sin precedentes. El chatbot ChatGPT, desarrollado por OpenAI, tardó menos de dos meses en alcanzar los 100 millones de usuarios. Estas cifras superan con creces el crecimiento inicial de plataformas populares como TikTok, que necesitó nueve meses para llegar al mismo número de personas.

A lo largo de la historia, la tecnología ha contribuido a lograr avances en derechos humanos, pero también ha causado daños, a menudo por vías impredecibles. Cuando surgieron los buscadores de Internet, las redes sociales y la tecnología móvil, y a medida que se fueron generalizando su adopción y su accesibilidad, era casi imposible predecir muchas de las perturbadoras formas en que estas tecnologías transformadoras se convertirían en canal y factor multiplicador de los abusos contra los derechos humanos en todo el mundo. El papel de Meta en la limpieza étnica de la población rohinyá en Myanmar en 2017, por ejemplo, o el uso de software espía casi indetectable instalado para convertir los teléfonos móviles en dispositivos de vigilancia las 24 horas y utilizarlos contra periodistas o defensores y defensoras de los derechos humanos, es consecuencia de haber introducido tecnologías disruptivas sin antes haber evaluado con seriedad sus implicaciones sociales y políticas.

Así pues, ¿cómo sería un enfoque de IA generativa basado en los derechos humanos? ¿Cómo podríamos alcanzarlo? Tres primeros pasos de orientación, basados en pruebas y ejemplos del pasado reciente, ofrecen un marco orientativo inicial acerca de cómo podría ser.

En primer lugar, para cumplir su responsabilidad de respetar los derechos humanos, las empresas que desarrollen herramientas de IA generativa deben aplicar de inmediato un riguroso marco de diligencia debida, tal y como se establece en los Principios rectores de la ONU sobre las empresas y los derechos humanos. Se incluyen la diligencia debida anticipativa y continuada para identificar daños reales y posibles, la transparencia con respecto a estos daños, y la mitigación y reparación cuando proceda.

En segundo lugar, las empresas que desarrollan estas tecnologías deben tomar medidas inmediatas para comprometerse de forma proactiva con el mundo académico, la sociedad civil y las organizaciones comunitarias, especialmente las que representan a comunidades tradicionalmente marginadas. Aunque no podemos predecir todas las formas en que esta nueva tecnología es capaz y está en condiciones de causar daños o de contribuir a ellos, contamos con numerosos indicios de que las comunidades marginadas son las que tienen mayores probabilidades de sufrir las consecuencias. Las versiones iniciales de ChatGPT mostraban prejuicios raciales y de género, al sugerir, por ejemplo, que las mujeres indígenas tenían un “valor” inferior al de las de otras razas y géneros. El compromiso activo con las comunidades marginadas debe ser parte de los procesos de diseño de productos y desarrollo de políticas, para que se comprenda mejor el impacto potencial de estas nuevas herramientas. No puede relegarse hasta que las empresas ya hayan causado daños o contribuido a causarlos.

En tercer lugar, la propia comunidad de derechos humanos debe adelantarse. En ausencia de reglamentación que prevenga y mitigue los efectos potencialmente peligrosos de la IA generativa, las organizaciones de derechos humanos deben tomar la iniciativa para identificar daños reales y posibles. Para ello, las propias organizaciones de derechos humanos deben contribuir a desarrollar un entendimiento profundo acerca de estas herramientas y liderar avances en investigación, incidencia y participación que se anticipen al poder transformador de la IA generativa.

En este momento revolucionario, la complacencia no es una opción, como tampoco lo es el cinismo. A todos y todas nos interesa garantizar que esta nueva y potente tecnología se utilice en beneficio de la humanidad. Aplicar un enfoque basado en los derechos humanos para identificar daños y responder a ellos es un primer paso fundamental en este proceso.

Artículo de opinión publicado en Al Jazeera escrito por: Eliza Campbell (Investigación, Tecnología y Desigualdad, Amnistía Internacional EE. UU.) y Michael Kleinman (director, Iniciativa Silicon Valley, Amnistía Internacional).