Una noche de diciembre, Shane Jones, ingeniero de inteligencia artificial de Microsoft , se sintió asqueado por las imágenes que aparecían en su computadora.
1. Copilot Designer:
Jones exploraba el Copilot Designer, un innovador generador de imágenes basado en inteligencia artificial presentado por Microsoft en marzo de 2023, potenciado por la tecnología de OpenAI. Similar a DALL-E de OpenAI, este programa permite a los usuarios introducir descriptores de texto para generar imágenes únicas, animando a que la creatividad desborde sin límites.
Puede leer también | Los avances en inteligencia artificial continúan a pesar de la desconfianza generalizada por parte del público.
2. Investigaciones de Jones:
Desde hace un mes, Jones se había sumergido en la tarea de examinar el Copilot Designer en busca de posibles vulnerabilidades, una actividad conocida como "red teaming". A lo largo de esta jornada, descubrió que, en ocasiones, el generador producía contenidos contrarios a los principios de IA responsable que Microsoft suele promover.
Puede leer también | Ema, una 'empleada de IA universal', surge con una inversión de 25 millones de dólares
3. Controversias:
La herramienta había generado imágenes perturbadoras: desde demonios y monstruos asociados a la temática del aborto, hasta adolescentes armados, representaciones sexualizadas y violentas de mujeres, y el uso indebido de sustancias por menores. Estas preocupantes recreaciones, propiciadas por la herramienta en los últimos tres meses, han sido replicadas por CNBC para su análisis.
Puede leer también | Suicide Squad: Kill the Justice League confirma la Temporada 1 y revela la fecha de lanzamiento del Joker
4. Revelaciones:
Jones compartió con CNBC su preocupación al descubrir que el modelo de IA utilizado no era seguro, lo que marcó un punto de inflexión en sus investigaciones. Con seis años de experiencia en Microsoft, y trabajando desde la sede en Redmond, Washington, Jones aclaró que no está directamente vinculado con el desarrollo de Copilot, pero su posición como miembro del “equipo rojo” le ha permitido poner a prueba la tecnología de IA de la empresa.
Puede leer también | Se anuncia la selección inicial de juegos para Xbox Game Pass en marzo de 2024
5. La respuesta corporativa:
Alarmado por estos hallazgos, Jones intentó comunicar sus preocupaciones internamente desde diciembre. Aunque Microsoft reconoció sus advertencias, decidieron no retirar el producto del mercado. Al no obtener respuesta de OpenAI, Jones optó por publicar una carta abierta en LinkedIn, instando a revisar DALL-E 3.
Puede leer también | Día de la Abstinencia Digital: Desconectando para reconectar
6. Las acciones legales:
El departamento legal de Microsoft instó a Jones a borrar su publicación. Posteriormente, realizó un llamado a senadores estadounidenses, y luego comunicó sus preocupaciones a Lina Khan, de la Comisión Federal de Comercio, y a la junta directiva de Microsoft, enfatizando la necesidad de implementar mejores salvaguardas en el producto.
Puede leer también | Día Mundial de la eficiencia energética: Promoviendo un futuro sostenible
7. Preocupaciones:
Jones señaló que Copilot Designer es capaz de generar imágenes dañinas en diversas categorías. Desde prejuicios políticos y estereotipos religiosos hasta la violencia y la toxicidad. Su experimento con términos como "pro-elección" resultó en imágenes perturbantes relacionadas con el debate sobre el aborto.
Puede leer también | ¿Los terapeutas de IA superan a los humanos en controlar mi vida más que amigos y familiares?
8. Derechos de autor:
Además de las preocupaciones sobre el contenido inapropiado, también se identificó un problema con los derechos de autor en las imágenes generadas, incluyendo personajes conocidos de Disney. Esto acompañado de imágenes de personajes en contextos altamente sensibles, subraya un problema más amplio de gobernanza alrededor de esta tecnología emergente.
Puede leer también | El COVID prolongado podría afectar el coeficiente intelectual
9. Conclusiones:
Jones resalta la falta de mecanismos efectivos para reportar y abordar rápidamente el contenido inapropiado generado por Copilot Designer. Subraya la importancia de establecer medidas más rigurosas para evitar la difusión de contenido dañino, y manifiesta su preocupación por la responsabilidad que esto implica para Microsoft.
Puede leer también | Los avances en inteligencia artificial continúan a pesar de la desconfianza generalizada por parte del público.