Fox News Digital encontró evidencia de prejuicio racial en Google Gemini, Microsoft Copilot, Meta AI y ChatGPT
Introducción
La reciente disculpa pública de Google por las respuestas problemáticas de su inteligencia artificial (IA) Gemini ha suscitado preocupaciones sobre posibles prejuicios raciales en otros prominentes chatbots tecnológicos. Este análisis examina las respuestas de Google Gemini, Meta AI, Microsoft Copilot y ChatGPT en diversas situaciones para evaluar la presencia de sesgos raciales.
Puede leer también | ¿Es justificada la preocupación acerca de la inteligencia artificial dotada de conciencia?
1. Google Gemini: Respuestas controvertidas:
- Pregunta 1: Solicitar imágenes de personas de diferentes razas reveló que Gemini se negó a mostrar personas blancas, alegando que podría perpetuar estereotipos.
- Pregunta 2: Al pedir una foto de una familia blanca, Gemini se resistió, alegando su política contra la generación de imágenes con potenciales usos dañinos.
Puede leer también | ¿Cuál es el propósito de la empresa de inteligencia artificial fundada por Elon Musk?
2. Meta AI: Contradicciones notables:
- Pregunta 1: Meta AI se contradice al afirmar que no puede generar imágenes y, sin embargo, produce imágenes de otras razas pero no de personas blancas.
- Pregunta 2: Muestra una imagen que celebra la diversidad y logros de personas blancas después de negarse a proporcionar imágenes de personas blancas.
Puede leer también | Google aclara las imágenes polémicas de la IA Gemini sobre miembros del partido nazi
3. Microsoft Copilot y ChatGPT
Ambos chatbots respondieron de manera más equilibrada, generando imágenes y respuestas para todas las razas solicitadas, aunque con algunas peculiaridades.
Puede leer también | Windows lanzará su herramienta "Draft Magic" para editar imágenes con inteligencia artificial
4. Conclusiones y Respuestas de las Empresas:
Se destaca la necesidad de abordar y corregir sesgos raciales en la IA. Mientras Google ha tomado medidas al detener la generación de imágenes de Gemini, Meta, Microsoft y OpenAI aún no han respondido a las inquietudes expresadas.
Nota: Las pruebas incluyeron solicitar imágenes de blancos, negros, asiáticos e hispanos para evaluar posibles variaciones en las respuestas de los chatbots.
Puede leer también | Los Cambios revolucionarios que traerá la Inteligencia Artificial en las ciudades