Una carta firmada por Elon Musk y miles de personas que exigen una pausa en la investigación de la inteligencia artificial ha creado una tormenta de fuego, después de que los investigadores citados en la carta condenaran el uso que se hace de su trabajo, se revelara que algunos firmantes eran falsos y otros se retractaran de su apoyo.
El 22 de marzo, más de 1.800 firmantes -entre ellos Musk, el científico cognitivo Gary Marcus y el cofundador de Apple Steve Wozniak- pidieron una pausa de seis meses en el desarrollo de sistemas "más potentes" que el de GPT-4. Ingenieros de Amazon, DeepMind, Google, Meta y Microsoft también prestaron su apoyo.
Desarrollado por OpenAI, una empresa cofundada por Musk y ahora respaldada por Microsoft, GPT-4 ha desarrollado la capacidad de mantener conversaciones similares a las humanas, componer canciones y resumir documentos extensos. Según la carta, estos sistemas de IA con "inteligencia humana competitiva" suponen un grave riesgo para la humanidad.
Puede leer también | Un chatbot de inteligencia artificial de Microsoft amenaza con revelar información personal y arruinar la reputación de un usuario
Elon Musk se une a la petición de una pausa en la creación de "mentes digitales" gigantes de IA
"Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes", decía la carta.
El Future of Life Institute, el grupo de reflexión que coordinó la iniciativa, citó 12 investigaciones de expertos, entre ellos académicos universitarios y empleados y ex empleados de OpenAI, Google y su filial DeepMind. Pero cuatro expertos citados en la carta han expresado su preocupación por el hecho de que sus investigaciones se hayan utilizado para hacer tales afirmaciones.
Puede leer también | ¿Qué tipo de inteligencia es la inteligencia artificial?
Cuando se lanzó inicialmente, la carta carecía de protocolos de verificación de firmas y acumuló firmas de personas que en realidad no la firmaron, incluidos Xi Jinping y el científico jefe de IA de Meta, Yann LeCun, quien aclaró en Twitter que no la apoyaba.
Los críticos han acusado al Future of Life Institute (FLI), financiado principalmente por la Musk Foundation, de dar prioridad a escenarios apocalípticos imaginarios frente a preocupaciones más inmediatas sobre la IA, como la programación de prejuicios racistas o sexistas en las máquinas.
Puede leer también | Chatea con Shakespeare, Margaret Thatcher, Sócrates, Kanye y otros usando el potencial de la Inteligencia Artificial
Entre las investigaciones citadas se encuentra "On the Dangers of Stochastic Parrots" (Sobre los peligros de los loros estocásticos), un conocido artículo del que es coautora Margaret Mitchell, que anteriormente supervisó la investigación ética de la IA en Google. Mitchell, ahora jefa de ética científica en la empresa de IA Hugging Face, criticó la carta y dijo a Reuters que no estaba claro qué se consideraba "más potente que GPT4".
"Al dar por sentadas muchas ideas cuestionables, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI", dijo. "Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos".
Sus coautores Timnit Gebru y Emily M Bender criticaron la carta en Twitter, y esta última calificó algunas de sus afirmaciones de "desquiciadas". Shiri Dori-Hacohen, profesora adjunta de la Universidad de Connecticut, tampoco estuvo de acuerdo con la mención de su trabajo en la carta. El año pasado, Dori-Hacohen fue coautora de un trabajo de investigación en el que sostenía que el uso generalizado de la IA ya planteaba graves riesgos.
Puede leer también | GPT el modelo de generación de contenidos basado en la Inteligencia Artificial
Su investigación sostenía que el uso actual de sistemas de IA podría influir en la toma de decisiones en relación con el cambio climático, la guerra nuclear y otras amenazas existenciales.
Según declaró a Reuters: "No es necesario que la IA alcance un nivel de inteligencia humano para agravar esos riesgos".
"Hay riesgos no existenciales que son muy, muy importantes, pero que no reciben el mismo tipo de atención al nivel de Hollywood".
Cuando se le pidió que comentara las críticas, el presidente de FLI, Max Tegmark, dijo que tanto los riesgos a corto como a largo plazo de la IA deberían tomarse en serio. "Si citamos a alguien, sólo significa que afirmamos que respaldan esa frase. No significa que estén respaldando la letra, o que respaldemos todo lo que piensan", dijo a Reuters.