El ChatGPT de OpeanAI, el Bard de Google o cualquier otro servicio basado en inteligencia artificial pueden engañar inadvertidamente a los usuarios con alucinaciones digitales.
El ChatGPT de OpeanAI, el Bard de Google o cualquier otro servicio basado en inteligencia artificial pueden engañar inadvertidamente a los usuarios con alucinaciones digitales.
El lanzamiento por parte de OpenAI de su chatbot basado en IA ChatGPT el pasado noviembre conmocionó a millones de personas en todo el mundo. La capacidad del bot para dar respuestas articuladas a preguntas complejas obligó a muchos a reflexionar sobre la capacidad de la IA para imitar a las personas.
Puede leer también | AI ChatGPT está ayudando a pensar a los CEO. ¿Te quitará también el trabajo?
El éxito estelar de ChatGPT le valió rápidamente un puesto en Bing, el motor de búsqueda de Microsoft. El chatbot de OpenAI acepta consultas, lo que permite a los usuarios formular preguntas complejas completas y confiar en la red neuronal de la IA en lugar de en el algoritmo de un motor de búsqueda.
El movimiento llevó a gigantes tecnológicos como Alphabet, propietario de Google, a apresurarse a idear alternativas. A mediados de febrero, Google presentó Bard, la respuesta de la compañía a ChatGPT. Sin embargo, la presentación de la IA por parte de la empresa fue un fracaso, que acabó con miles de millones de dólares de su valor.
Puede leer también | Es muy probable que estos puestos de trabajo sean sustituidos por chatbots como ChatGPT
Más tarde, esa misma semana, el vicepresidente senior de Google, Prabhakar Raghavan, declaró que la empresa no se apresura a lanzar públicamente Bard, ya que los desarrolladores son responsables de protegerse contra un concepto llamado alucinaciones de la IA.
"Una alucinación se produce en la IA cuando el modelo de IA genera una salida que se desvía de lo que se consideraría normal o esperado basándose en los datos de entrenamiento que ha visto". afirma Kostello.
Inteligencia alucinante
Aunque una IA alucinada parece sacada de una novela de Philip K. Dick, el concepto es real, y muchos de los que han jugado con chatbots basados en IA se han encontrado ellos mismos con el fallo.
Según Greg Kostello, director técnico y cofundador de la empresa de asistencia sanitaria basada en IA Huma.AI, las alucinaciones de IA se manifiestan cuando los sistemas de IA crean algo que parece muy convincente pero que no tiene ninguna base en el mundo real.
"Puede manifestarse como la imagen de un gato con varias cabezas, un código que no funciona o un documento con referencias inventadas", explica Kostello a Cybernews.
Los desarrolladores de IA tomaron prestada la palabra "alucinaciones" de la psicología humana, y no fue por casualidad. Kostello afirma que las alucinaciones humanas son percepciones de algo que no está realmente presente en el entorno.
Puede leer también | Google lucha por ponerse al día tras el ChatGPT de OpenAI
"Del mismo modo, en la IA se produce una alucinación cuando el modelo de IA genera resultados que se desvían de lo que se consideraría normal o esperado en función de los datos de entrenamiento que ha visto", explica Kostello.
Mientras que las alucinaciones de la IA pueden dar lugar a resultados visuales entretenidos, los chatbots que alucinan con falsificaciones convincentes pueden dar lugar a cualquier cosa, desde malentendidos hasta información errónea. La IA que alucina con soluciones médicas podría dar lugar a resultados aún menos deseables.
Le preguntamos al mismo ChatGPT
La pregunta que le formulamos son: ¿Tus respuestas de ChatGPT son realmente verídicas?
Soy un modelo de lenguaje desarrollado por OpenAI diseñado para proporcionar respuestas basadas en el aprendizaje automático de patrones en grandes cantidades de texto. Las respuestas que proporciono se generan automáticamente en función de la entrada que recibo y la información que he sido entrenado para reconocer.
Es importante tener en cuenta que mis respuestas son solo una aproximación basada en la información que he aprendido y que siempre existe la posibilidad de que mi respuesta no sea exacta o completa en todos los casos. Además, debido a que mi conocimiento se limita a lo que ha sido recopilado hasta mi fecha de corte de entrenamiento, mi información puede estar desactualizada en algunos temas.
Por lo tanto, siempre es recomendable contrastar mis respuestas con otras fuentes y considerar mi información como una herramienta para ayudar en la comprensión y el aprendizaje, pero no como una fuente de verdad absoluta e indiscutible.