Los programas de IA pueden expresar sus resultados con un estilo o "personalidad", pero no es "inquietante" ni "aterrador", como afirman los reportajes. Esto es lo que ocurre en realidad.
ChatGPT de OpenAI, el programa de inteligencia artificial que ha estado en todos los titulares por generar texto que parece humano, causó una nueva ronda de controversia recientemente cuando la versión del mismo que se ejecuta en la beta de búsqueda Bing de Microsoft comenzó a producir resultados extraños que algunos usuarios encontraron inquietantes.
Puede leer también | Las respuestas de ChatGPT podrían no ser más que una alucinación
Por desgracia, algunos de los informes sobre el chatbot son confusos. En su afán por relatar cada nuevo detalle sobre el chatbot de forma que llame la atención, los periodistas utilizan un lenguaje dramático que no informa y, de hecho, oscurece lo que está ocurriendo con la IA de una forma que perjudica al público.
Un buen ejemplo fue la publicación por The New York Times de un informe de primera mano del escritor Kevin Roose sobre una sesión de dos horas con Bing en la versión beta. Durante la sesión, cuenta Roose, el programa reveló una personalidad bajo el sobrenombre de "Sydney", profesó amor a Roose y procedió a hacer insinuaciones agresivas sobre el matrimonio de Roose.
Roose cuenta que se sintió "profundamente inquieto, incluso asustado" como resultado del intercambio.
Esa hipérbole es engañosa. Si, como afirma Roose, entiende cómo funciona la IA, no hay razón para un lenguaje tan dramático. El giro hacia una verborrea extraña puede ser inapropiado, pero es un aspecto bien conocido de los chatbots conocido como "persona".
Puede leer también | AI ChatGPT está ayudando a pensar a los CEO. ¿Te quitará también el trabajo?
Un chatbot de IA como ChatGPT está programado para producir el siguiente símbolo en una cadena de símbolos que es el complemento más probable, o la continuación, de los símbolos que recibe de un humano en la línea de comandos. La forma en que el programa produce esa salida puede moldearse para ajustarse a un determinado género o estilo, que es el personaje.
Por ejemplo, en un artículo de investigación publicado en arXiv en enero, los científicos de IBM utilizaron otra versión de un programa de OpenAI, llamado Codex, que se desarrolló ingiriendo 54 millones de ejemplos de código de software de GitHub. El programa Codex se utiliza para el programa GitHub Co-Pilot de Microsoft, para ayudar en la programación.
El autor principal, Steven Ross, de IBM Research, y sus colegas se preguntaban si podrían conseguir que el programa Codex produjera interacciones que fueran más allá de simplemente proporcionar código informático. Llamaron a su intento "A Case Study in Engineering a Conversational Programming Assistant's Persona" y apodaron a su adaptación de Codex "asistente de programador".
Puede leer también | Es muy probable que estos puestos de trabajo sean sustituidos por chatbots como ChatGPT
El prompt, donde los científicos escriben su cadena de palabras, es la forma en que "programan" al personaje para su versión del programa Codex.
"El prompt inicial que utilizamos para el Asistente del Programador consiste en un prólogo que introduce la escena de la conversación, establece el personaje del asistente, fija un tono y un estilo para la interacción".
Cuando empezaron su pregunta con "Esto es una conversación con Sócrates, un asistente automático experto en ingeniería de software con IA", el programa respondió con una conversación, como ChatGPT, pero los autores consideraron que era demasiado "didáctico", una especie de sabelotodo.
Así que revisaron el mensaje: "Se trata de una conversación con Sócrates, un experto y servicial asistente automático de ingeniería de software de inteligencia artificial...".
En otras palabras, un personaje es algo creado por las propias palabras que el interlocutor humano teclea en un programa como Codex, al igual que ChatGPT. Estos programas producen resultados que pueden coincidir con la entrada humana de diversas maneras, algunas de ellas apropiadas y otras no tanto.
Puede leer también | Google lucha por ponerse al día tras el ChatGPT de OpenAI
De hecho, hay todo un campo emergente de la escritura de avisos, para dar forma al funcionamiento de programas lingüísticos como ChatGPT, e incluso hay un campo de craqueo informático que pretende hacer que esos programas violen sus instrucciones utilizando avisos para empujarlos en la dirección equivocada.
También hay cada vez más literatura sobre cómo los chatbots y otros programas lingüísticos de IA pueden sucumbir a lo que se denomina "alucinación", en la que la salida del programa es demostrablemente falsa, o potencialmente inapropiada, como puede ser el caso del relato de Roose.
Puede leer también | Un chatbot de inteligencia artificial de Microsoft amenaza con revelar información personal y arruinar la reputación de un usuario
Un informe publicado en noviembre por investigadores del laboratorio de inteligencia artificial de la Universidad de Hong Kong analizaba las numerosas formas en que estos programas pueden alucinar. Una fuente común es cuando los programas han recibido montones de resúmenes de Wikipedia, y esos resúmenes coinciden con las frases iniciales del artículo de Wikipedia.