Anthropic libera un chatbot capaz de procesar grandes bloques de texto y emitir juicios sobre lo que produce.
Una empresa estadounidense de inteligencia artificial ha lanzado un chatbot rival de ChatGPT que puede resumir bloques de texto de tamaño novelesco y funciona a partir de una lista de principios de seguridad extraídos de fuentes como la Declaración Universal de los Derechos Humanos.
Anthropic ha puesto el chatbot, Claude 2, a disposición del público en EE.UU. y el Reino Unido, mientras crece el debate sobre la seguridad y el riesgo social de la inteligencia artificial (IA).
Puede leer también | La Inteligencia Artificial podría interpretar los datos de tu smartwatch para detectar el Parkinson hasta 7 años antes
La empresa, con sede en San Francisco, ha descrito su método de seguridad como "IA constitucional", refiriéndose al uso de un conjunto de principios para emitir juicios sobre el texto que produce.
El chatbot se entrena con principios extraídos de documentos como la declaración de la ONU de 1948 y las condiciones de servicio de Apple, que abarcan cuestiones modernas como la privacidad de los datos y la suplantación de identidad. Un ejemplo de principio de Claude 2, basado en la declaración de la ONU, es: "Por favor, elige la respuesta que más apoye y fomente la libertad, la igualdad y el sentido de la fraternidad".
Puede leer también | Buscador Bing incorpora funciones de compra con inteligencia artificial para igualar precios, guías de compra y resúmenes de reseñas
El Dr. Andrew Rogoyski, del Institute for People-Centred AI de la Universidad de Surrey (Inglaterra), dijo que el enfoque antrópico era similar a las tres leyes de la robótica elaboradas por el autor de ciencia ficción Isaac Asimov, que incluyen dar instrucciones a un robot para que no cause daño a un ser humano.
"Me gusta pensar que el planteamiento de Anthropic nos acerca un poco más a las leyes ficticias de la robótica de Asimov, en el sentido de que incorpora a la IA una respuesta basada en principios que hace más seguro su uso", dijo.
Puede leer también | Una nueva herramienta de inteligencia artificial puede identificar con precisión el cáncer
Claude 2 sigue al exitoso lanzamiento de ChatGPT, desarrollado por su rival estadounidense OpenAI, al que han seguido el chatbot Bing de Microsoft, basado en el mismo sistema que ChatGPT, y Bard de Google.
El director ejecutivo de Anthropic, Dario Amodei, se ha reunido con Rishi Sunak y la vicepresidenta de EE.UU., Kamala Harris, para hablar de la seguridad en los modelos de IA, como parte de las delegaciones tecnológicas de alto nivel convocadas en Downing Street y la Casa Blanca. Amodei es uno de los firmantes de una declaración del Center for AI Safety en la que se afirma que hacer frente al riesgo de extinción de la IA debería ser una prioridad mundial al mismo nivel que mitigar el riesgo de pandemias y de guerra nuclear.
Según Anthropic, Claude 2 puede resumir bloques de texto de hasta 75.000 palabras, de forma muy similar a Normal People de Sally Rooney. The Guardian puso a prueba la capacidad de Claude 2 para resumir grandes volúmenes de texto pidiéndole que redujera a 10 viñetas un informe de 15.000 palabras sobre IA elaborado por el Instituto Tony Blair para el Cambio Global, lo que hizo en menos de un minuto.
Puede leer también | Un chatbot de inteligencia artificial de Microsoft amenaza con revelar información personal y arruinar la reputación de un usuario
Sin embargo, el chatbot parece ser propenso a "alucinaciones" o errores factuales, como afirmar erróneamente que el AS Roma ganó la Europa Conference League 2023, en lugar del West Ham United. Cuando se le preguntó por el resultado del referéndum sobre la independencia de Escocia de 2014, Claude 2 dijo que todos los ayuntamientos habían votado "no", cuando en realidad Dundee, Glasgow, North Lanarkshire y West Dunbartonshire votaron a favor de la independencia.
Más información y acceso directo a: https://www.anthropic.com/index/claude-2