Los reguladores estadounidenses están investigando a la empresa de inteligencia artificial OpenAI por los riesgos que supone para los consumidores que ChatGPT genere información falsa.
La Comisión Federal de Comercio (FTC) envió una carta a la empresa respaldada por Microsoft solicitando información sobre cómo aborda los riesgos para la reputación de las personas.
La investigación es una señal del creciente escrutinio regulador de la tecnología. El director ejecutivo de OpenAI, Sam Altman, afirma que la empresa colaborará con la FTC.
ChatGPT genera respuestas convincentes de tipo humano a las consultas de los usuarios en cuestión de segundos, en lugar de la serie de enlaces que genera una búsqueda tradicional en Internet. Se espera que este producto y otros similares de IA cambien radicalmente la forma en que los usuarios obtienen la información que buscan en Internet.
Las empresas tecnológicas rivales se apresuran a ofrecer sus propias versiones de la tecnología, a pesar de que está generando un intenso debate sobre los datos que utiliza, la exactitud de las respuestas y si la empresa violó los derechos de autor al entrenar la tecnología.
La carta de la FTC pregunta qué medidas ha tomado OpenAI para abordar la posibilidad de que sus productos "generen afirmaciones sobre personas reales que sean falsas, engañosas, despectivas o perjudiciales".
La FTC también está estudiando el enfoque de OpenAI sobre la privacidad de los datos y cómo obtiene datos para entrenar e informar a la IA.
El Sr. Altman afirmó que OpenAI había dedicado años a la investigación sobre seguridad y meses a hacer ChatGPT "más seguro y alineado antes de lanzarlo al mercado".
"Protegemos la privacidad de los usuarios y diseñamos nuestros sistemas para que aprendan sobre el mundo, no sobre los particulares", afirmó en Twitter.
En otro tuit dijo que era importante para la firma que su "tecnología sea segura y pro-consumidor, y estamos seguros de que cumplimos la ley. Por supuesto, trabajaremos con la FTC".
El Sr. Altman compareció ante una audiencia en el Congreso a principios de este año, en la que admitió que la tecnología podía ser fuente de errores.
Pidió que se creara una normativa para esta industria emergente y recomendó que se creara una nueva agencia para supervisar la seguridad de la IA. Añadió que esperaba que la tecnología tuviera un impacto significativo, incluso en el empleo, a medida que se aclararan sus usos.
"Creo que si esta tecnología sale mal, puede salir bastante mal... queremos ser claros al respecto", dijo Altman en aquel momento. "Queremos trabajar con el Gobierno para evitar que eso ocurra".
La investigación de la FTC fue comunicada por primera vez por el Washington Post, que publicó una copia de la carta. OpenAI no respondió a la solicitud de comentarios de la BBC.
La FTC tampoco quiso hacer comentarios. El organismo de control de los consumidores ha asumido un papel de alto perfil en la vigilancia de los gigantes tecnológicos bajo su actual presidenta, Lina Khan.
Khan saltó a la fama como estudiante de Derecho en Yale, cuando criticó el historial de Estados Unidos en la aplicación de medidas antimonopolio relacionadas con Amazon.
Nombrada por el Presidente Joe Biden, es una figura controvertida, con críticos que argumentan que está llevando a la FTC más allá de los límites de su autoridad.
Algunos de sus desafíos más sonados a las actividades de las empresas tecnológicas -incluida la presión para bloquear la fusión de Microsoft con el gigante de los videojuegos Activision Blizzard- han sufrido reveses en los tribunales.
El jueves, durante una audiencia de cinco horas en el Congreso, se enfrentó a duras críticas de los republicanos por su liderazgo en la agencia.
No mencionó la investigación de la FTC sobre OpenAI, que se encuentra en una fase preliminar. Pero dijo que le preocupaban los resultados del producto.
"Hemos tenido noticia de casos en los que la información confidencial de los usuarios aparece en respuesta a una consulta de otra persona", dijo Khan.
"Hemos oído hablar de calumnias, difamaciones y falsedades. Ese es el tipo de fraude y engaño que nos preocupa", añadió.
La investigación de la FTC no es el primer problema de este tipo que afronta la empresa. Italia prohibió ChatGPT en abril, alegando problemas de privacidad. El servicio se restableció tras añadir una herramienta para verificar la edad de los usuarios y facilitar más información sobre su política de privacidad.