Los cerebros de la inteligencia artificial de OpenAI predicen que desarrollos como el sistema ChatGPT harán afluir el dinero a raudales, con una previsión de ganar alrededor de 1.000 millones de dólares en 2024.
Según un documento informativo para inversores visto por Reuters, la empresa de aprendizaje automático espera superar los 200 millones de dólares de ingresos el año que viene y rebasar la barrera de los mil millones 12 meses después. Fundada, entre otros, por Elon Musk y Sam Altman, de Y Combinator, la empresa está valorada actualmente en unos 20.000 millones de dólares.
Puede leer también | OpenAI entrenó con éxito un bot de Minecraft utilizando 70.000 horas de vídeos de juego
Parte de la razón de tales pronósticos podría ser un mayor papel de Microsoft. Redmond adquirió una participación de 1.000 millones de dólares en OpenAI en 2019 y, al parecer, está tratando de aumentar su inversión, con vistas a integrar las herramientas de OpenAI, como ChatGPT, en el conjunto de herramientas del gigante del software para trabajadores del conocimiento.
Esta última herramienta no ha caído bien entre muchos programadores. Stack Overflow ha prohibido temporalmente su uso para los envíos al sitio porque la tasa de errores es muy alta. Mientras tanto, Microsoft sigue adelante con la herramienta de creación de código CoPilot de GitHub, a pesar de los problemas legales.
Puede leer también | La Inteligencia Artificial ya puede escribir código informático gracias a DeepMind
El Gobierno finlandés advierte de ataques en línea con IA
Un informe elaborado esta semana por la Agencia Finlandesa de Transportes y Comunicaciones advierte de que las herramientas de ataque basadas en inteligencia artificial van a convertirse en la pesadilla de los trabajadores de seguridad. La investigación predice [PDF] un plazo de cinco años en el que los delincuentes utilizarán sistemas de IA para automatizar y ampliar la exploración de vulnerabilidades, escanear enormes conjuntos de datos para realizar phishing con mayor precisión y utilizar códigos para hacerse pasar por humanos con fines financieros y de acceso.
Puede leer también | Presentan superordenador optimizado para la inteligencia artificial puede realizar un quintillón de cálculos por segundo
Algunas de estas últimas técnicas ya están en uso: los sistemas GAN se utilizan habitualmente para generar rostros falsos y, en ocasiones, voces con fines fraudulentos. Los autores predicen que este fenómeno va a crecer rápidamente. Pero el uso de la IA para buscar fallos en cortafuegos y otros sistemas también va a experimentar un enorme crecimiento en este primer periodo.
Sin embargo, para el quinto año, el equipo espera que las herramientas de IA se extiendan a lo largo de toda la cadena de suministro, desde la invasión de una red, la filtración de datos o la ejecución de comandos, hasta la reacción a los esfuerzos del software de protección por encontrar y detener el ataque. De momento no hay modelos de entrenamiento disponibles públicamente para que los delincuentes los utilicen, pero eso podría cambiar pronto. "Los atacantes nacionales serán (o ya son) la primera amenaza probable en utilizar ciberataques basados en IA, porque son deliberados, calculados, están bien financiados y cuentan con recursos suficientes para atacar a cualquier cosa o persona que consideren valiosa", afirman los investigadores. "Tras la adopción generalizada por parte de los estados-nación de herramientas de ciberapilamiento basadas en IA, el uso de la IA en ciberataques probablemente se extenderá a adversarios menos capacitados y con menos recursos".
Los usuarios de Artstation se rebelan contra la IA que les roba el trabajo
Ha sido una semana movidita en la comunidad de artistas ArtStation, tras las protestas contra el uso de imágenes para entrenar a la competencia. El martes, los usuarios del sitio -propiedad de Epic Games- empezaron a sustituir sus obras por pancartas que rezaban "La IA es un robo", en protesta no sólo por la inclusión de arte generado por la IA, sino también por el raspado de sus portafolios para generar imágenes de la IA.
Puede leer también | Meta pidió a los usuarios que probaran su chatbot de Inteligencia Artificial
Epic respondió con un cambio en los términos y condiciones. Aunque por defecto se permite a los motores de IA utilizar imágenes del sitio, ahora los artistas pueden optar por no hacerlo. Sin embargo, Epic seguirá publicando imágenes generadas por IA, aunque está estudiando la forma de que los usuarios puedan evitarlas.
"Creemos que los artistas deben tener libertad para decidir cómo se utiliza su arte y, al mismo tiempo, no queremos convertirnos en guardianes con unas condiciones del sitio que repriman la investigación y comercialización de la IA cuando se respetan las decisiones de los artistas y la ley de derechos de autor", afirma.