Aunque el lanzamiento al mundo de ChatGPT catalizó la revolución de la IA generativa que estamos experimentando actualmente, el camino hasta hoy ha sido mucho más largo de lo que podría pensarse.
Los orígenes de la IA se remontan a mediados del siglo XX, cuando empezaba a desarrollarse la tecnología informática. En 1950, el matemático y lógico británico Alan Turing propuso un test que ha tomado su nombre: el Test de Turing.
Esta prueba, que mide la capacidad de una máquina para mostrar un comportamiento inteligente equivalente o indistinguible de la inteligencia humana, introdujo el concepto de inteligencia artificial en el mundo. En el test de Turing, las personas interactuaban con un agente -humano u ordenador, no se sabía cuál- y le hacían preguntas. A partir de sus respuestas, debían decidir si se trataba de un ser humano o de un ordenador.
Puede leer también | Google vs OpenAI: 10 cosas que Bard puede hacer y ChatGPT
El test de Turing sentó las bases de lo que se conocería como IA. El objetivo de los investigadores era desarrollar tecnologías capaces de superar la prueba de Turing o de hacer creer a los humanos que las máquinas eran humanos.
Nace la inteligencia artificial
En la época del test de Turing, la expresión "inteligencia artificial" no existía. Hubo que esperar hasta una conferencia celebrada en el Dartmouth College en 1956 para que naciera el término.
Organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, todos ellos destacados investigadores en el nuevo campo de la informática, la conferencia reunió a académicos con el objetivo de explorar formas de hacer que una máquina simulara aspectos de la inteligencia humana. La reunión fue un fracaso comparativo, pero es ampliamente reconocida como la cuna de la IA como campo de investigación.
Puede leer también | El director ejecutivo de OpenAI estudia abrir una oficina mientras el Gobierno japonés estudia su adopción
En la década de 1960 empezaron a producirse las primeras incursiones en el desarrollo de la IA. El objetivo principal eran los sistemas basados en reglas, también conocidos como IA simbólica. El enfoque de la IA simbólica intentaba reproducir la inteligencia humana programando reglas para la toma de decisiones en las máquinas. Los primeros programas de IA, como SHRDLU y ELIZA, cautivaron la imaginación del público y dieron la impresión de que la IA completa estaba a la vuelta de la esquina.
Pero no fue así. En la década de 1970, el mundo entró en un invierno de IA, provocado por la retirada de las ayudas económicas gubernamentales a la investigación en IA en EE.UU. y el Reino Unido. La IA permaneció en la sombra durante una década.
Dejando el invierno
En la década de 1980 se produjo un resurgimiento de la investigación en IA, impulsado por el apoyo financiero de Japón al desarrollo de esta tecnología, lo que desencadenó una carrera armamentística para que otros gobiernos apoyaran financieramente los proyectos.
Puede leer también | ChatGPT: cómo se utiliza el bot de OpenAI en una Ucrania devastada por la guerra
Pero la década de 1980 fue testigo de una revisión del funcionamiento de la IA. La IA simbólica pasó de moda y fue sustituida por el aprendizaje automático, un enfoque que consiste en entrenar algoritmos con datos para que "aprendan" y mejoren su rendimiento con el tiempo.
El aprendizaje automático se hizo más potente gracias al algoritmo de retropropagación, un método utilizado para entrenar redes neuronales, modelos computacionales inspirados en el cerebro humano. El algoritmo de retropropagación se popularizó en 1986 con un artículo de David Rumelhart, Geoffrey Hinton y Ronald Williams, y se convirtió en el método de facto para entrenar la IA durante una década o más.
Puede leer también | OpenAI predice que su negocio puede superar los mil millones de facturación en 2024
En 1997, un proyecto de IA respaldado por IBM y llamado DeepBlue consiguió derrotar al gran maestro de ajedrez Garry Kasparov en una serie de partidas múltiples, lo que hizo pensar una vez más que el futuro de la IA superando a los humanos era inminente. Sin embargo, el potencial de la IA estaba limitado por la potencia de cálculo: La IA seguía utilizando chips de CPU, incluso en su versión más potente. Eso hacía que la IA fuera lenta.
El procesamiento en la GPU y el nuevo milenio
Nvidia, fundada en 1993, ayudó a catalizar aún más la revolución de la IA. Desarrollaron las GPU (unidades de procesamiento gráfico), que se utilizaron inicialmente para que los juegos de PC funcionaran con más fluidez. Pero los investigadores de IA no tardaron en darse cuenta de que podían ponerse a trabajar. En 2012 se utilizaron en un concurso llamado ImageNet, que ponía a prueba la capacidad de los equipos de desarrollo de IA para entrenar algoritmos de visión por ordenador con el fin de identificar objetos en imágenes.
Un equipo dirigido por Geoffrey Hinton utilizó un modelo de aprendizaje profundo para participar en la competición, y ganó ampliamente: su modelo cometió la mitad de errores que el segundo clasificado. El modelo del equipo de Hinton funcionaba con GPU. En tres años, todos los participantes en el concurso ImageNet utilizaban GPU.
Puede leer también | OpenAI entrenó con éxito un bot de Minecraft utilizando 70.000 horas de vídeos de juego
La carrera por desarrollar IA con estos nuevos y potentes chips ya había comenzado. OpenAI se creó en 2015 para contrarrestar el temor de que Google, que había comprado DeepMind, una empresa de IA con sede en Londres, estuviera acaparando el mercado. OpenAI se creó inicialmente como una empresa sin ánimo de lucro que desarrollaría IA de forma responsable, financiada con mil millones de dólares, principalmente por Elon Musk.
En tres años, Musk había abandonado la organización, que se había convertido en una empresa con ánimo de lucro. Al mismo tiempo, Google y otros competidores estaban desarrollando herramientas de IA aún más rápidas. Pero fue necesario otro artículo, escrito en 2017, para dar el pistoletazo de salida a la nueva era de la IA.
Atención es todo lo que necesitas
En junio de 2017, se publicó en el servidor de preimpresiones arXiv un artículo académico titulado "Attention is all you need" (La atención es todo lo que necesitas). Fue escrito por investigadores de Google e introdujo un nuevo concepto en IA: el transformador. Transformer es la "T" de ChatGPT. GPT-2, un gran modelo de lenguaje, fue publicado por OpenAI en febrero de 2019.
Pero OpenAI no liberó el modelo completo públicamente, porque les preocupaba que se usara nefastamente.
Puede leer también | ChatGPT ayuda a un radiólogo a producir 16 artículos en 4 meses
GPT-3 llegó poco después, y luego GPT-3.5, que es la tecnología que sustenta la versión original de ChatGPT. Desde entonces, OpenAI ha publicado GPT-4, que impulsa una versión de pago de ChatGPT, llamada ChatGPT Plus.
La interfaz de chatbot se ha convertido en la forma estándar de interactuar con la IA generativa, desde ChatGPT hasta Google Bard y Microsoft Bing Chat, junto con generadores de imágenes como Midjourney y DALL-E 2. Hoy, algunas de las personas que desarrollan herramientas de IA advierten de su potencial para trastornar el mundo y de la necesidad de regular esta floreciente tecnología.
Nadie sabe qué ocurrirá después, pero la historia de la inteligencia artificial está lejos de haber terminado.