El objetivo inicial de la IA era crear máquinas que pensaran como los humanos. Pero no ha sido así en absoluto.
La brecha en el suministro de IA
El término inteligencia artificial se remonta a los años 50, cuando empezaban a construirse ordenadores electrónicos, y surgió durante una reunión celebrada en 1956 en el Dartmouth College. Fue allí donde un grupo de científicos sentó las bases de un nuevo proyecto cuyo objetivo era un ordenador que pudiera pensar. Como se decía en la propuesta para la reunión, el campo de la inteligencia artificial creía que "cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que se puede hacer que una máquina lo simule".
Durante gran parte de los primeros años de este campo, los investigadores de la IA trataron de entender cómo pensaba el ser humano y, a partir de ahí, emularlo en las máquinas. Esto significaba explorar cómo la mente humana razona o construye abstracciones a partir de su experiencia del mundo. Un aspecto importante fue el reconocimiento del lenguaje natural, es decir, la capacidad de un ordenador para entender las palabras y sus combinaciones (sintaxis, gramática y significado), lo que le permite interactuar de forma natural con los humanos.
Puede leer también | Beneficios y ejercicios de la estimulación acuática para bebés
A lo largo de los años, la IA ha atravesado ciclos de optimismo y pesimismo -los llamados "veranos" e "inviernos" de la IA- en los que se han estancado notables periodos de progreso durante una década o más. Ahora estamos claramente en un verano de IA. Una combinación de alucinante potencia de cálculo y avances algorítmicos se ha combinado para ofrecernos una herramienta como ChatGPT. Pero si echamos la vista atrás, veremos que existe una brecha considerable entre lo que muchos esperaban que significara la IA y el tipo de inteligencia artificial que se ha conseguido. Y eso nos lleva de nuevo al comentario de "autocompletar con esteroides".
Las versiones modernas de la IA se basan en lo que se denomina aprendizaje automático. Se trata de algoritmos que utilizan sofisticados métodos estadísticos para crear asociaciones a partir de un conjunto de datos de entrenamiento proporcionados por humanos. Si alguna vez ha resuelto una de esas pruebas reCAPTCHA de "encontrar el cruce", ha ayudado a crear y entrenar algún programa de aprendizaje automático. El aprendizaje automático a veces implica un aprendizaje profundo, en el que los algoritmos representan capas apiladas de redes, cada una de las cuales trabaja en un aspecto diferente de la construcción de las asociaciones.
Puede leer también | New York Times: Gobierno Peruano admite no tener evidencias de las acusaciones de los Manifestantes sobre el financiamiento
El aprendizaje automático en todas sus formas representa un logro asombroso para la informática. Apenas estamos empezando a comprender su alcance. Pero lo importante es señalar que su base descansa en un modelo estadístico. Al alimentar los algoritmos con enormes cantidades de datos, la IA que hemos construido se basa en el ajuste de curvas en un espacio hiperdimensional: cada dimensión comprende un parámetro que define los datos. Explorando estos vastos espacios de datos, las máquinas pueden, por ejemplo, encontrar todas las formas en que una palabra concreta puede seguir a una frase que empieza por: "Era un día oscuro y tormentoso...".
De este modo, nuestras máquinas-maravilla de la IA son en realidad máquinas de predicción cuyas proezas surgen de las estadísticas extraídas de los conjuntos de entrenamiento. (Aunque estoy simplificando en exceso la amplia gama de algoritmos de aprendizaje automático, lo esencial es correcto). Este punto de vista no disminuye en absoluto los logros de la comunidad de la IA, pero subraya lo poco que este tipo de inteligencia (si es que debe llamarse así) se parece a nuestra inteligencia.
Créditos: Big Think