Meta ha lanzado oficialmente Code Llama, un nuevo LLM de código abierto para completar, generar y probar código, que puede ejecutarse en hardware local y competir con ChatGPT.
El modelo está disponible gratuitamente tanto para investigación como para uso comercial, y se presenta en diversas variantes para adaptarse mejor a las necesidades del usuario. Puede producir o completar líneas de código en lenguajes como Python, C++, Java y Bash.
Code Llama es una versión especializada del LLM gratuito Llama 2 de Meta, y se creó sometiendo a Llama 2 a un entrenamiento adicional basado en 500.000 millones de tokens de código y datos de programación.
El modelo se presenta en tres tamaños de parámetros diferentes: 7.000 millones (7B), 13.000 millones (13B) y 34.000 millones (34B).
Meta declaró que, aunque el modelo 34B es el más preciso, los modelos 7B y 13B funcionan más rápido y pueden ser más beneficiosos para demandas de baja latencia, como la finalización de código en tiempo real.
Code Llama 34B obtuvo una precisión del 48,8% en HumanEval, un conjunto de datos de evaluación comparativa elaborado por OpenAI para ejecutar modelos de IA a través de retos de programación, mejor que el 30,5% logrado por el modelo base Llama 2 y una ligera mejora sobre el 48,1% obtenido por el modelo GPT-3.5 de OpenAI, que es la columna vertebral de ChatGPT.
También puede leer | Sarah Silverman demanda a OpenAI y Meta
Todos los modelos quedaron por debajo del GPT-4 multimodal de OpenAI, que puede generar código en una amplia gama de lenguajes de programación y es el modelo base del asistente de programación de IA de código avanzado Copilot X de Microsoft.
Además de la variedad de tamaños de los modelos de Code Llama, Meta lanzó dos modelos perfeccionados titulados "Code Llama - Python" y "Code Llama - Instruct".
El primero se ha sometido a un entrenamiento adicional basado en un amplio conjunto de datos de 100.000 millones de tokens específicos de Python, para garantizar que es especialmente preciso a la hora de generar código en este lenguaje.
También puede leer | Meta adquiere un grupo de empresas de juegos de realidad virtual
Meta declaró que se creó porque Python es uno de los lenguajes más utilizados en la comunidad de la IA, ha sido objeto de numerosas pruebas comparativas hasta la fecha y es la base del marco de aprendizaje automático (ML) de código abierto Pytorch.
Llama - Instruct se ha entrenado con 5.000 millones de tokens para adaptarlo a entradas en lenguaje natural, y es el modelo que Meta recomienda a los usuarios que deseen generar respuestas o código a partir de preguntas en texto plano, como se haría con una herramienta como ChatGPT.
Aunque el generalista Llama 2 puede utilizarse de forma similar, no es tan preciso en sus respuestas de código, ya que no ha sido sometido a los mismos pasos de ajuste que Code Llama.
También puede leer | Meta pidió a los usuarios que probaran su chatbot de Inteligencia Artificial
El modelo 7B también puede ejecutarse en una única unidad de procesamiento gráfico (GPU), aunque Meta no especificó los requisitos mínimos de hardware para conseguirlo.
El ingeniero de software Anton Bacaj publicó un vídeo en el que Code Llama era capaz de procesar la generación de código a una velocidad de 49 ms por token, ejecutándose en cuatro GPU Nvidia 3090.
Esto podría resultar beneficioso para los programadores que deseen utilizar el modelo para generar, probar o completar código basado en datos sensibles o información reservada.
También puede leer | Meta : está en búsqueda de la realidad virtual fotorrealista
Aunque esto requerirá una inversión inicial en hardware, las empresas más pequeñas pueden sopesar estos costes frente a las suscripciones a servicios como ChatGPT Plus o Copilot X.
El coste de mantener los datos a nivel local también puede considerarse necesario frente al "agujero negro" de la supervisión del código que se pasa a empresas como Google y OpenAI.
Meta no ha revelado el origen de algunos de los datos utilizados para entrenar a Llama 2, lo que podría exponer a las empresas a acciones legales en virtud de leyes como la Ley de Inteligencia Artificial de la UE si más tarde se descubre que han generado código basado en datos protegidos por derechos de autor.
El predecesor de Llama 2, LLaMA, se filtró en Internet en marzo de 2023, y algunos hackers pidieron que se almacenara en Bitcoin para facilitar el acceso anónimo. Algunos expertos habían expresado su preocupación por que, en las manos equivocadas, LLaMA pudiera utilizarse para impulsar la ciberdelincuencia.
A diferencia de LLaMA, Llama 2 y Code Llama están disponibles gratuitamente fuera del ámbito académico. Meta declaró que Code Llama ha sido sometido a pruebas adicionales para eliminar los resultados maliciosos.
Puede leer también | Meta : acaba de implementar una nueva pestaña 'llamadas' para iO
"Como toda tecnología puntera, Code Llama conlleva riesgos. Construir modelos de IA de forma responsable es crucial, y hemos tomado numerosas medidas de seguridad antes de publicar Code Llama", declaró la empresa.
"Como parte de nuestros esfuerzos de red teaming, realizamos una evaluación cuantitativa del riesgo de Code Llama de generar código malicioso. Creamos mensajes que intentaban solicitar código malicioso con una clara intención y comparamos las respuestas de Code Llama a esos mensajes con las de ChatGPT (GPT3.5 Turbo). Nuestros resultados mostraron que Code Llama respondía de forma más segura".
Además de los resultados abiertamente maliciosos, Code Llama será juzgado por la utilidad cotidiana de su generación y depuración de código.
Recientemente se descubrió que ChatGPT daba respuestas incorrectas a preguntas de programación más del 50% de las veces.