Para que el ciberespacio sea más defendible -un objetivo defendido por la Universidad de Columbia y reclamado en la Estrategia Nacional de Ciberseguridad de Estados Unidos para 2023-, las innovaciones no deben limitarse a reforzar las defensas, sino que deben dar una ventaja sostenida a los defensores frente a los atacantes.
La Inteligencia Artificial aliado perfecto de la Ciberseguridad
La inteligencia artificial puede cambiar las reglas del juego para los defensores. En palabras de un reciente informe de Deloitte, "la IA puede ser un multiplicador de fuerzas, permitiendo a los equipos de seguridad no solo responder más rápido de lo que pueden moverse los ciberatacantes, sino también anticiparse a estos movimientos y actuar con antelación".
Puede leer también | La ética de la Inteligencia Artificial en América Latina y el Caribe: Desafíos y Oportunidades
Pero esto no es menos cierto si lo cambiamos: La IA puede permitir a los ciberatacantes moverse más rápido de lo que los defensores pueden responder.
Incluso los mejores avances defensivos se han visto rápidamente superados por los mayores saltos realizados por los atacantes, que llevan mucho tiempo teniendo la ventaja sistémica en el ciberespacio. Como dijo el experto en seguridad Dan Geer en 2014: "Ya sea en la detección, el control o la prevención, estamos anotando récords personales, pero todo el tiempo la oposición está estableciendo récords mundiales". Lo más descorazonador es que muchas defensas prometedoras -como la "seguridad ofensiva" para descifrar contraseñas o escanear las redes en busca de vulnerabilidades- han acabado favoreciendo más a los atacantes que a los defensores.
Puede leer también | Impacto de la inteligencia artificial en el ciberataque y la ciberdefensa
Para que la IA evite este destino, los defensores, y quienes financian nuevas investigaciones e innovaciones, deben recordar que la IA no es una varita mágica que conceda invulnerabilidad duradera. Para que los defensores ganen la carrera armamentística de la ciberseguridad en la IA, las inversiones deben renovarse constantemente y estar bien orientadas para adelantarse al propio uso innovador de la IA por parte de los actores de las amenazas.
Es difícil evaluar a qué bando ayudará más la IA, si al ataque o a la defensa, ya que cada uno es único. Pero estas comparaciones de manzanas con naranjas pueden aclararse utilizando dos marcos ampliamente utilizados.
Puede leer también | La Inteligencia Artificial descifra un pergamino ilegible de 2.000 años de antigüedad enterrado en las cenizas del Vesubio
El Marco de Ciberseguridad del Instituto Nacional de Estándares y Tecnología de Estados Unidos puede utilizarse para destacar las muchas formas en que la IA puede ayudar a la defensa, mientras que el marco Cyber Kill Chain, desarrollado por Lockheed Martin, puede hacer lo mismo con los usos de la IA por parte de los atacantes.
Este enfoque más estructurado puede ayudar a tecnólogos y responsables políticos a orientar sus inversiones y garantizar que la IA no siga el camino de tantas otras tecnologías, dando un codazo a los defensores pero acelerando el ataque.
Ventajas de la IA para la defensa
El marco del NIST es una arquitectura ideal para abarcar todas las formas en que la IA puede ayudar a los defensores. La Tabla 1, aunque no pretende ser una lista completa, sirve de introducción.
Tabla 1: Uso del marco del NIST para clasificar las ventajas de la IA para los defensores
Función del marco NIST | Maneras en que la IA podría mejorar radicalmente la defensa |
Identificar | – Descubrimiento rápido y automatizado de los dispositivos y software de una organización. |
– Mapeo más sencillo de la cadena de suministro de una organización y sus posibles vulnerabilidades y puntos de falla. | |
– Identificación de vulnerabilidades de software a velocidad y escala. | |
Proteger | – Reducir la demanda de ciberdefensores capacitados |
– Reducir los niveles de habilidad necesarios para los ciberdefensores. | |
– Parchar automáticamente el software y las dependencias asociadas | |
Detectar | – Detecte rápidamente intentos de intrusión examinando datos a escala y velocidad, con pocas alertas de falsos positivos. |
Responder | – Seguimiento enormemente mejorado de la actividad del adversario mediante el escaneo rápido de registros y otros comportamientos. |
– Expulsión automática de atacantes, dondequiera que se encuentren, a gran velocidad. | |
– Ingeniería inversa y desofuscación más rápidas, para comprender cómo funciona el malware y derrotarlo y atribuirlo más rápidamente. | |
– Reducción sustancial de alertas de falsos positivos para el seguimiento humano | |
Recuperar | – Reconstruya automáticamente la infraestructura comprometida y restaure los datos perdidos con un tiempo de inactividad mínimo |
Aunque esto es sólo un subconjunto, sigue habiendo ganancias sustanciales, especialmente si la IA puede reducir drásticamente el número de defensores altamente cualificados. Desgraciadamente, la mayoría de los demás beneficios se compensan directamente con los correspondientes beneficios para los atacantes.
Ventajas de la IA para el ataque
Aunque el marco del NIST es la herramienta adecuada para la defensa, la Cyber Kill Chain de Lockheed Martin es un marco mejor para evaluar cómo la IA podría impulsar el lado atacante de la carrera armamentística, una idea propuesta anteriormente por la informática estadounidense Kathleen Fisher. (MITRE ATT&CK, otro marco temático de ataque, puede ser incluso mejor, pero es sustancialmente más complejo de lo que puede examinarse fácilmente en un breve artículo).
Tabla 2: Uso del marco Cyber Kill Chain para clasificar las ventajas de la IA para los atacantes
Fase del marco Cyber Kill Chain | Maneras en que la IA podría mejorar radicalmente la ofensiva |
Reconocimiento | – Encuentre, compre y utilice automáticamente credenciales filtradas y robadas |
– Ordenar automáticamente para encontrar todos los objetivos con una vulnerabilidad específica (amplia) o información sobre un objetivo preciso (profunda; por ejemplo, una publicación oscura que detalla una contraseña codificada) | |
– Identificar automáticamente la cadena de suministro u otras relaciones con terceros que podrían verse afectadas para impactar el objetivo principal. | |
– Acelerar la escala y la velocidad a la que los agentes de acceso pueden identificar y agregar credenciales robadas | |
Armamento | – Descubra automáticamente vulnerabilidades de software y escriba exploits de prueba de concepto, a velocidad y escala |
– Mejorar sustancialmente la ofuscación, lo que dificulta la ingeniería inversa y la atribución. | |
– Redactar automáticamente correos electrónicos de phishing superiores, por ejemplo, leyendo correspondencia extensa de un ejecutivo e imitando su estilo. | |
– Crear audio y vídeo deepfake para hacerse pasar por altos ejecutivos y engañar a los empleados. | |
Entrega, explotación e instalación. | – Interactuar de manera realista en paralelo con defensores de muchas organizaciones para convencerlos de que instalen malware o sigan las órdenes del atacante. |
– Generar tráfico de ataque falso para distraer a los defensores. | |
Comando y control | – Fuga más rápida: escalada de privilegios automatizada y movimiento lateral |
– Orquestación automática de un gran número de máquinas comprometidas | |
– Capacidad del malware implantado para actuar de forma independiente sin tener que comunicarse con los controladores humanos para recibir instrucciones. | |
Acciones sobre objetivos | – Exfiltración encubierta automatizada de datos con un patrón menos detectable |
– Procesamiento automatizado para identificar, traducir y resumir datos que cumplan con los requisitos de recopilación específicos |
Una vez más, aunque este es sólo un subconjunto probable de las muchas formas en que la IA ayudará en la ofensiva, demuestra la ventaja que puede aportar, especialmente cuando se combinan las categorías.
Análisis y próximos pasos
Desafortunadamente, las tecnologías de propósito general históricamente han favorecido a la ofensiva, ya que los defensores están dispersos dentro y entre las organizaciones, mientras que los atacantes están concentrados. Para obtener todos sus beneficios, las innovaciones defensivas generalmente deben implementarse en miles de organizaciones (y a veces por miles de millones de personas), mientras que grupos específicos de atacantes pueden incorporar innovaciones ofensivas con mayor agilidad.
Esta es una de las razones por las que la mayor ayuda de la IA para la defensa puede ser reducir la cantidad de ciberdefensores necesarios y el nivel de habilidades que necesitan.
Puede leer también | Escasez de talentos en ciberseguridad perspectivas para 2023
Solo Estados Unidos necesita cientos de miles de trabajadores adicionales en ciberseguridad, puestos que probablemente nunca se cubrirán. Aquellos que sean contratados tardarán años en desarrollar las habilidades necesarias para enfrentarse a atacantes avanzados. Además, los humanos luchan con tareas complejas y difusas como la defensa a escala.
A medida que más organizaciones trasladen sus tareas informáticas y de red a la nube, los principales proveedores de servicios estarán en buena posición para concentrar las defensas impulsadas por la IA. La escala de la IA podría revolucionar por completo la defensa, no sólo para los pocos que pueden permitirse herramientas avanzadas, sino para todos los que están en Internet.
Puede leer también | Cursos para volverte un profesional de ciberseguridad
El futuro no está escrito en piedra sino en código. Las políticas e inversiones inteligentes ahora pueden marcar una gran diferencia para inclinar la balanza a favor de la defensa en la carrera armamentista de la IA. Por ejemplo, la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos (responsable del desarrollo de tecnologías para uso militar) está realizando inversiones transformadoras, aparentemente habiendo aprendido de la experiencia.
En 2016, DARPA organizó la ronda final de su Cyber Grand Challenge para crear "algunos de los sistemas automatizados de búsqueda de errores más sofisticados jamás desarrollados". Pero estas computadoras jugaban tanto a la ofensiva como a la defensiva. Para ganar, " necesitaban explotar las vulnerabilidades del software de sus adversarios" y hackearlas. Los sistemas ofensivos autónomos pueden ser una inversión natural para los militares, pero desafortunadamente aumentarían las ventajas de la ofensiva.
Puede leer también | Australia quiere enseñar ciberseguridad básica a niños de 5 años
El nuevo experimento de DARPA, el AI Cyber Challenge , es puramente defensivo, sin ningún componente ofensivo de captura de bandera, "para aprovechar los avances en IA para desarrollar sistemas que puedan proteger automáticamente el código crítico que sustenta la vida diaria". Con casi 20 millones de dólares en premios y respaldado por empresas líderes en IA (Anthropic, Google, Microsoft y OpenAI), este desafío DARPA podría revolucionar la seguridad del software.
Estos dos desafíos resumen perfectamente la dinámica: los tecnólogos y formuladores de políticas necesitan invertir para que las IA defensivas sean más rápidas a la hora de encontrar vulnerabilidades y parchearlas y sus dependencias asociadas dentro de una empresa que las IA ofensivas a la hora de descubrir, convertir en armas y explotar esas vulnerabilidades.
Dado que se prevé que el gasto mundial en IA para ciberseguridad aumentará en 19 mil millones de dólares entre 2021 y 2025, la oportunidad de darle finalmente a la defensa una ventaja sobre la ofensiva rara vez ha parecido más brillante.