Escuchar artículo 7 minutos Este audio se genera automáticamente. Háganos saber si tiene algún comentario.
Phil Venables, vicepresidente y CISO de Google Cloud, cree que la IA generativa dará a los defensores una ventaja sobre los atacantes y que la brecha se ampliará significativamente en los próximos tres a cinco años.
Venables y sus colegas de Google escribieron en Cybersecurity Dive: “La suposición clásica, si no cliché, es que un atacante sólo tiene que hacer lo correcto una vez, pero un defensor siempre debe hacer lo correcto. Sostiene que la IA puede superar el dilema del defensor, que es una perogrullada.
El mes pasado, Google lanzó la Iniciativa de Ciberdefensa de IA para acelerar el desarrollo de la IA para la seguridad digital. Un informe relacionado publicado por la empresa al mismo tiempo propone desarrollar ciberdefensas autónomas e investigar el diseño, construcción y uso de la IA en la seguridad del sistema.
La mayor parte del informe se centra en sistemas de defensa integrados en inteligencia artificial con acceso a telemetría y análisis, herramientas para administrar y remediar la superficie de ataque de una organización y sistemas que aprenden de los datos de ataques globales para encontrar vulnerabilidades de manera más integral que los atacantes, un libro visionario con. Ejemplos de futuro que aún no se han realizado.
La naturaleza estructural de la IA aumenta el optimismo de Venables para desarrollar modelos subyacentes entrenados en datos de amenazas, datos organizacionales, conocimientos y herramientas de seguridad, con el potencial de aumentar las capacidades y la productividad al menos 10 veces.
“Básicamente, si piensas en qué es la IA y qué hace, se entrena con un conjunto de datos, luego se ajusta con los datos propios de una organización y luego se adapta aún más al contexto y la experiencia de la organización. Es algo que se ajustará. ”, dijo Venables.
Phil Venables, CISO de Google Cloud
Con permiso de Google
“Esto es realmente una asimetría que favorece al defensor, porque el defensor puede ajustar la IA para convertirse en el asistente perfecto para todo el entorno, mientras que el atacante tiene que ser genérico en todo”, dijo Venables.
“Por cierto, si el atacante tuviera todos los datos que tiene la organización, no tendría que atacar de todos modos porque ya ganó”.
El uso de la IA por parte de los atacantes está limitado por diseño.
Si bien muchos ejecutivos de empresas de ciberseguridad ven la IA generativa como un mecanismo viable para aumentar las defensas y mejorar el desempeño de sus respectivos negocios, no todos están convencidos de que esta tecnología traerá beneficios significativos.
Según Kelly Shortridge, ingeniera principal senior de la oficina de CTO de Fastly, los defensores ya están utilizando técnicas modernas de ingeniería de software para reconstruir sistemas en torno a la resiliencia y recuperar la ventaja que pueden tener sobre los atacantes.
“Creo que esto es sólo una solución a un problema, especialmente en ciberseguridad”, dijo Shortridge a Cybersecurity Dive el año pasado, comentando sobre la tecnología de IA generativa en general. “Queremos subirnos a este nuevo tren, pero no sabemos muy bien cómo se aplicará”.
Los investigadores de seguridad aún tienen que ver evidencia de que los actores de amenazas estén utilizando IA generativa para mejorar significativamente sus operaciones o lanzar ataques cibernéticos. Pero sólo porque la IA no haya demostrado ser efectiva para los atacantes hasta ahora no significa que los mismos resultados se aplicarán para la defensa.
“Lo que me entusiasma de esta oportunidad, especialmente en materia de seguridad en el futuro, es la capacidad de mejorar las capacidades operativas humanas para analizar las amenazas más rápidamente y generar más defensas automatizadas con mayor rapidez”, afirmó Venables.
Venables dijo que la “razón un tanto irónica” por la que los atacantes no han utilizado ampliamente la IA como arma es porque no han tenido que hacerlo. Los actores de amenazas están logrando sus objetivos sin IA.
“Creo que los atacantes son actores económicos racionales que no lanzarían una campaña de ataque a gran escala cuando tienen éxito diario con los métodos tradicionales”, dijo Venables.
Los actores de amenazas están aprovechando la IA para crear campañas de phishing más precisas y atractivas, lo cual es un “caso de uso perfecto porque pueden producir mensajes en masa”, y los atacantes pueden usar la ingeniería social para crear algún tipo de campaña de phishing. Venables dijo que pueden obtener información no autorizada. acceder y maximizar las ganancias financieras.
la recompensa supera el riesgo
Sus predicciones sobre la IA en seguridad contrastan con la perspectiva actual de sus colegas sobre la tecnología en AWS. Chris Betz, CISO de AWS, dijo a Cybersecurity Dive la semana pasada que es demasiado pronto para saber si los defensores o los atacantes se beneficiarán de la IA generativa.
“Todavía tenemos un largo camino por recorrer en términos de adopción, integración, ajuste e implementación dentro de las organizaciones”, dijo Venables. “Pero creemos que a medio y largo plazo dará a los defensores una ventaja estructural bastante significativa”.
Transformar significativamente la seguridad con la ayuda de la IA requiere cierto nivel de experiencia dentro de su organización, especialmente cuando se trata de integrar modelos de IA con herramientas, datos internos y contexto.
“Muchas organizaciones todavía tienen muchas vulnerabilidades fundamentales que no han sido abordadas”, afirmó Venables.
Dijo que la IA puede ayudar a las empresas a identificar vulnerabilidades problemáticas. Esta tecnología también puede ayudarle a configurar correctamente su infraestructura local y en la nube y cómo construir su software correctamente.
“El patrón común en todo esto es que, si bien la IA es mejor en muchas cosas cuando actúa sola, es mejor en la mayoría de las cosas cuando se utiliza como complemento de la actividad humana”, dijo Venables. “Estamos utilizando la IA para ampliar las habilidades humanas y la productividad existentes, y creo que eso es realmente emocionante”.
Hay algunas señales, o indicadores adelantados, que Venables busca como evidencia de que los defensores están obteniendo ventaja con la IA.
Incrementar la productividad de los esfuerzos del equipo de seguridad Ampliar la cobertura de sensores con las mismas personas y herramientas Resolución más rápida de amenazas y vulnerabilidades conocidas y emergentes
Venables dice que si la IA para la ciberdefensa logra estos resultados, el indicador rezagado de menos ciberataques e incidentes de seguridad está casi garantizado.
Venables dijo que tiene preocupaciones más amplias sobre cómo las organizaciones pueden implementar IA de manera segura, pero le preocupa cómo las organizaciones pueden implementar IA de manera segura, como las imágenes sobrecorregidas producidas por el modelo de lenguaje a gran escala de próxima generación Gemini 1.5 de Google poco después de su lanzamiento en A mediados de febrero no se prevén riesgos.
“Literalmente simplemente estamos utilizando sus capacidades de análisis estructural muy profundo para contextualizar los datos frente a un conjunto de conocimientos fundamentales”, dijo Venables. “Hay que tener cuidado al ajustar la salida, pero no estás expuesto al mismo tipo de riesgos que si simplemente lo estuvieras ejecutando como un generador de imágenes general o un chatbot general que recibe algunas indicaciones”.
Fuente: https://www.cybersecuritydive.com/news/google-cloud-ciso-AI-defense-advantage/710156/