El CISO de Connecticut plantea preocupaciones de seguridad sobre BadGPT y FraudGPT


Hace unas semanas, estaba leyendo publicaciones en LinkedIn de los principales directores de seguridad de la información y me llamó la atención una publicación de Jeff Brown, un CISO de Connecticut. Mientras enlazaba al artículo del Wall Street Journal, Jeff escribió en su publicación:

“Bienvenido al lado oscuro de la IA y al auge de BadGPT y FraudGPT. Estos no son los chatbots de IA comunes y corrientes. Un estudio innovador realizado por investigadores de la Universidad de Indiana descubre más de 200 servicios de la web oscura que ofrecen herramientas de piratería. modelos de lenguaje a gran escala es un recordatorio de la evolución del panorama cibernético, y algunas herramientas de piratería especializadas pueden costar tan solo 5 dólares al mes.

“La aparición de ChatGPT ha coincidido con un asombroso aumento del 1.265% en los ataques de phishing, exacerbado aún más por la aparición de tecnología de audio y vídeo deepfake. Un empleado de una empresa nacional fue engañado para que transfiriera la friolera de 25,5 millones de dólares durante una conferencia telefónica deepfake, recaudando dinero. alarma entre los CIO y CISO sobre sofisticadas estafas de phishing y deep fakes. Preparados para olas falsas.

“Estas historias de ‘un buen modelo que salió mal’ nos llevan a un punto importante: los modelos públicos como ChatGPT han aumentado los controles de seguridad, pero también se han perfeccionado para propósitos más siniestros. Mientras continuamos aprovechando los avances en IA, debemos permanecer vigilante, reconociendo que no todos los riesgos de la IA pueden eliminarse por ley”.

He trabajado con Jeff Brown, quien dirigió los esfuerzos de ciberseguridad del gobierno del estado de Connecticut, durante más de cuatro años. Es un líder muy respetado entre los CISO del estado y le pregunté si me podían entrevistar sobre este tema para mi blog. Estuvo de acuerdo y la entrevista se registra a continuación.

Dan Lohrmann (DL): ¿Qué es lo que más le preocupa de BadGPT, FraudGPT y otras herramientas similares?

Jeff Brown (JB): Mi mayor preocupación es que, mientras la gente buena levanta barreras contra la IA, los atacantes las derriban. Estas herramientas de IA diseñadas específicamente son una forma de democratizar el conocimiento al que sólo tenían acceso los atacantes altamente capacitados. Los actores malintencionados que abusan de estas herramientas con fines dañinos, como crear deepfakes y difundir información errónea, son una amenaza real y creciente. Para los atacantes expertos, estas herramientas permiten ataques a mayor escala y ataques de phishing y phishing más sofisticados. En otras palabras, se reducen los obstáculos para los atacantes y se aumentan los obstáculos para defender.

DL: ¿Connecticut ha visto un aumento en el phishing, el Spear phishing y otros ataques cibernéticos avanzados durante el año pasado?

JB: Hemos implementado varios controles de seguridad nuevos que aumentan nuestra visibilidad y nuestra capacidad para responder y recuperarnos rápidamente si ocurre un problema. El correo electrónico sigue siendo el vector de ataque más común debido a su alta prevalencia y al hecho de que los atacantes pueden explotarlo fácilmente. Los ataques de phishing aumentan constantemente y la sofisticación de estos ataques también aumenta. Mejoramos continuamente nuestra capacidad para detectar y responder a ataques basados ​​en phishing, y esperamos que este problema se vea exacerbado por la IA generativa. Por supuesto, también utilizamos herramientas de inteligencia artificial para proteger las bandejas de entrada de nuestros empleados y los resultados hasta ahora han sido muy prometedores. Entonces, desde la perspectiva de un defensor, la IA no es del todo malas noticias.

DL: ¿Ha visto algún ciberataque utilizando herramientas BadGPT o FraudGPT (o similares)?

JB: Debido a la naturaleza de estos ataques, puede resultar difícil identificar las herramientas exactas que se utilizan, pero no hay duda de que la frecuencia de los ataques basados ​​en correo electrónico ha aumentado significativamente. Los ataques están aumentando no sólo en número sino también en sofisticación, lo que demuestra que los atacantes evolucionan y mejoran constantemente sus métodos.

DL: ¿Hacia dónde cree que se dirige esta tendencia? ¿La nueva GenAI empeorará las cosas o ayudará a la ciberseguridad en general?

JB: Si bien el uso indebido de GenAI es motivo de preocupación, las herramientas de IA también ofrecen nuevas formas de fortalecer los controles de defensa de la ciberseguridad. A medida que la tecnología evoluciona, esperamos que la IA se utilice para mejorar las capacidades de detección y respuesta a amenazas y, en última instancia, para aumentar la automatización. Si bien creemos que seguirá habiendo una intensa competencia entre atacantes y defensores, herramientas como Security Copilot de Microsoft son prometedoras, no solo facilitan la vida de los defensores, sino que también liberan a los ocupados analistas de seguridad. Liberar tiempo también podría ayudar a abordar la escasez de habilidades.

DL: ¿Qué pueden hacer los gobiernos para prepararse para lo que sucederá después?

JB: Los gobiernos deben invertir en programas de capacitación y concientización para su personal, así como en herramientas avanzadas de ciberseguridad. Lo importante es no bajar la guardia. A medida que las amenazas continúan evolucionando, las defensas deben evolucionar con ellas. A medida que los países continúan su camino hacia el gobierno digital, la ciberseguridad también debe ser parte del debate y se necesitan recursos para construir defensas razonables contra el creciente número de amenazas cibernéticas.

DL: ¿Cómo están ayudando las herramientas GenAI a Connecticut a protegerse de nuevas formas de ciberataques?

JB: La velocidad y el alcance de los ataques aumentan cada día y los defensores deben adaptarse al entorno cambiante. Las herramientas GenAI ya están ayudando a mejorar las capacidades de detección de amenazas y los tiempos de respuesta. Estas herramientas ofrecen el potencial de analizar de forma rápida y eficiente grandes cantidades de datos e identificar amenazas potenciales que serían difíciles o imposibles de detectar manualmente. Estas herramientas también son mucho más rápidas que examinar manualmente los archivos de registro o realizar búsquedas simples. En el futuro, las capacidades de IA serán obligatorias para la mayoría de los productos de seguridad.

DL: ¿Dónde pueden acudir los CISO, los profesionales de seguridad y otros funcionarios gubernamentales para aprender más sobre estas tendencias de ciberataques utilizando herramientas GenAI? ¿Cuál es el método?

JB: Este es un campo que cambia muy rápidamente, por lo que recomendamos seguir fuentes confiables de noticias sobre ciberseguridad, asistir a seminarios web y conferencias relevantes y participar en foros y grupos de discusión profesionales sobre ciberseguridad. Lo más importante es mantenernos firmes y aprovechar las posibilidades y el potencial de la IA para ayudarnos a defendernos. Ignorar o prohibir las herramientas de IA no es una estrategia ganadora para el futuro.

DL: ¿Hay algo más que quisieras agregar?

JB: Fortalecer la colaboración y el intercambio de información entre agencias gubernamentales y el sector privado será clave para el éxito a largo plazo. Con solo analizar herramientas, procesos y mejores prácticas, puede perfeccionar su estrategia existente y responder rápidamente a las amenazas en evolución. Lo que marca la diferencia es una combinación de herramientas, intercambio de información y tácticas defensivas más sólidas.



Fuente: https://www.govtech.com/blogs/lohrmann-on-cybersecurity/conn-ciso-raises-security-concerns-over-badgpt-fraudgpt