Las mayores tendencias de IA en ciberseguridad
Principales tendencias de IA en ciberseguridad
La inteligencia artificial no es algo nuevo para la industria de la ciberseguridad. La IA, más precisamente descrita en la mayoría de los casos como aprendizaje automático, se ha utilizado durante años para detectar posibles amenazas a los sistemas informáticos para que los seres humanos reales puedan tomar medidas si es necesario.
Se remonta mucho antes de la pandemia, las empresas de ciberseguridad, tanto grandes como pequeñas, presumirían de sus últimos avances en IA en los pisos de exhibición de conferencias como la reunión anual de Black Hat en Las Vegas, Nevada. Las empresas prometían que su última solución detendría a los hackers maliciosos antes de que pudieran causar algún daño.
Como alguien que ha asistido a Black Hat más veces de las que me gustaría admitir, casi automáticamente rodaría los ojos al mencionarlo. Esto se debe a que gran parte de ello era una estrategia de marketing diseñada para atraer a los ejecutivos y hacer que gastaran los presupuestos de TI de sus empresas. Las afirmaciones de IA eran tan comunes como las camisetas gratuitas en los puestos de este año, pero más empresas parecían respaldar la tecnología.
La IA toma el centro del escenario
El surgimiento de la IA generativa y los modelos de lenguaje grandes como ChatGPT han puesto a la IA en el centro de atención pública y han puesto sus poderosas herramientas, o armas según cómo se mire, en manos de personas, grupos delictivos y estados nacionales que no las tenían antes.
Aún no hemos comenzado a ver las increíbles innovaciones que podrían surgir de la IA, pero la profundidad de su lado oscuro también sigue siendo desconocida, dice Dan Schiappa, director de producto de la empresa de ciberseguridad Arctic Wolf.
- Amazon planea introducir anuncios en Prime Video en 2024
- Mejor servicio de streaming para contenido en 4K
- Ve ‘The Continental’ Transmite el preludio de ‘Jo...
Lo que está claro, dice, es que al igual que hace unos años con los ransomware y los kits de malware, las herramientas de hacking de IA están comenzando a estar disponibles en línea, lo que inevitablemente las pone en manos de un número indeterminado de ciberdelincuentes menos sofisticados que de otra manera no habrían sido capaces de realizar ataques cibernéticos impulsados por IA.
“Así que no necesito construir la IA, no necesito ser la persona inteligente que pueda crearla, solo necesito ser una persona malintencionada que pueda pagar a alguien para que la use”, dijo Schiappa, en una entrevista en la conferencia Black Hat de este agosto.
Esa accesibilidad repentina marca un punto de inflexión importante para la industria de la ciberseguridad y será un enfoque principal a medida que entrene y aproveche sus propios sistemas de IA para fines de defensa, dice, agregando que visualiza un día en el que incluso los ciberdelincuentes menos sofisticados podrán lanzar “ataques completamente autónomos” contra sus objetivos.
Los funcionarios gubernamentales también ven la necesidad de prepararse para ese día. En el Black Hat de este año, los funcionarios de la Agencia de Proyectos de Investigación Avanzados de Defensa anunciaron el lanzamiento de su Desafío Cibernético de IA, una competencia de dos años destinada a crear sistemas de ciberseguridad de vanguardia impulsados por IA diseñados para proteger la infraestructura crítica de la nación. Grandes nombres en IA, incluidos el creador de ChatGPT, OpenAI, Google y Microsoft, se han sumado para participar.
Los cinco mejores equipos, que recibirán $2 millones cada uno, participarán en las semifinales en el próximo Defcon, y los ganadores serán anunciados en el evento de 2025. El primer lugar obtiene un premio de $4 millones.
Mientras tanto, los líderes mundiales también están hablando sobre la necesidad de comprender ambos lados del potencial de la IA, así como de regular su uso eventualmente antes de que la tecnología se desarrolle y evolucione más allá del punto en que eso sea posible.
Y están consultando a expertos en IA sobre cómo hacerlo, dice Jeff Moss, el hacker que fundó las conferencias Black Hat y Defcon.
“Creo que lo que va a suceder es que, de ahora en adelante, no solo tendremos un asiento de primera fila, sino que también podremos jugar con la tecnología”, dijo Moss mientras se dirigía a una multitud de asistentes al comienzo de Black Hat.
Por eso, a pesar de las amenazas que la IA plantea a la ciberseguridad, también se debería considerar como una oportunidad única, dice.
“Hay oportunidades para nosotros como industria de involucrarnos y ayudar a dirigir el futuro y eso es bastante nuevo”.
La IA como arma
Cualquier persona que haya utilizado un sistema de IA disponible públicamente puede decirte que no es difícil hacer que se comporten mal. Por ejemplo, si bien ChatGPT educadamente se negará si le pides que escriba un correo electrónico de phishing, generará con gusto correos electrónicos que se hacen pasar por el departamento de nómina solicitando que se envíe dinero, o por el departamento de TI que exige que se instale una actualización de software.
Todo se trata de hacerle las preguntas adecuadas a la IA para pasar por alto esas barreras de protección, pero imagina un modelo de lenguaje grande sin esas barreras en su lugar. Los expertos se preocupan de que la IA permitirá operaciones de phishing a gran escala altamente personalizadas y altamente convincentes.
Esas estafas impulsadas por IA podrían ir más allá del phishing regular por correo electrónico y extenderse a ataques más avanzados que involucran deepfakes de audio y video, que hacen que parezca que una persona está haciendo o diciendo algo que no está, según Nicole Eagan, una de las cofundadoras de DarkTrace. La empresa se fundó hace una década en Cambridge, Inglaterra, como una organización de investigación en IA. Ahora utiliza la tecnología en sus operaciones de ciberseguridad.
Eagan, quien ahora se desempeña como directora de estrategia y AI de la compañía, dice que las herramientas de inteligencia artificial de código abierto necesarias para este tipo de ataques están fácilmente disponibles, solo es cuestión de que los estafadores obtengan suficiente contenido de audio o video con la persona que están tratando de imitar.
Esto podría ser un riesgo para todos, desde los CEO que aparecen frecuentemente en televisión hasta los adolescentes que publican videos en TikTok, dice ella.
Schiappa de Arctic Wolf está de acuerdo, diciendo que aunque la mayoría de los deepfakes que existen actualmente son bastante fáciles de detectar, cada vez será más difícil distinguir entre algo generado por IA y algo que es real.
“Piensa en los gráficos por computadora en un videojuego hace 10 años”, dijo. “¿Quién sabe qué tan buena será la IA dentro de 10 años?”
Más de una docena de presentaciones en Black Hat y Defcon dieron una idea de lo que podría venir, demostrando en tiempo real cómo la voz de una persona o incluso su imagen en video podrían ser falsificadas de manera convincente utilizando principalmente herramientas de código abierto y muestras mínimas de audio y video.
DarkTrace, que se ha convertido en una compañía pública multimillonaria, aún opera laboratorios de investigación en Cambridge donde alberga su propia IA ofensiva que utiliza para entrenar y fortalecer su IA defensiva. Cuanto más se enfrentan las dos versiones, más aprenden y mejoran en lo que hacen, dice Eagan.
La compañía también puede desatar la IA ofensiva en sus clientes en simulaciones. Hará cosas como insertarse en conversaciones de correo electrónico y reuniones en Microsoft Teams de maneras creíbles, dice Eagan. La idea no es engañar a las empresas, sino mostrarles dónde necesitan mejorar.
Leer más:
- Es aterradoramente fácil usar ChatGPT para escribir correos electrónicos de phishing
- Norton dice que su aplicación Genie detectará y detendrá estafas en línea
- Un IA me ayudó a encontrar zapatillas para el maratón de NYC. Así es como funcionó
- OpenAI quiere que su nuevo ChatGPT sea tu “asistente de IA para el trabajo”
Rompiendo los sistemas
Parte de dar forma al futuro es asegurarse de que los sistemas legítimos de inteligencia artificial estén debidamente protegidos. Y al igual que con otros tipos de tecnología, una de las mejores formas de garantizarlo es buscar formas de romperlo, luego solucionar esas vulnerabilidades antes de que puedan ser explotadas por criminales.
Esa fue la misión de los hackers que pasaron su tiempo en Defcon en el evento de fin de semana llamado AI Village. Hicieron todo lo posible para encontrar fallos en la seguridad de sistemas de inteligencia artificial conocidos, con la aprobación de esas compañías y la administración de Biden.
Los hackers hicieron todo lo posible para obtener versiones sin etiquetas de LLMs como ChatGPT y Bard de Google para hacer cosas como propagar desinformación o teñir el contenido que creaban con un sesgo específico.
Aunque la existencia del AI Village se remonta a varios años atrás, este año estuvo a rebosar, como era de esperar, gracias a la enorme cantidad de publicidad en torno a la tecnología de IA.
Mientras tanto, en Black Hat, los investigadores de la startup de ciberseguridad HiddenLayer demostraron a los medios y a posibles clientes cómo se podría utilizar la IA para hackear sistemas bancarios en línea. En una instancia, utilizaron software de IA para que su banco ficticio aprobara una solicitud de préstamo fraudulenta. Cada vez que la solicitud de la IA era rechazada, aprendía de la intentona y ajustaba lo que enviaba hasta que fuera aceptada.
Los investigadores también mostraron cómo el bot del banco impulsado por ChatGPT podía ser engañado para revelar información clave de la empresa, simplemente pidiéndole que cambie a un modo interno y solicitando una lista de cuentas financieras.
Aunque, admitidamente, esto es una simplificación excesiva de cómo funcionan sistemas como ese, Tom Bonner, vicepresidente de investigación de la compañía, dice que muestra la importancia de mantener los chatbots de IA separados de la información confidencial, y agrega que ataques como este, donde los chatbots son efectivamente dominados, ya están ocurriendo.
“De repente, estas cosas se desmoronan rápidamente”, dijo. “Ya sea que revelen información confidencial, sean embarazosos o potencialmente te digan que el malware es seguro. Hay muchas consecuencias potenciales.”
Las implicaciones de seguridad y privacidad de posibles filtraciones de datos relacionadas con la IA también son una gran preocupación para Nick Adams, socio fundador de Differential Ventures, que invierte en compañías de IA. Así como en el ejemplo del chatbot de HiddenLayer, una vez que los datos se ingresan en modelos de lenguaje grandes como ChatGPT, no hay forma de saber dónde podrían terminar.
Eso, dice Adams, podría poner en riesgo desde secretos comerciales hasta la privacidad de los consumidores, por lo que es imperativo que los gobiernos de todo el mundo comiencen a regular lo que las compañías pueden y no pueden hacer con la IA.
Pero no está claro cómo se podría hacer cumplir eso en realidad. Los algoritmos internos de los sistemas de IA, como ChatGPT, son cajas negras en efecto, dice él.
“Creo que es muy difícil hacer cumplir cualquier tipo de regulación de privacidad de datos cuando no tienes ninguna visibilidad”, dijo Adams en una entrevista previa a Black Hat.
Una mirada hacia el futuro
Otros profesionales de ciberseguridad dicen que la mayor ayuda de la IA a su industria podría venir en forma de ayuda para resolver la escasez de personal que les ha afectado durante mucho tiempo. Simplemente no hay suficientes profesionales calificados para cubrir todos los puestos de trabajo abiertos de ciberseguridad.
Además de eso, muchas organizaciones que podrían ser objetivos de atacantes cibernéticos, como municipios, pequeñas empresas, organizaciones sin fines de lucro y escuelas, no tienen los recursos suficientes para pagarlos, incluso si pudieran encontrar a alguien calificado.
Si la IA puede detectar amenazas potenciales, libera a los analistas para evaluarlas y actuar en consecuencia, si es necesario, dice Juan Andrés Guerrero-Saade, director senior de SentinelLabs en la empresa de ciberseguridad SentinelOne.
Además de eso, aunque los sistemas de IA podrían resultar ser una herramienta importante para formar a más profesionales de ciberseguridad, ayudándoles a aprender cosas como ingeniería inversa y desmontaje de código, dice él, señalando que, aparte de algunas universidades, no hay muchos programas de nivel de entrada sólidos para introducir a las personas en la ciberseguridad.
En su propia vida profesional, Guerrero-Saade imparte clases de ciberseguridad para estudiantes no relacionados con ciencias de la computación en la Universidad Johns Hopkins y dice que los sistemas de IA han sido una herramienta clave para sus estudiantes para aprender a entender y escribir código.
Aunque los sistemas de IA están lejos de ser perfectos, ignorar lo que la IA podría aportar a la ciberseguridad sería “tirar al bebé junto con el agua del baño”, dijo él.
“Hay usos genuinos de la IA en la ciberseguridad que son asombrosos”, dijo. “Simplemente se han enterrado porque estamos tan enfocados en tonterías”.