Buscar
Cerrar este cuadro de búsqueda.

Tendencias de IA en 2024: según los principales expertos en seguridad

Los titulares sobre inteligencia artificial generativa dominaron 2023 y parece que hará lo mismo en 2024. Las predicciones de líderes de opinión de CrowdStrike, Intel 471, LastPass y Zscaler pronostican cómo se utilizará, abusará y aprovechará la tecnología de maneras sorprendentes en el próximo año.

Tabla de Contenidos mostrar

Las perspectivas seleccionadas aquí reunidas van más allá del potencial y los peligros de la IA en 2024 e incluyen cómo la tecnología afectará a las fuerzas laborales, atacará las superficies y creará nuevas inseguridades en los datos a medida que las empresas luchan por gestionar nuevos grupos de datos de grandes modelos de lenguaje (LLM).

A medida que continúa el auge de la IA, lo que está en juego en la ciberseguridad aumenta en el nuevo año con las elecciones presidenciales de EE.UU. en noviembre, una continua brecha de habilidades con la que lidiar el sector de la ciberseguridad y el aumento de las amenazas de ransomware, una vez más, preocupando a los profesionales de la seguridad de la información.

2024 traerá un ciberataque grave o una violación de datos relacionados con la IA

Mike Lieberman, CTO de Kusari y cofundador de Kusari:

La prisa por capitalizar los beneficios de productividad de la IA ha llevado a los equipos a tomar atajos en materia de seguridad. Estamos viendo una correlación inversa entre la popularidad de un proyecto de IA/ML de código abierto y su postura de seguridad. Por otro lado, la IA ayudará a las organizaciones a abordar fácilmente la ciberseguridad al poder detectar y resaltar malos patrones de seguridad comunes en el código y la configuración. En los próximos años, veremos cómo la IA mejora para ayudar a proporcionar orientación en escenarios más complejos. Sin embargo, la IA/ML debe ser una señal, no un medio para tomar decisiones.

La IA es un comodín

Michael DeBolt, director de inteligencia, Intel 471:

Michael De Bolt

Si bien hasta el momento no parece haber una aplicación de IA excelente para los ciberdelincuentes, su poder podría ser útil para algunos de los trabajos mundanos de backend que realizan los ciberdelincuentes.

El advenimiento del ciberdelito como servicio, que es el término para los bienes y servicios colectivos que los actores de amenazas se proporcionan entre sí, está marcado por un énfasis en la especialización, la escala y la eficiencia. Por ejemplo, utilizar LLM para clasificar grandes cantidades de datos robados y descubrir los datos más importantes que se deben mencionar al extorsionar a una empresa. O emplear un chatbot para entablar negociaciones preliminares de rescate.

Otra innovación hipotética podría ser una herramienta de inteligencia artificial que calcule el rescate máximo que pagará una organización en función de los datos robados. Informamos algunos ejemplos de actores que implementaron IA en sus ofertas durante el segundo trimestre de 2023, que incluyeron un corredor de acceso inicial (IAB) que ofrecía servicios de traducción gratuitos utilizando IA. En mayo de 2023, informamos sobre un actor de amenazas que ofrecía una herramienta que supuestamente podría eludir las restricciones de ChatGPT.

Las herramientas de IA y ML son capaces de permitir la suplantación de identidad a través de vídeo y audio, lo que supone una amenaza para la gestión de la identidad y el acceso. Los vídeos renderizados con IA son bastante detectables ahora, pero la clonación de voz sintetizada es una gran amenaza para las organizaciones que utilizan biometría de voz como parte de los flujos de autenticación. Todavía consideramos que no se puede confiar plenamente en la IA para delitos cibernéticos más complejos, y hacerlo en su forma actual probablemente generará resultados erróneos. Pero esta zona se mueve tan rápidamente que es difícil ver lo que hay en el horizonte.

La proliferación de LLM y servicios de código abierto (algunos de los cuales se están creando con la intención de no tener barreras de seguridad para evitar el uso malicioso) significa que esta área sigue siendo en gran medida un comodín.

Los puntos ciegos de la IA abren la puerta a nuevos riesgos corporativos

Elia Zaitsev, director de tecnología de CrowdStrike:

En 2024, CrowdStrike espera que los actores de amenazas cambien su atención a los sistemas de IA como el vector de amenaza más nuevo para atacar a las organizaciones, a través de vulnerabilidades en implementaciones de IA autorizadas y puntos ciegos por el uso no autorizado de herramientas de IA por parte de los empleados.

Después de un año de crecimiento explosivo en los casos de uso y adopción de la IA, los equipos de seguridad aún se encuentran en las primeras etapas para comprender los modelos de amenazas en torno a sus implementaciones de IA y rastrear las herramientas de IA no autorizadas que los empleados han introducido en sus entornos. Estos puntos ciegos y las nuevas tecnologías abren la puerta a actores de amenazas deseosos de infiltrarse en redes corporativas o acceder a datos confidenciales.

Fundamentalmente, a medida que los empleados utilicen herramientas de inteligencia artificial sin la supervisión de su equipo de seguridad, las empresas se verán obligadas a lidiar con nuevos riesgos de protección de datos. Los datos corporativos que se ingresan en las herramientas de inteligencia artificial no solo corren el riesgo de que los actores de amenazas apunten a las vulnerabilidades de estas herramientas para extraer datos, sino que los datos también corren el riesgo de ser filtrados o compartidos con partes no autorizadas como parte del protocolo de capacitación del sistema.

2024 será el año en el que las organizaciones necesitarán mirar internamente para comprender dónde ya se ha introducido la IA en sus organizaciones (a través de canales oficiales y no oficiales), evaluar su postura de riesgo y ser estratégicos en la creación de pautas para garantizar un uso seguro y auditable que minimice el riesgo. riesgo y gasto de la empresa pero maximiza el valor.

GenAI mejorará el papel de los analistas de seguridad

Chris Meenan, vicepresidente de gestión de productos, IBM Security:

Las empresas han estado utilizando IA/ML para mejorar la eficacia de las tecnologías de seguridad durante años, pero la introducción de la IA generativa estará dirigida directamente a maximizar el elemento humano de la seguridad.

El próximo año, GenAI comenzará a asumir ciertas tareas administrativas tediosas en nombre de los equipos de seguridad, pero más allá de esto, también permitirá a los miembros del equipo menos experimentados asumir tareas más desafiantes y de mayor nivel.

Por ejemplo, veremos que GAI se utiliza para traducir contenido técnico, como datos de registro generados por máquinas o resultados de análisis, a un lenguaje simplificado que sea más comprensible y procesable para usuarios novatos.

Al incorporar este tipo de GAI en los flujos de trabajo existentes, no solo liberará tiempo a los analistas de seguridad en sus funciones actuales, sino que también les permitirá asumir trabajos más desafiantes, aliviando parte de la presión creada por los desafíos actuales de la fuerza laboral y las habilidades de seguridad. .

Aumento de ataques de phishing y malware sofisticados y personalizados

Ihab Shraim, director tecnológico de CSC Digital Brand Services:

El phishing y el malware siguen siendo los vectores de amenazas cibernéticas más utilizados para lanzar ataques de fraude y robo de datos, especialmente cuando ocurren eventos importantes y abundan las reacciones frenéticas.

En 2024, con el nuevo aumento del uso de IA generativa como FraudGPT, los ciberdelincuentes tendrán una gran ventaja al lanzar campañas de phishing con velocidad combinada con sofisticación. ChatGPT permitirá a los delincuentes crear correos electrónicos de phishing personalizados, específicos y libres de errores ortográficos y gramaticales, lo que hará que dichos correos electrónicos sean más difíciles de detectar.

Además, las herramientas de inteligencia artificial de la web oscura estarán fácilmente disponibles para permitir ataques deepfake más complejos y de ingeniería social que manipulen las emociones y la confianza de los objetivos a un ritmo aún más rápido.

Más allá del phishing, el aumento de los LLM hará que el endpoint sea un objetivo principal para los ciberdelincuentes en 2024

Dr. Ian Pratt, jefe global de seguridad para sistemas personales de HP Inc.:

Una de las grandes tendencias que esperamos ver en 2024 es un aumento en el uso de IA generativa para hacer que los señuelos de phishing sean mucho más difíciles de detectar, lo que conducirá a un mayor compromiso de los terminales. Los atacantes podrán automatizar la redacción de correos electrónicos en idiomas minoritarios, extraer información de sitios públicos como LinkedIn para obtener información sobre los objetivos y crear en masa ataques de ingeniería social altamente personalizados.

Una vez que los actores maliciosos tengan acceso a una cuenta de correo electrónico, podrán escanear automáticamente los hilos en busca de contactos y conversaciones importantes, e incluso archivos adjuntos, enviando versiones actualizadas de documentos con malware implantado, lo que hace casi imposible que los usuarios identifiquen a los actores maliciosos. Personalizar los ataques solía requerir humanos, por lo que tener la capacidad de automatizar tales tácticas es un verdadero desafío para los equipos de seguridad.

Más allá de esto, el uso continuo de fuzzing impulsado por ML, donde los actores de amenazas pueden sondear los sistemas para descubrir nuevas vulnerabilidades. También es posible que veamos surgir la creación de exploits impulsados ​​por ML, lo que podría reducir el costo de crear exploits de día cero, lo que impulsaría su mayor uso en la naturaleza.

Al mismo tiempo, veremos un aumento en las «PC con IA», que revolucionarán la forma en que las personas interactúan con sus dispositivos terminales. Con potencia informática avanzada, las PC con IA permitirán el uso de “modelos de lenguaje grande (LLM) locales”, LLM más pequeños que se ejecutan en el dispositivo y permiten a los usuarios aprovechar las capacidades de IA independientemente de Internet.

Estos LLM locales están diseñados para comprender mejor el mundo del usuario individual, actuando como asistentes personalizados. Pero a medida que los dispositivos recopilen grandes cantidades de datos confidenciales de los usuarios, los puntos finales serán un objetivo de mayor riesgo para los actores de amenazas.

A medida que muchas organizaciones se apresuran a utilizar LLM para sus chatbots para aumentar la comodidad, se abren a que los usuarios abusen de los chatbots para acceder a datos a los que antes no habrían podido acceder. Los actores de amenazas podrán diseñar socialmente los LLM corporativos con indicaciones específicas para engañarlos para que anulen sus controles y entreguen información confidencial, lo que provocará violaciones de datos.

La amenaza (y la promesa) de la IA

Alex Cox, director del equipo de inteligencia, mitigación y escalada de amenazas de LastPass:

La IA está de moda en todas partes. Seguiremos viendo eso en 2024 y más allá. Las capacidades desbloqueadas por la IA, desde GenAI hasta deepfakes, cambiarán por completo el entorno de amenazas.

Tomemos como ejemplo el phishing. Una señal obvia de un correo electrónico de phishing es una gramática imperfecta. Las tecnologías antiphishing se crean teniendo en cuenta estos errores y están entrenadas para encontrarlos. Sin embargo, la IA generativa como ChatGPT tiene muchas menos deficiencias en lo que respecta al lenguaje y, a medida que los actores maliciosos aprovechan estas herramientas, ya estamos comenzando a ver cómo aumenta la sofisticación de estos ataques.

Las capacidades de big data de la IA también serán de gran ayuda para los malos actores. Los atacantes son excelentes para robar grandes cantidades de información (correos electrónicos, contraseñas, etc.), pero tradicionalmente han tenido que examinarla para encontrar el tesoro. Con la IA, podrán sacar una aguja de un pajar instantáneamente, identificando y armando información valiosa más rápido que nunca.

Afortunadamente, los proveedores de seguridad ya están incorporando IA en sus herramientas. La IA ayudará a los buenos a examinar big data, detectar intentos de phishing, brindar sugerencias de seguridad en tiempo real durante el desarrollo de software y más.

Los profesionales de la seguridad deben ayudar a sus líderes a comprender el panorama de la IA y sus posibles impactos en su organización. Deben actualizar la educación de los empleados, como capacitación antiphishing, y comunicarse con los proveedores sobre cómo se están protegiendo contra estas nuevas capacidades.

Habrá una transición hacia el malware personalizado generado por IA y una automatización a gran escala de los ciberataques

Adi Dubin, vicepresidente de gestión de productos de Skybox Security:

Los equipos de ciberseguridad se enfrentan a una amenaza importante derivada de la rápida automatización de la creación y ejecución de malware mediante IA generativa y otras herramientas avanzadas. En 2023, surgieron sistemas de inteligencia artificial capaces de generar malware altamente personalizado, lo que brindó a los actores de amenazas un arma nueva y poderosa. El próximo año, el foco pasará de la mera generación de malware personalizado a la automatización de todo el proceso de ataque. Esto hará que sea mucho más fácil, incluso para los actores de amenazas no capacitados, lanzar ataques exitosos.

Asegurar herramientas de IA para desafiar a los equipos

Dr. Chaz Lever, director senior de investigación de seguridad, Devo

Ha pasado un año desde que ChatGPT apareció en escena y, desde su debut, hemos visto una proliferación masiva de herramientas de inteligencia artificial. Decir que ha cambiado la forma en que las organizaciones abordan el trabajo sería quedarse corto. Sin embargo, a medida que las organizaciones se apresuran a adoptar la IA, muchas carecen de una comprensión fundamental de cómo implementar los controles de seguridad adecuados.

En 2024, el mayor desafío de los equipos de seguridad será proteger adecuadamente las herramientas y tecnologías de inteligencia artificial que sus organizaciones ya han incorporado. Ya hemos visto ataques contra modelos GenAI, como inversión de modelos, envenenamiento de datos e inyección rápida; y a medida que la industria adopte más herramientas de IA, las superficies de ataque de IA en estas novedosas aplicaciones se expandirán.

Esto planteará un par de desafíos: perfeccionar las formas en que se utiliza la IA para ayudar a mejorar la eficiencia y la detección de amenazas mientras se lucha contra las nuevas vulnerabilidades que introducen estas herramientas. Agregue el hecho de que los delincuentes también están utilizando estas herramientas para ayudar a automatizar el desarrollo y la ejecución de nuevas amenazas, y habrá creado un entorno propicio para nuevos incidentes de seguridad.

Al igual que cualquier tecnología nueva, las empresas deberán equilibrar la seguridad, la conveniencia y la innovación a medida que adopten la IA y asegurarse de comprender sus posibles repercusiones.

De la prevención de amenazas a la predicción, la ciberseguridad se acerca a un hito histórico

Sridhar Muppidi, director de tecnología, seguridad de IBM

A medida que la IA cruza un nuevo umbral, las predicciones de seguridad a escala se vuelven más tangibles. Aunque los primeros casos de uso de seguridad de la IA generativa se centran en el front-end, mejorando la productividad de los analistas de seguridad, no creo que estemos lejos de ver que la IA generativa tenga un impacto transformador en el back-end para reimaginar por completo la detección y respuesta a amenazas. predicción y protección. La tecnología está ahí y las innovaciones han madurado. La industria de la ciberseguridad pronto alcanzará un hito histórico al lograr la predicción a escala.

La democratización de las herramientas de IA provocará un aumento de ataques más avanzados contra el firmware e incluso el hardware.

Boris Balacheff, tecnólogo jefe de investigación e innovación en seguridad de sistemas de HP Inc.:

En 2024, una poderosa IA estará en manos de muchos, lo que hará que las capacidades sofisticadas sean más accesibles a escala para los actores maliciosos. Esto no solo acelerará los ataques al sistema operativo y al software de aplicaciones, sino también a capas más complejas de la pila tecnológica, como firmware y hardware.

Anteriormente, los posibles actores de amenazas necesitaban desarrollar o contratar habilidades muy especializadas para desarrollar dichos exploits y códigos, pero el uso creciente de la IA generativa ha comenzado a eliminar muchas de estas barreras.

Esta democratización de las técnicas cibernéticas avanzadas conducirá a un aumento en la proliferación de ataques más avanzados, más sigilosos o más destructivos. Deberíamos esperar más eventos cibernéticos como moonbounce y cosmic strand, ya que los atacantes pueden encontrar o explotar vulnerabilidades para afianzarse debajo del sistema operativo de un dispositivo.

Investigaciones de seguridad recientes incluso muestran cómo la IA permitirá la generación de exploits maliciosos para crear troyanos en todos los diseños de hardware, prometiendo una mayor presión en la cadena de suministro de hardware.

El clima político seguirá en aguas desconocidas con la desinformación, las falsificaciones y el avance de la IA.

Ed Williams, vicepresidente regional de pruebas de penetración, EMEA en Trustwave:

En las elecciones estadounidenses ya se filtraron bases de datos en el pasado y sólo se puede suponer que se repetirá un intento o un posible éxito de un ciberataque.

La IA tiene la capacidad de difundir desinformación a través de deepfakes y en 2024 esto seguirá aumentando. De manera similar, hoy en día ya prevalecen los deepfakes y otra información errónea. Esto demuestra que muchas personas no comprueban la autenticidad y lo que ven en sus teléfonos y redes sociales se convierte en su idea de la verdad, lo que sólo amplifica el impacto.

Hay discursos en ambos lados del pasillo, particularmente antes de las elecciones partidistas. Esto por sí solo creará un entorno susceptible a la difusión de información errónea y alentará a los Estados-nación a interferir donde puedan.

Las herramientas de phishing mejoradas mejorarán las tasas de éxito de la ingeniería social

Nick Stallone, director sénior de gobernanza, riesgo y gestión de riesgos. líder de cumplimiento, MorganFranklin Consulting:

En 2024 se verá una adopción más amplia de herramientas avanzadas y automatizadas de phishing/vishing. Estas herramientas, combinadas con tecnología de clonación de voz y deepfake mejorada y más accesible, mejorarán enormemente las tasas de éxito de la ingeniería social. Esto conducirá a un aumento del fraude y de credenciales comprometidas perpetradas a través de estos métodos.

Todas las industrias deben ser conscientes de estos métodos mejorados y centrarse en incorporar controles actualizados, concienciación y capacitación para protegerse contra ellos lo antes posible.

Por otro lado, las herramientas de ciberseguridad que incorporaron aprendizaje automático e inteligencia artificial en los últimos años también serán más eficientes para proteger a las organizaciones de estas amenazas.

Los modelos de capacitación asociados con estas herramientas tendrán acceso a más datos a partir de una mayor adopción, lo que conducirá a períodos de implementación más cortos y un crecimiento exponencial del mercado en 2024. Estas herramientas brindarán el mayor nivel de eficiencia y costos reducidos para el monitoreo y las evaluaciones de ciberseguridad, lo que permitirá a los equipos de seguridad centrarse más en los mayores riesgos de su organización.

La democratización de la IA será un arma de doble filo para la ciberseguridad

Atticus Tysen, vicepresidente senior y director de seguridad de la información, Intuit:

Si bien la democratización de la IA es muy prometedora, su disponibilidad generalizada plantea un desafío sin precedentes para la ciberseguridad. La IA evolucionará ataques específicos contra empresas para convertirse en amenazas continuas y ubicuas contra empresas, individuos y la infraestructura de la que dependen. Aún así, será una carrera contra los actores de amenazas para diseñar sistemas y protecciones resilientes. Si fallamos, el riesgo de que los ataques exitosos se conviertan en algo común y causen estragos en un futuro cercano es un peligro claro y presente.

En 2024, el inglés se convertirá en el mejor lenguaje de programación para el mal

Fleming Shi, director de tecnología de Barracuda:

Fleming Shi

No fue una sorpresa que, a partir de 2023, la IA generativa se integrara en pilas y soluciones de seguridad. Sin embargo, la gran sorpresa fue la rapidez con la que la IA generativa se ha apoderado de todos los aspectos del espacio tecnológico.

Esto es preocupante a medida que nos adentramos en 2024 porque, así como los profesionales de seguridad están utilizando la nueva tecnología para reforzar sus defensas, los malos actores están haciendo lo mismo. Los LLM son extremadamente capaces de escribir código, pero a menudo vienen con barreras de seguridad que les impiden escribir código malicioso.

Sin embargo, se puede “engañar” a la IA generativa para que ayude a los actores de amenazas de todos modos, particularmente cuando se trata de técnicas de ingeniería social. En lugar de decirle a la herramienta que cree una plantilla de phishing por correo electrónico, sólo hay que pedirle que escriba una carta de un director ejecutivo solicitando el pago de una factura.

Los ligeros cambios en la redacción hacen que estas herramientas sean vulnerables, estén disponibles de manera general y extremadamente útiles para los malos actores en todas partes. Debido a que este proceso es tan sencillo, 2024 será el año en que el inglés se convierta en el mejor lenguaje de programación para el mal.

Ataques de IA para dar un nuevo significado a «basura entra, basura sale»

Dave Shacklefod, profesorado e IANS Research, fundador y consultor principal:

En 2024, definitivamente veremos ataques emergentes contra el aprendizaje automático y los modelos e infraestructuras de IA. Dado que cada vez más organizaciones dependen de modelos de datos y procesamiento de IA basados ​​en la nube, es probable que los atacantes comiencen a apuntar a estos entornos y conjuntos de datos con ataques disruptivos, así como estrategias de contaminación de datos. Hoy en día, no tenemos casi nada en términos de rutas de ataque definidas y estrategias para esto dentro de marcos como MITRE ATT&CK, pero eso probablemente cambiará el próximo año. Estos ataques darán un nuevo significado a la máxima clásica de “basura entra, basura sale” y tendremos que aprender a identificarlos y defendernos de ellos.

Los modelos de lenguaje plantean una doble amenaza para la seguridad del software

Andrew Whaley, director técnico senior de Promon:

Los modelos de lenguajes grandes (LLM) han avanzado notablemente durante el año pasado; y con esto también lo han hecho las capacidades de ingeniería inversa de los malos actores. Esto plantea dos amenazas principales: 1. La ingeniería inversa ahora es mucho más fácil y proporciona a los piratas informáticos novatos las capacidades típicamente asociadas con los especialistas. 2. La eficacia reducida de los métodos de protección tradicionales contra ataques automatizados de desofuscación.

Esto aumenta la vulnerabilidad del software a la explotación maliciosa y dará lugar a un aumento previsto de incidentes, incluidos ataques de alto valor. Los ejemplos incluyen ataques masivos contra aplicaciones de banca móvil, adquisición remota de sistemas operativos móviles y malware dirigido a dispositivos inteligentes.

CEOs profundamente falsificados

Navroop Mitter, director ejecutivo de ArmorText:

Las mejoras espectaculares en la calidad de la voz y el vídeo generados de personas de la vida real, junto con mejoras adicionales en GenAI y LLM para evaluar y replicar automáticamente los matices de cómo se comunican las personas, tanto de forma oral como escrita, permitirán ataques novedosos para los que la mayoría de las organizaciones están muy mal preparados.

Durante los próximos 24 meses, las organizaciones se enfrentarán a atacantes que imitarán a sus ejecutivos no solo mediante la suplantación de correo electrónico, sino también mediante una imitación perfecta de su voz, imagen y dicción impulsada por la IA, y esto presentará múltiples desafíos, pero especialmente durante la respuesta a incidentes. ¿Cómo distinguirán las empresas entre el verdadero McCoy y un impostor casi perfecto en medio del caos de una crisis?

Las políticas y procedimientos existentes diseñados para lidiar con ejecutivos deshonestos no se aplicarán porque el verdadero McCoy todavía está presente y es muy necesario en estas conversaciones.

Las empresas deberán aprender a ocultar su superficie de ataque a nivel de datos

Sam Curry, vicepresidente y CISO de Zscaler:

La afluencia de herramientas de IA generativa como ChatGPT ha obligado a las empresas a darse cuenta de que si sus datos están disponibles en la nube/Internet, entonces pueden ser utilizados por la IA generativa y, por lo tanto, por los competidores. Si las organizaciones quieren evitar que su IP sea utilizada por herramientas de inteligencia artificial de generación, deberán asegurarse de que su superficie de ataque ahora esté oculta a nivel de datos en lugar de solo a nivel de aplicación.

Basándonos en la rápida adopción de herramientas de inteligencia artificial de generación, predecimos que las empresas acelerarán sus esfuerzos para clasificar todos sus datos en categorías de riesgo e implementar medidas de seguridad adecuadas para evitar la fuga de propiedad intelectual.

La seguridad de las API evoluciona a medida que la IA mejora las estrategias de ataque y defensa

Shay Levi, CTO y cofundador de Noname Security:

En 2023, la IA comenzó a transformar la ciberseguridad y desempeñó un papel fundamental tanto en el frente de seguridad ofensivo como en el defensivo. Tradicionalmente, identificar y explotar vulnerabilidades complejas y únicas de API requería intervención humana. La IA está cambiando este panorama, automatizando el proceso y permitiendo ataques rentables y a gran escala. En 2024, predigo un aumento notable en la sofisticación y escalabilidad de los ataques. Seremos testigos de un cambio fundamental a medida que la IA se convierta en una herramienta poderosa tanto para los actores maliciosos como para los defensores, redefiniendo la dinámica de la seguridad digital.

El surgimiento de una ‘policrisis’ debido a los ciberataques generalizados basados ​​en IA

Agnidipta Sarkar, vicepresidente de asesoramiento CISO, ColorTokens

Vimos el surgimiento de la IA en 2022 y vimos el surgimiento del uso indebido de la IA como vector de ataque, lo que ayuda a que los intentos de phishing sean más agudos y efectivos. En 2024, espero que los ciberataques se generalicen a medida que las empresas se transformen.

Hoy en día es posible atraer a los entusiastas de la IA para que sean víctimas de la inyección rápida de IA. En 2024, a los perpetradores les resultará más fácil usar la IA para atacar no solo la TI tradicional sino también los contenedores en la nube y, cada vez más, los entornos ICS y OT, lo que conducirá al surgimiento de una “policrisis” que amenaza no solo con impactos financieros sino también con impactos, la vida humana simultáneamente y al mismo tiempo en efectos en cascada. La infraestructura informática crítica estará cada vez más amenazada debido a la creciente amenaza geopolítica. La ciberdefensa se automatizará y aprovechará la IA para adaptarse a los nuevos modelos de ataque.

Los desarrollos de IA para los actores de amenazas conducirán a métodos de detección casi en tiempo real

Mike Spanbauer, director de tecnología de campo, Juniper Networks:

La IA seguirá demostrando ser peligrosa en manos de los actores de amenazas, acelerando su capacidad para escribir y lanzar amenazas efectivas. Las organizaciones deben adaptar la forma en que abordan las medidas de defensa y aprovechar métodos nuevos y probados para detectar y bloquear amenazas. Veremos el aumento de medidas casi en tiempo real que pueden identificar un archivo potencialmente malicioso o una variante de una amenaza conocida a velocidad de línea.

La IA no se utilizará para ataques completos, pero los ataques de ingeniería social proliferarán

Etay Maor, director senior de estrategia de seguridad, Cato Networks:

No, no habrá una ola de ataques basados ​​en IA; si bien la IA ha recibido mucha atención desde la introducción de ChatGPT, ni siquiera estamos cerca de ver un ataque basado en IA en toda regla. Ni siquiera tienes que creer en mi palabra: los actores de amenazas en los principales foros de cibercrimen también lo dicen. Las alucinaciones, las restricciones de modelo y el nivel actual de madurez de los LLM son solo algunas de las razones por las que este problema en realidad no es un problema en este momento.

Pero deberíamos esperar que los LLM se utilicen para acelerar y perfeccionar pequeñas partes o tareas de los ataques, ya sea la creación de correo electrónico, ayuda con ingeniería social mediante la creación de perfiles o documentos y más. La IA no va a reemplazar a la IA, pero las personas que saben cómo usarla reemplazarán a quienes no lo saben.

El equilibrio entre atacantes y defensores se pone a prueba continuamente

Kayla Williams, CISO, Devo:

Esto puede ser una obviedad, pero hay que decirlo una y otra vez. Los malos actores utilizarán IA/ML y otras tecnologías avanzadas para crear tácticas y técnicas de ataque sofisticadas. Utilizarán estas herramientas para realizar más ataques y más rápidos, ejerciendo una mayor presión sobre los equipos de seguridad y los sistemas de defensa. El ritmo del progreso es igualmente rápido en ambos lados (defensores y atacantes) y ese equilibrio se pondrá a prueba continuamente durante el próximo año.

La IA acelera los ataques de ingeniería social

Kevin O’Connor, jefe de investigación de amenazas de Adlumin:

Las capacidades de IA de código abierto y disponibles comercialmente, incluidos los modelos de lenguaje grande (LLM, por sus siglas en inglés) como ChatGPT y LLaMA, e innumerables variantes, ayudarán a los atacantes a diseñar campañas de ingeniería social bien pensadas y efectivas. Con los sistemas de IA integrándose cada vez más con grandes cantidades de información personal a través de sitios de redes sociales, desde LinkedIn hasta Reddit, veremos la capacidad de incluso los atacantes de bajo nivel de crear campañas basadas en ingeniería social dirigidas y convincentes.

 

¿Agobiado por la avalancha de
consejos de marketing?

Suscríbete a nuestro boletín y recibe sólo lo esencial,
una vez a la semana, directamente en tu bandeja de entrada.

Sólo recibirás 1 correo semanal con las últimas publicaciones.

Suscríbete al boletín semanal

No enviaremos SPAM, prometido!

Desarrollos Creativos