La Inteligencia Artificial y la ciberseguridad

¿Supone la IA una amenaza para nuestra seguridad en el día a día ?

Las amenazas a la ciberseguridad evolucionan constantemente en la era digital actual. El creciente uso de la inteligencia artificial (IA) en los ciberataques ha sido uno de los avances más significativos de los últimos años. A medida que avanza la tecnología de IA, los atacantes la utilizan para lanzar ataques más sofisticados y eficaces. Estas amenazas a la ciberseguridad impulsadas por la IA son una preocupación creciente tanto para las organizaciones como para los particulares, ya que pueden eludir las medidas de seguridad tradicionales y causar daños importantes.

Fuente: ENISA

¿Cuáles son las principales amenazas de la Inteligencia Artificial?

Las amenazas a la ciberseguridad evolucionan constantemente en la era digital actual. El creciente uso de la inteligencia artificial (IA) en los ciberataques ha sido uno de los desarrollos más significativos de los últimos años. A medida que avanza la tecnología de IA, los atacantes la utilizan para lanzar ataques más sofisticados y efectivos. Estas amenazas de seguridad cibernética impulsadas por IA son una preocupación creciente tanto para las organizaciones como para las personas, ya que pueden evadir las medidas de seguridad tradicionales y causar daños significativos. Vamos a ver algunas de las más peligrosas.

Amenazas persistentes avanzadas (APT).- Un ciberataque sostenido y sofisticado conocido como APT ocurre cuando un intruso ingresa a una red sin ser detectado y permanece allí durante mucho tiempo para robar datos confidenciales. Con frecuencia involucran el uso de inteligencia artificial para evitar la detección y apuntar a organizaciones o individuos específicos.

Ataques deepfake.- Estos emplean medios sintéticos generados por inteligencia artificial, como videos o imágenes, para hacerse pasar por personas reales y llevar a cabo campañas de fraude o desinformación.

Malware impulsado por IA.- Se ha enseñado al malware que usa IA a pensar por sí mismo, adaptar su curso de acción en respuesta a la situación y, en particular, apuntar a los sistemas de sus víctimas. El software malicioso que utiliza IA para evitar la detección y adaptarse a entornos cambiantes dificulta la defensa.

Phishing.- Utilizando el procesamiento del lenguaje natural y el aprendizaje automático, los atacantes pueden crear correos electrónicos y mensajes de phishing más convincentes que están diseñados para engañar a las personas para que revelen información confidencial.

Ataques DDoS.- Ataques de denegación de servicio distribuido (DDoS) que utilizan IA para identificar y explotar vulnerabilidades en una red, lo que permite al atacante amplificar la escala y el impacto del ataque.

El ChatGTP y los riesgos de seguridad

Incluso antes del lanzamiento de ChatGPT, los avances en IA ya estaban alterando la industria de la ciberseguridad. Con un gasto en seguridad de la información estimado en $187 mil millones este año 2023, la consultora Gartner espera que los CISO y otros líderes de seguridad gasten más en tecnologías de IA para protegerse contra ataques que también utilizan la tecnología.

Al mismo tiempo, la firma de investigación predice que “todo el personal contratado para el desarrollo de IA y el trabajo de capacitación tendrá que demostrar experiencia en IA responsable”

Estos desarrollos significan que los profesionales de la tecnología no solo tienen que comprender la IA y cómo se usa dentro de una organización, sino también cómo los atacantes pueden adaptar rápidamente desarrollos como ChatGPT, según Mike Parkin, ingeniero técnico senior de la empresa Vulcan Cyber.

“Si alguien crea una herramienta nueva y útil, otra persona encontrará la manera de abusar de ella de manera creativa. Eso es lo que estamos viendo con ChatGPT ahora”, dijo Parkin. “Puede pedirle que cree algún código que realice una función específica, como exportar archivos y luego cifrarlos. Puede pedirle que ofusque ese código y luego dárselo como una macro de Excel incrustada. Y lo hará.»

La amenaza más inmediata, especialmente cuando se trata de tecnología de inteligencia artificial como ChatGPT, no es que los actores de amenazas la usen para crear de inmediato un código malicioso sofisticado, sino que implementen el chatbot para mejorar los correos electrónicos de phishing, haciendo que estos mensajes maliciosos sean más realistas y atractivos para el potencial. objetivos para abrir.

“En comparación con la escritura típica de un estafador, ChatGPT es Shakespeare”, agregó Parkin. “Aquí es donde veo una amenaza real en esta tecnología. El código oscurecido verdaderamente innovador es algo así como un arte, y ChatGPT aún no está allí. Pero para situaciones de conversación, ya está escribiendo a un nivel superior y más allá de lo que muchos actores de amenazas están haciendo ahora».

En su evaluación de ChatGPT, el equipo de inteligencia sobre amenazas de la empresa de seguridad Tanium llegó a una conclusión similar: «La conclusión principal de ChatGPT no es su naturaleza destructiva, sino el desarrollo de interfaces por parte de los ciberdelincuentes para ayudar a los delincuentes informáticos no calificados a crear campañas altamente sofisticadas de diversos tipos: estafas de texto, señuelos de phishing, ataques de compromiso de correo electrónico, comercial, etc.

El mercado de la IA

En los próximos 10 años, el tamaño del mercado para la IA en ciberseguridad se va a multiplicar por 10. La inteligencia artificial en la ciberseguridad es esencialmente el uso de la tecnología IA para simplificar complicados procedimientos de ciberseguridad con el fin de aumentar la confiabilidad, seguridad e independencia del sistema. El auge de las tecnologías digitales disruptivas en una variedad de secotres industriales, la creciente demandad de privacidad y productos de cibereseguridad avanzados, un aumento de la frecuencia y complejidad de las ciberameanazas, y los constantes avances tecnológicos son los principales factores que impulsan el mercado de la inteligencia artificial en la ciberseguridad.

Fuente: Precedence Search
LinkedIn
Twitter
Facebook
WhatsApp
0 0 votos
Calificación del artículo
Suscribir
Notificar de
guest
0 Comentarios
Comentarios en línea
Ver todos los comentarios
Metafrase
Contacto

© 2024, Metafrase SLU

0
Me encantaría conocer tu opinión, por favor comenta.x
()
x