
Este último año todos hemos escuchado las palabras Inteligencia Artificial (IA), pero ¿qué es realmente? Su definición nos dice que son sistemas informáticos diseñados para simular capacidades humanas como el aprendizaje, el razonamiento y la toma de decisiones. Estos sistemas pueden adaptarse a nuevos datos, ejecutar tareas complejas y resolver problemas sin intervención humana directa, lo que los hace autónomos y con gran potencial además de un gran riesgo. Mediante el uso de algoritmos y modelos estadísticos, la IA automatiza procesos cognitivos, desde el reconocimiento de patrones hasta la generación de contenido. Según su aplicación en la ciberseguridad los podemos dividir en:
• IA ofensiva: es la utilizada para realizar ciberataques como por ejemplo ataques de phishing, el descubrimiento de vulnerabilidades y la creación de malware.
• IA defensiva: se emplea para proteger sistemas, como ejemplo los sistemas de detección de intrusiones, análisis predictivo de amenazas y automatización de respuestas ante incidentes.
• IA propagandística: es la que utiliza modelos de propósito general, como los Modelos de Lenguaje de Gran Escala (LLMs), que sirven para generar contenido engañoso, manipular información o incluso desarrollar nuevas técnicas de ataque sin necesidad de conocimientos técnicos.
Este último tipo, quizás el más desconocido, ha dado un giro en la evolución de las amenazas impulsadas por IA. Para entenderlo vamos a analizar los diferentes tipos de modelos:
• LLMs (Large Language Models): es el utilizado para crear textos realistas, manipular conversaciones o generar scripts de phishing.
• GANs (Generative Adversarial Networks): con este modelo se permiten generar imágenes falsas (deepfakes), documentos falsificados o voces clonadas con alto grado de realismo, muy útiles para fraude o suplantación de identidad.
• Clasificadores: son los usados para reconocer patrones de comportamiento o identificar objetivos vulnerables, como usuarios susceptibles a ataques de ingeniería social.
