La inteligencia artificial (IA) ha revolucionado múltiples aspectos de la vida moderna, facilitando procesos y mejorando la eficiencia en diversas áreas. Sin embargo, esta potente herramienta también ha sido adoptada por ciberdelincuentes para llevar a cabo acciones maliciosas. Según la empresa de ciberseguridad ESET, aquí te mostramos cinco formas en que los criminales usan la IA para sus fines nefastos.
1. Perfeccionan la Suplantación de Identidad
El auge de los chatbots, como ChatGPT, ha visto un incremento en los correos de phishing. Los ciberdelincuentes utilizan la IA para crear mensajes de phishing más convincentes y engañar a las personas para que revelen información sensible. Servicios como GoMail Pro, que incorpora funciones de ChatGPT, permiten a los criminales mejorar el contenido de sus mensajes sin ser detectados por OpenAI. Además, la IA facilita la traducción de mensajes y mejora la comunicación entre grupos criminales globales, permitiéndoles coordinar operaciones a gran escala.
2. Hacen más Realistas las Estafas por Audio y Deepfake
La IA ha mejorado la capacidad de los delincuentes para crear imágenes y audios falsos pero convincentes. Con solo unos segundos de audio de una persona, obtenido de plataformas como Instagram o TikTok, los estafadores pueden generar clips de audio creíbles. Un caso notable involucró a un empleado que perdió 24 millones de dólares tras ser engañado por una llamada de audio deepfake que parecía provenir del director financiero de su empresa.
3. Esquivan Controles de Identidad
Los ciberdelincuentes utilizan la IA para eludir los sistemas de verificación de identidad. Mediante documentos de identificación falsos o robados, superponen imágenes sobre el rostro de una persona real, similar a un filtro de Instagram. Aunque esta práctica aún está en etapas iniciales, se espera que continúe evolucionando y mejorando, presentando un desafío significativo para los sistemas de seguridad actuales.
4. Optimizan el Doxing
El doxing, que consiste en publicar información personal de terceros para intimidar o extorsionar, ha sido optimizado con la IA. Los delincuentes entrenan a la IA con vastas cantidades de datos personales de Internet para deducir información sensible sobre sus víctimas. ESET advierte que cuanto más información personal esté disponible en línea, más vulnerables estamos a este tipo de ataques. ChatGPT, por ejemplo, puede inferir detalles sensibles como el origen étnico o la ubicación de una persona durante una conversación.
5. Ofrecen Jailbreak como Servicio
En lugar de desarrollar sus propios modelos de IA, los ciberdelincuentes están optando por contratar servicios de jailbreak. El jailbreaking es el proceso de explotar defectos en dispositivos electrónicos bloqueados para instalar software no autorizado. Esto permite a los delincuentes modificar sistemas de IA específicos para generar contenido malicioso, como correos de phishing o código para malware, eludiendo las restricciones y limitaciones impuestas por los fabricantes.
🚀 Si buscas mantenerte al día con las noticias nacionales e internacionales más relevantes 🌐