Los 4 trucos más usados por los ciberdelincuentes para falsear con IA generativa
Los ciberdelincuentes ya utilizan la IA generativa para suplantar identidades, crear deepfakes y lanzar estafas personalizadas. Descubre los cuatro métodos más frecuentes y cómo protegerte de ellos.

Cuando recibes un mensaje, ¿confías al 100 % en que el remitente es quien dice ser? No, especialmente si tienes en cuenta que los ciberdelincuentes emplean la IA generativa para hacerse pasar de forma realista por otra persona. Manipulan la psicología humana con ingeniería social, refinándola a través de la tecnología, lo que lleva a las personas a realizar acciones inseguras.
Es esencial abordar la educación en seguridad con una mentalidad crítica y mantenerse informado sobre las amenazas emergentes y las contramedidas en distintos escenarios, no solo por correo electrónico, sino también a través de mensajes de audio, llamadas o vídeos, ya que son canales en los que los atacantes suplantan identidades. Enseñar a los usuarios los riesgos de la IA generativa requiere un enfoque múltiple en la concienciación en ciberseguridad, de especial importancia si ese usuario maneja datos sensibles o realiza transacciones financieras.
Estos son cuatro trucos comunes con los que los ciberdelincuentes falsean mediante la IA generativa:
Estafas conversacionales más convincentes
La IA generativa ayuda a los ciberdelincuentes en la tarea de imitar las interacciones humanas en sus fraudes conversacionales. Los modelos de procesamiento del lenguaje general —basados en transformadores como GPT-3, redes neuronales recurrentes o de secuencia a secuencia— pueden generar mensajes muy personalizados, ya que los atacantes suelen variar sus señuelos para iniciar una conversación con el destinatario y ganarse su confianza.
Pero, ¿cómo se trabaja esa interacción previamente? Los ciberdelincuentes recopilan grandes conjuntos de datos de conversaciones procedentes de redes sociales, aplicaciones de mensajería, registros de chat, filtraciones de datos o servicios de atención al cliente. Estos sirven para entrenar modelos de procesamiento del lenguaje general que les permitan comprender y generar texto similar al humano, reconocer patrones, comprender el contexto y generar respuestas que suenen naturales en escenarios de fraude habituales.
Personalización de ataques BEC
Las barreras lingüísticas, las diferencias culturales o la falta de visibilidad han evitado que los atacantes se fijasen en países de habla no inglesa, pero eso es ya cosa del pasado.
Las estafas BEC implican tácticas de suplantación de identidad con el objetivo de engañar a empleados para que realicen acciones inseguras, como transferir dinero o revelar datos confidenciales de empresas. Ahora, con la IA generativa, los atacantes pueden escribir en muchos idiomas de manera fidedigna, mejorar la calidad de los mensajes, además de acelerar, automatizar y generar rápidamente un gran volumen de mensajes de ingeniería social adaptados a los destinatarios, lo cual dificulta la evaluación de la autenticidad de los mensajes.
Perfiles y mensajes falsos automatizados
Los ciberdelincuentes crean identidades falsas con el fin de suplantar la identidad en redes sociales y plataformas de noticias. Esto aumenta sus posibilidades de éxito con objetivos como difundir desinformación, influir en debates de Internet y, en definitiva, explotar las vulnerabilidades y la confianza de las personas. Con una formación mínima, los modelos de IA generativa analizan datos y perfiles de redes sociales disponibles públicamente y adaptan esa información a casos de uso específicos. Por ejemplo, pueden automatizar el proceso de creación de cuentas en redes sociales, foros y otras aplicaciones; así como procesar rápidamente datos de conversaciones y redactar automáticamente respuestas creíbles.
Deepfakes realistas
Mediante modelos avanzados de aprendizaje automático, los atacantes pueden dar un paso más con la creación de contenido falso muy realista que asemeje la apariencia, la voz o los gestos de una persona para que digan o hagan cosas que nunca se dieron.
Para ello, se extraen los datos biométricos de una pequeña muestra de medios como mensajes de voz, vídeos grabados y pódcast en los que aparece la persona a la que se quiere imitar; se entrena así la IA generativa y, después, se generan deepfakes que pueden posproducirse, ajustando la iluminación y el color o añadiendo imperfecciones, para mayor refinamiento.
En escenarios maliciosos, los deepfakes son herramientas poderosas, como se ha visto en la popular estafa telefónica ‘Hola, mamá’ en la que se intentan pasar por el hijo o el nieto de una persona y le pide dinero para una emergencia.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.