Así reclutan a personas para usar su imagen en estafas con IA, desde mensajes hasta videollamadas

Summary: Investigaciones revelan cómo redes de estafadores reclutan a personas para usar su rostro y voz en sistemas de inteligencia artificial que luego se emplean en fraudes digitales cada vez más sofisticados.

Una nueva modalidad de fraude impulsada por inteligencia artificial está ganando terreno: el uso de rostros y voces de personas reales para crear identidades digitales falsas extremadamente convincentes.

Según el reportaje, redes de estafadores están reclutando individuos a través de anuncios laborales y redes sociales, ofreciéndoles dinero a cambio de grabaciones de video, selfies y muestras de voz. Sin saberlo, estas personas pueden terminar siendo la base de avatares generados por IA utilizados en actividades fraudulentas.

Con este material, los ciberdelincuentes crean perfiles capaces de interactuar con víctimas mediante mensajes, audios e incluso videollamadas en tiempo real. Estas identidades falsas se utilizan en estafas románticas, suplantación de identidad y fraudes financieros, aumentando drásticamente la credibilidad del engaño.

A diferencia de los fraudes tradicionales, donde los errores visuales o de lenguaje podían levantar sospechas, estas nuevas técnicas permiten construir interacciones personalizadas y visualmente realistas, haciendo mucho más difícil detectar el engaño.

El fenómeno pone en evidencia cómo la IA generativa no solo amplifica la escala del fraude, sino también su nivel de sofisticación.

Key facts

  • Los estafadores reclutan personas reales para obtener su imagen y voz.
  • El material recolectado se utiliza para crear avatares generados por IA.
  • Las estafas incluyen mensajes, suplantación de identidad y videollamadas en tiempo real.
  • La técnica aumenta significativamente la credibilidad de los fraudes.

Why it matters

El uso de imágenes y voces reales en estafas con IA representa un salto significativo en la sofisticación del fraude digital. Esto aumenta el riesgo para los usuarios, ya que las técnicas tradicionales de detección son menos efectivas frente a identidades generadas con datos reales.

Key metrics

  • Nivel de realismo percibido: alto (según el reportaje)
  • Tipo de interacción: mensajes y videollamadas (uso en estafas)
Embedded content for: Así reclutan a personas para usar su imagen en estafas con IA, desde mensajes hasta videollamadas