Estafas con deepfakes para suplantar a tu pareja o artista favorito

Estafas con deepfakes para suplantar a tu pareja o artista favorito
Escuchar el artículo

La inteligencia artificial generativa se ha convertido en una herramienta peligrosa para los estafadores, especialmente en el contexto de fechas sentimentales como San Valentín, cuando crece la probabilidad de que personas busquen conexiones afectivas en línea. Expertos en seguridad digital advierten que delincuentes están aprovechando tecnologías de deepfake para crear videos, audios y perfiles falsos casi indistinguibles de la realidad, con los cuales se hacen pasar por parejas, conocidos o incluso artistas famosos con el objetivo de manipular emocionalmente a las víctimas y lograr que envíen dinero o datos personales.

Los esquemas fraudulentos han evolucionado de simples perfiles falsos a identidades digitales elaboradas. Según investigaciones, los atacantes no solo utilizan imágenes estáticas, sino que también generan videollamadas en tiempo real con rostros y voces sintetizados por IA, construyen vínculos emocionales durante semanas o meses y llegan a solicitar transferencias económicas bajo diversas excusas. En algunos casos, la suplantación incluye figuras públicas o celebridades para explotar la admiración de los seguidores y ganar confianza instantánea.

Los expertos señalan que estas estafas no solo buscan un contacto romántico; también pueden implicar consejos financieros falsos o supuestas oportunidades únicas presentadas por una celebridad “de confianza”. La accesibilidad de las herramientas de IA ha facilitado que incluso operadores sin grandes conocimientos técnicos puedan producir contenido falso convincente, elevando significativamente el riesgo para usuarios promedio en redes sociales y aplicaciones de citas.

Frente a este panorama, organismos de ciberseguridad y autoridades recomiendan mantener precaución con relaciones que surgen exclusivamente en línea, verificar identidades a través de múltiples canales y nunca enviar dinero o información sensible sin confirmación fuera de la plataforma. Además, recuerdan que incluso videollamadas o audios aparentemente genuinos pueden ser engaños sofisticados impulsados por inteligencia artificial.

Te puede interesar

Qué datos recuperan los autos actuales

noticia001

Cómo impactará la IA en la industria del cine

noticia001

La estafa difícil de detectar que puede llegarte a tu correo

noticia001