(México) SSPMQ alerta: deepfakes para suplantación y extorsión digital

Alerta SSPMQ por deepfakes y suplantación digital
La SSPMQ de Querétaro advierte sobre el uso de deepfakes y clonación de voz para suplantación de identidad y extorsión. Aprende a detectar señales y verifica en 30 segundos antes de caer.

La Secretaría de Seguridad Pública Municipal de Querétaro (SSPMQ), a través de su Policía Cibernética Preventiva, ha emitido una alerta sobre el uso de tecnologías que pueden manipular imágenes, videos o audios para suplantar identidades y propagar información falsa. Esta práctica ya se está utilizando en fraudes y extorsiones digitales. (Publicación del 27 de octubre de 2025).

Qué advierte la SSPMQ sobre deepfakes y clonación de voz

¿Qué significa esta alerta en términos simples? Estamos hablando de técnicas como deepfake o clonación de voz: con un video tuyo, fotos de tus redes sociales o unos segundos de audio (como un mensaje de voz de WhatsApp), un delincuente puede crear contenido “creíble” con fines de fraude y extorsión.

Por qué esta tecnología se usa para fraudes:

  • para hacerse pasar por ti ante familiares y amigos,
  • pedir dinero “urgente”,
  • chantajearte con montajes,
  • o generar mensajes falsos que dañen tu reputación.

Este tipo de engaños se alinea con las advertencias de organismos y unidades especializadas: la IA está aumentando el realismo de la suplantación y la ingeniería social.

¿Cómo funcionan las estafas con videos y voces manipuladas?

Los patrones más comunes suelen repetirse:

  1. Gancho emocional + urgencia
    Estoy en un problema”, “me han robado”, “no cuelgues”, “haz la transferencia ya”. La prisa busca que no verifiques.
  2. Suplantación “perfecta” por WhatsApp o llamada
    Un audio que suena como tu hijo/a, pareja o jefe/a. Esto ya ha sido documentado en casos reales y alertas sobre clonación de voz.
  3. Petición concreta
    Dinero, códigos (SMS), datos bancarios, fotos del INE/DNI, acceso a cuentas, o que abras un enlace o archivo.
  4. Aislamiento
    Piden “no le digas a nadie”, o mover la conversación a otro canal para perder la trazabilidad.

Señales para detectar un deepfake o una voz clonada

A veces no es tan evidente, pero estas pistas pueden ser de gran ayuda:

  • Audio raro: un ritmo extraño, respiración artificial, cortes abruptos, o un tono que suena “plano” o poco natural.
  • Vídeo: los labios no están sincronizados, hay parpadeos extraños, sombras que no tienen sentido, o una cara que parece “demasiado perfecta”.
  • Mensaje “fuera de personaje”: esa persona nunca pediría dinero de esa manera.
  • Urgencia extrema y amenazas (“si no pagas ahora…”).
  • Cambio en el método de pago (transferencia inmediata, criptomonedas, tarjetas de regalo).
  • Evasión de verificación (“no puedo hablar”, “no llames”).

Protocolo de 30 segundos para no caer

Si recibes un audio o vídeo sospechoso:

  • Corta la urgencia: “Te llamo yo ahora”.  Si insisten en que no verifiques, es una bandera roja.
  • Verifica a través de un canal alternativo (llama al número que tienes guardado, haz una videollamada real, o contacta a un familiar de confianza).
  • Usa una “palabra clave” familiar (una pregunta que solo esa persona sabría responder).
  • No envíes dinero ni códigos, aunque “parezca” la voz o la cara de la persona.
  • Guarda evidencias: capturas de pantalla, audios, números, enlaces.

Qué hacer si ya fuiste víctima

  • Si enviaste dinero: contacta de inmediato a tu banco para intentar bloquear o revertir la transacción.
  • Cambia tus contraseñas y activa la verificación en dos pasos (2FA) en cuentas importantes.
  • Reúne pruebas (audios, chats, cuentas de destino) y presenta una denuncia.

En Querétaro, la SSPMQ ha recordado vías de contacto como el 911 y el 089 (denuncia anónima) en sus comunicaciones.
(Si estás en España, también puedes recurrir a la línea de ayuda de ciberseguridad de INCIBE para obtener orientación.)

 Fuentes y enlaces útiles

  • Publicación/alerta SSPMQ – Policía Cibernética Preventiva (27/10/2025).
  • SSPMQ: recordatorio de canales 911/089 en comunicación pública.
  • Europol: informe sobre el reto criminal de los deepfakes.
  • INTERPOL: informes sobre uso de deepfakes en fraudes y extorsión (Purple Notice).
  • FTC (EE. UU.): alerta y consejos sobre clonación de voz e impostores.
  • INCIBE (España): caso real de fraude con voz de un familiar creada con IA + consejos de prevención.

Comparte este Post:

Noticias relacionadas

Scroll al inicio