La Secretaría de Seguridad Pública Municipal de Querétaro (SSPMQ), a través de su Policía Cibernética Preventiva, ha emitido una alerta sobre el uso de tecnologías que pueden manipular imágenes, videos o audios para suplantar identidades y propagar información falsa. Esta práctica ya se está utilizando en fraudes y extorsiones digitales. (Publicación del 27 de octubre de 2025).
Qué advierte la SSPMQ sobre deepfakes y clonación de voz
¿Qué significa esta alerta en términos simples? Estamos hablando de técnicas como deepfake o clonación de voz: con un video tuyo, fotos de tus redes sociales o unos segundos de audio (como un mensaje de voz de WhatsApp), un delincuente puede crear contenido “creíble” con fines de fraude y extorsión.
Por qué esta tecnología se usa para fraudes:
- para hacerse pasar por ti ante familiares y amigos,
- pedir dinero “urgente”,
- chantajearte con montajes,
- o generar mensajes falsos que dañen tu reputación.
Este tipo de engaños se alinea con las advertencias de organismos y unidades especializadas: la IA está aumentando el realismo de la suplantación y la ingeniería social.
¿Cómo funcionan las estafas con videos y voces manipuladas?
Los patrones más comunes suelen repetirse:
- Gancho emocional + urgencia
“Estoy en un problema”, “me han robado”, “no cuelgues”, “haz la transferencia ya”. La prisa busca que no verifiques. - Suplantación “perfecta” por WhatsApp o llamada
Un audio que suena como tu hijo/a, pareja o jefe/a. Esto ya ha sido documentado en casos reales y alertas sobre clonación de voz. - Petición concreta
Dinero, códigos (SMS), datos bancarios, fotos del INE/DNI, acceso a cuentas, o que abras un enlace o archivo. - Aislamiento
Piden “no le digas a nadie”, o mover la conversación a otro canal para perder la trazabilidad.
Señales para detectar un deepfake o una voz clonada
A veces no es tan evidente, pero estas pistas pueden ser de gran ayuda:
- Audio raro: un ritmo extraño, respiración artificial, cortes abruptos, o un tono que suena “plano” o poco natural.
- Vídeo: los labios no están sincronizados, hay parpadeos extraños, sombras que no tienen sentido, o una cara que parece “demasiado perfecta”.
- Mensaje “fuera de personaje”: esa persona nunca pediría dinero de esa manera.
- Urgencia extrema y amenazas (“si no pagas ahora…”).
- Cambio en el método de pago (transferencia inmediata, criptomonedas, tarjetas de regalo).
- Evasión de verificación (“no puedo hablar”, “no llames”).
Protocolo de 30 segundos para no caer
Si recibes un audio o vídeo sospechoso:
- Corta la urgencia: “Te llamo yo ahora”. Si insisten en que no verifiques, es una bandera roja.
- Verifica a través de un canal alternativo (llama al número que tienes guardado, haz una videollamada real, o contacta a un familiar de confianza).
- Usa una “palabra clave” familiar (una pregunta que solo esa persona sabría responder).
- No envíes dinero ni códigos, aunque “parezca” la voz o la cara de la persona.
- Guarda evidencias: capturas de pantalla, audios, números, enlaces.
Qué hacer si ya fuiste víctima
- Si enviaste dinero: contacta de inmediato a tu banco para intentar bloquear o revertir la transacción.
- Cambia tus contraseñas y activa la verificación en dos pasos (2FA) en cuentas importantes.
- Reúne pruebas (audios, chats, cuentas de destino) y presenta una denuncia.
En Querétaro, la SSPMQ ha recordado vías de contacto como el 911 y el 089 (denuncia anónima) en sus comunicaciones.
(Si estás en España, también puedes recurrir a la línea de ayuda de ciberseguridad de INCIBE para obtener orientación.)
Fuentes y enlaces útiles
- Publicación/alerta SSPMQ – Policía Cibernética Preventiva (27/10/2025).
- SSPMQ: recordatorio de canales 911/089 en comunicación pública.
- Europol: informe sobre el reto criminal de los deepfakes.
- INTERPOL: informes sobre uso de deepfakes en fraudes y extorsión (Purple Notice).
- FTC (EE. UU.): alerta y consejos sobre clonación de voz e impostores.
- INCIBE (España): caso real de fraude con voz de un familiar creada con IA + consejos de prevención.


