Los ciberestafadores están utilizando la inteligencia artificial para clonar el rostro de sus víctimas y acceder a sus cuentas bancarias, sin necesidad de conocer sus contraseñas. Es el caso de un ciudadano vietnamita que perdió 400.000$, y que ha puesto de manifiesto lo peligroso que puede ser este tipo de ataque.
Esta técnica se aprovecha del uso cada vez más común de la verificación biométrica, como el reconocimiento facial en las aplicaciones de entidades financieras. Al recopilar datos faciales y personales, los delincuentes crean réplicas digitales del rostro de la víctima, conocidas como deepfakes, que son capaces de engañar a los sistemas de seguridad.
¿Cómo funciona esta amenaza con la IA?
Detrás de esta estafa se encuentra un troyano móvil llamado GoldPickaxe, que inicialmente estaba dirigido a dispositivos iOS, aunque ya se han detectado versiones para Android. Este software malicioso permite a los estafadores recolectar datos biométricos, documentos de identidad y SMS. Con esta información, los atacantes generan deepfakes faciales que pueden lograr eludir los sistemas de autenticación biométrica de bancos y otras entidades.
Según un informe de la empresa de ciberseguridad Group-IB, incluso existe un servicio basado en IA que facilita la creación de estos rostros falsos, lo que agrava aún más la amenaza.
Casos detectados y regiones afectadas
Los primeros casos han surgido en Tailandia poco después de que el Banco Central de ese país implementara el reconocimiento facial como medida de seguridad. Posteriormente, se conoció el caso del ciudadano vietnamita que fue víctima de este ciberataque, lo que confirmó la efectividad de la técnica. Hasta hoy, los incidentes se han concentrado en el sudeste asiático, sobre todo en Vietnam y Tailandia, pero los expertos advierten que esta modalidad de fraude podría extenderse a otros países.
La gran cantidad de imágenes personales que circulan en internet, especialmente en redes sociales, facilitan estos ataques. Muchas personas tienen fotos de su rostro publicadas, lo que facilita a los ciberdelincuentes obtener el material necesario para crear deepfakes sin grandes conocimientos.
Aunque las contraseñas fuertes siguen siendo un buen método de seguridad, muchas plataformas están empezando a adoptar sistemas biométricos, creyendo que son más seguros. Sin embargo, la aparición de peligros como GoldPickaxe muestra que incluso estos sistemas pueden ser vulnerables si no se implementan medidas adicionales de protección.
¿Cómo protegerse?
El avance de estas técnicas presenta serios desafíos para las entidades financieras y los desarrolladores de aplicaciones. Será crucial fortalecer los sistemas de autenticación y buscar nuevas formas de protección contra la suplantación de identidad mediante inteligencia artificial.
Es recomendable tener más cuidado al publicar imágenes personales en redes sociales, limitando quién puede acceder al contenido para reducir el riesgo de exposición. La evolución del fraude online exige una respuesta rápida y efectiva tanto del sector público como del privado para evitar que este tipo de ataques se conviertan en una amenaza global.


