El ex consejero delegado de Binance, Changpeng "CZ" Zhao, relató una sorprendente experiencia con un vídeo que imitaba perfectamente su voz gracias a la tecnología de IA.
Zhao reveló en un post publicado el jueves que el doblaje en mandarín del vídeo era indistinguible de su voz real debido a la extrema precisión de la reproducción.
Acabo de ver un vídeo de IA que imitaba mi voz hasta el punto de que ni yo podía notar la diferencia. Scary!
- CZ 🔶 BNB (@cz_binance) 17 de abril de 2025
El vídeo, en el que Zhao aparece hablando en chino en un montaje de clips e imágenes creados con inteligencia artificial, suscitó una gran preocupación por el uso no autorizado de la IA para suplantar a personalidades públicas. CZ calificó de "inquietante" la precisión de la voz y la sincronización de los labios.
La duplicación digital de ejecutivos de la industria de las criptomonedas a través de herramientas de IA generativa va en aumento, y este caso es un claro ejemplo de suplantación maliciosa.
Tras dejar de ser CEO de Binance en 2023, Zhao siguió siendo influyente en la industria de las criptodivisas y ya había advertido anteriormente al público sobre los riesgos de las deepfakes.
En el mes de octubre de 2024, Zhao había lanzado una advertencia específica: no confiar en ningún vídeo en el que se pidieran transferencias de criptodivisas, debido a la difusión de contenidos manipulados que le retrataban.
Las deepfakes representan riesgos operativos cada vez más graves para el sector de las criptomonedas
La última experiencia de Zhao muestra cómo los métodos de suplantación de identidad están evolucionando desde simples estafas textuales o de imágenes estáticas hasta sofisticadas simulaciones audiovisuales.
Patrick Hillmann, ex director de comunicaciones de Binance, contó en 2023 que unos estafadores habían creado un vídeo deepfake para hacerse pasar por él durante una reunión de Zoom con representantes del proyecto.

El vídeo se había generado recopilando años de sus entrevistas públicas y contenido en línea, lo que hacía que la reunión ficticia fuera tan creíble como una llamada oficial real de Binance.
Hoy en día, las tecnologías avanzadas de clonación de voz permiten imitar a una persona tan bien que ni siquiera el original puede reconocer al falso. Esto representa un peligro mucho mayor que la suplantación de identidad en las redes sociales.
Una estafa millonaria muestra los riesgos concretos de las falsificaciones
Un incidente ocurrido en febrero pone de manifiesto los graves riesgos financieros de las falsificaciones: unos empleados de Arup en Hong Kong fueron estafados para que transfirieran unos 25 millones de dólares durante una videollamada en Microsoft Teams.

Según el South China Morning Post, todos los participantes en la llamada eran simulaciones de IA que imitaban la voz y el aspecto del director financiero del Reino Unido y otros colegas.
Clonación de voz: tecnología cada vez más accesible
La tecnología detrás de la clonación de voz realista es cada vez más accesible y requiere muy pocos datos de voz para funcionar.
Servicios como ElevenLabs permiten a los usuarios crear clones de voz realistas a partir de menos de 60 segundos de grabación.
Según una institución financiera británica, más del 25% de los adultos del Reino Unido han sufrido estafas basadas en voces clonadas sólo en el último año.

Informes de CyFlare muestran que las API de clonación de voz pueden comprarse en mercados de la darknet por tan solo 5 dólares. Los modelos comerciales suelen incluir marcas de agua y requieren consentimiento, mientras que los de código abierto o ilegales no ofrecen protección.
La UE exige etiquetas explícitas para los deepfakes, pero la legislación no llegará hasta 2026
El Reglamento sobre Inteligencia Artificial de la UE, aprobado en marzo de 2024, exige que cualquier contenido deepfake visible públicamente esté claramente etiquetado.
Sin embargo, la plena aplicación del reglamento no está prevista hasta 2026, lo que deja un importante periodo de vulnerabilidad.

Mientras tanto, los fabricantes de hardware están empezando a incorporar sistemas de detección en los dispositivos de consumo.
Durante el Mobile World Congress 2025 de Barcelona, se dieron a conocer herramientas capaces de detectar en tiempo real manipulaciones de audio y vídeo incrustadas en los propios dispositivos, un posible paso hacia soluciones autónomas de verificación de autenticidad, aunque aún lejos de la distribución comercial.