Deepfake De IA Engaña A CZ De Binance
  • Home
  • IA
  • Deepfake AI Imita CZ De Binance De Maneras Inquietantes
Por Hamza Ahmed imagen de perfil Hamza Ahmed
5 min read

Deepfake AI Imita CZ De Binance De Maneras Inquietantes

CZ, ex CEO de Binance, no reconoció un vídeo deepfake con su propia voz. La inteligencia artificial replica rostros y sonidos con peligrosa precisión.

El ex consejero delegado de Binance, Changpeng "CZ" Zhao, relató una sorprendente experiencia con un vídeo que imitaba perfectamente su voz gracias a la tecnología de IA.

Zhao reveló en un post publicado el jueves que el doblaje en mandarín del vídeo era indistinguible de su voz real debido a la extrema precisión de la reproducción.

El vídeo, en el que Zhao aparece hablando en chino en un montaje de clips e imágenes creados con inteligencia artificial, suscitó una gran preocupación por el uso no autorizado de la IA para suplantar a personalidades públicas. CZ calificó de "inquietante" la precisión de la voz y la sincronización de los labios.

0:00
/0:15

La duplicación digital de ejecutivos de la industria de las criptomonedas a través de herramientas de IA generativa va en aumento, y este caso es un claro ejemplo de suplantación maliciosa.
Tras dejar de ser CEO de Binance en 2023, Zhao siguió siendo influyente en la industria de las criptodivisas y ya había advertido anteriormente al público sobre los riesgos de las deepfakes.

En el mes de octubre de 2024, Zhao había lanzado una advertencia específica: no confiar en ningún vídeo en el que se pidieran transferencias de criptodivisas, debido a la difusión de contenidos manipulados que le retrataban.

Las deepfakes representan riesgos operativos cada vez más graves para el sector de las criptomonedas

La última experiencia de Zhao muestra cómo los métodos de suplantación de identidad están evolucionando desde simples estafas textuales o de imágenes estáticas hasta sofisticadas simulaciones audiovisuales.

Patrick Hillmann, ex director de comunicaciones de Binance, contó en 2023 que unos estafadores habían creado un vídeo deepfake para hacerse pasar por él durante una reunión de Zoom con representantes del proyecto.

Los estafadores utilizaron un holograma de IA deepfake del ejecutivo de Binance para estafar a proyectos de criptomonedas
Los estafadores utilizaron un holograma de IA deepfake del director de comunicaciones de Binance para actividades fraudulentas.

El vídeo se había generado recopilando años de sus entrevistas públicas y contenido en línea, lo que hacía que la reunión ficticia fuera tan creíble como una llamada oficial real de Binance.

Hoy en día, las tecnologías avanzadas de clonación de voz permiten imitar a una persona tan bien que ni siquiera el original puede reconocer al falso. Esto representa un peligro mucho mayor que la suplantación de identidad en las redes sociales.

Una estafa millonaria muestra los riesgos concretos de las falsificaciones

Un incidente ocurrido en febrero pone de manifiesto los graves riesgos financieros de las falsificaciones: unos empleados de Arup en Hong Kong fueron estafados para que transfirieran unos 25 millones de dólares durante una videollamada en Microsoft Teams.

Arup perdió 25 millones de dólares en una estafa de videoconferencia falsa en Hong Kong

Según el South China Morning Post, todos los participantes en la llamada eran simulaciones de IA que imitaban la voz y el aspecto del director financiero del Reino Unido y otros colegas.

Clonación de voz: tecnología cada vez más accesible

La tecnología detrás de la clonación de voz realista es cada vez más accesible y requiere muy pocos datos de voz para funcionar.

Servicios como ElevenLabs permiten a los usuarios crear clones de voz realistas a partir de menos de 60 segundos de grabación.

Según una institución financiera británica, más del 25% de los adultos del Reino Unido han sufrido estafas basadas en voces clonadas sólo en el último año.

Ciberataques Deepfake impulsados por la IA: una amenaza creciente para 2025 y más allá
Los ciberataques impulsados por la IA están aumentando en 2025. Descubra cómo CyFlare protege los sectores sanitario y financiero con soluciones avanzadas.

Informes de CyFlare muestran que las API de clonación de voz pueden comprarse en mercados de la darknet por tan solo 5 dólares. Los modelos comerciales suelen incluir marcas de agua y requieren consentimiento, mientras que los de código abierto o ilegales no ofrecen protección.

La UE exige etiquetas explícitas para los deepfakes, pero la legislación no llegará hasta 2026

El Reglamento sobre Inteligencia Artificial de la UE, aprobado en marzo de 2024, exige que cualquier contenido deepfake visible públicamente esté claramente etiquetado.
Sin embargo, la plena aplicación del reglamento no está prevista hasta 2026, lo que deja un importante periodo de vulnerabilidad.

Artículo 50: Obligaciones de transparencia para proveedores e implantadores de determinados sistemas de IA | Ley de Inteligencia Artificial de la UE

Mientras tanto, los fabricantes de hardware están empezando a incorporar sistemas de detección en los dispositivos de consumo.
Durante el Mobile World Congress 2025 de Barcelona, se dieron a conocer herramientas capaces de detectar en tiempo real manipulaciones de audio y vídeo incrustadas en los propios dispositivos, un posible paso hacia soluciones autónomas de verificación de autenticidad, aunque aún lejos de la distribución comercial.

Por Hamza Ahmed imagen de perfil Hamza Ahmed
Actualizado el
IA Cripto Estafas
Consent Preferences