CLONACIÓN DE VOZ (Voice cloning)

No es raro que alguna vez hallamos escuchado o leído en alguna parte que estafaron a alguien por medio de una llamada o audio de alguien conocido. Pero que al validar, no era esa persona sino una estafa. Pues bien, esa modalidad de estafa o robo utiliza: Clonación de Voz.
La clonación de voz se define como una tecnología avanzada que utiliza inteligencia artificial para crear una copia digital de la voz de una persona. Este proceso captura las características únicas de la voz, como el tono, el timbre y el acento, para generar una voz sintética que puede pronunciar cualquier texto de manera casi indistinguible de la voz original.
Esta tecnología utiliza algoritmos de aprendizaje profundo que analizan muestras de audio de la voz objetivo.
En seguridad informática, esta técnica se define como deepfake.
Deepfake es una palabra combinada de aprendizaje profundo y falso, en ingles Deep learning y fake. Esta tecnología permite la creación de videos falsos donde imitan las voces y apariencias de personas reales, haciendo que digan o hagan cosas que nunca hicieron o dijeron. Los deepfakes combinan inteligencia artificial para lograr que las falsificaciones sean muy realistas, tanto en imagen como en audio.
En la película G20 de Netflix, utilizan esta tecnología como parte de la trama en el desarrollo de la misma. Así como en la película, cuando estos deepfakes son generados con personas famosas o de alto rango en la sociedad tales como gobernantes, políticos y puestos de poder, esto genera una gran desinformación y muchas veces el público no distingue la realidad de los deepfakes, atrayendo consigo consecuencias en el buen nombre del individuo por decirlo menos.
Pero volviendo al tema de este post, la clonación de voz, hay muchos casos donde utilizando esta tecnología llevan a cabo estafas. Uno de estos casos fue el año pasado cuando intentaron clonar de la voz del CEO de Ferrari.
Los delincuentes informáticos si que sacan provecho a todos los avances tecnológicos y el deepfake no es la excepción. Imitaron la voz de Benedetto Vigna, Ceo de la marca deportiva italiana, e intentaron “cerrar un negocio” con un sentido de urgencia, además de que algunas entonaciones mecánicas hicieron sospechar a su interlocutor, quien hábilmente hizo una pregunta que solo el CEO real conocía la respuesta. “¿Cuál es el título del libro que me has recomendado leer?”. Con esta pregunta, la llamada se corto abruptamente.
Otro caso de voice cloning o deepfake bastante sonado, fue el de una mujer de nacionalidad Argentina, a la que estafaron haciéndose pasar por George Clooney. Perdió 15 mil dólares y fue a través de Facebook que se acercaron a la víctima. Esta creyó que la página era legítima porque tenía una foto de perfil con un supuesto tilde azul de verificación, pero en realidad era una imagen manipulada para simular autenticidad.
Esta modalidad de fraude, se conoce como romance scam, ha aumentado con el uso de inteligencia artificial. Los delincuentes emplean videos generados con IA y voz sintética para hacer que la interacción parezca real.
Como podemos observar, los fraudes informáticos están a la orden del día. En esta era digital donde la inteligencia artificial ha tomado tanta relevancia y los ciberdelincuentes no pierden el tiempo en utilizar todas las herramientas que tienen a la mano para engañar a sus víctimas, es importante tomar precauciones. A continuación, algunas recomendaciones.
Recomendaciones:
- Pactar una palabra o frase secreta con amigos o familiares o incluso empresa para validar que la otra persona sea quien dice ser.
- No enviar dinero a alguien que no has conocido en persona. Si la conoces, pregúntale algo que sepas que solo esa persona sabría contestar acertadamente.
- Corroborar la información recibida. Antes de tomar alguna acción, confirma que lo que te estén diciendo sea real. No actuar bajo presiones o urgencias.
- Se mas exclusivo con tu voz. Limita el envío de audios en redes sociales. Entre menor exposición pública de tu voz, mejor.
- Desconfía de llamadas de números desconocidos y verifica la identidad de la persona antes de compartir información personal.
- Si sospechas que alguien está intentando engañarte con una voz clonada, cuelga la llamada y contacta directamente a la persona por otro medio.
Espero que con estas sencillas pero efectivas recomendaciones, puedas evitar ser estafado y ser de ayuda a alguien que tal vez este en una situacion parecida.
¿Te gustó? comparte este post con tus contactos y déjanos saber tu opinión, coméntanos!
Por: Arianis Livingston M.