Episode Details

Back to Episodes
SECCIÓN TIC: La clonación de voz con inteligencia artificial, un nuevo riesgo para fraudes y estafas

SECCIÓN TIC: La clonación de voz con inteligencia artificial, un nuevo riesgo para fraudes y estafas

Published 6 months, 1 week ago
Description
El experto en ciberseguridad Pablo Rivera Somorrostro, de 2KSystems, advirtió en una entrevista sobre los peligros crecientes del uso de la inteligencia artificial para clonar voces, una técnica que se está utilizando en estafas cada vez más sofisticadas. Rivera explicó que tanto en llamadas comerciales automatizadas como en fraudes financieros, las voces generadas por IA están sustituyendo a personas reales. “Muchas veces, cuando recibimos una llamada, lo que habla con nosotros no es una persona, aunque lo parezca, sino una inteligencia artificial”, señaló. Uno de los casos más llamativos ocurrió en el Reino Unido, donde se logró estafar 25 millones de dólares a través de una transferencia simulando la voz del CEO de una empresa. Aunque no siempre se trata de cifras tan elevadas, el fenómeno va en aumento. El especialista subrayó la importancia de establecer sistemas de verificación para evitar caer en este tipo de engaños, tanto en empresas como en el ámbito familiar. Entre las medidas recomendadas, destacó el uso de palabras clave de seguridad, así como la confirmación a través de múltiples vías antes de realizar transferencias urgentes o responder a peticiones sospechosas. Durante la entrevista, se demostró lo fácil que resulta clonar voces con programas disponibles en internet por un coste muy bajo. En apenas unos minutos, se generó un audio en el que una voz sintética imitaba al presidente Pedro Sánchez felicitando el inicio de temporada de un programa. También se recreó la voz de Bart Simpson con el mismo mensaje, evidenciando lo realista que pueden llegar a ser estos sistemas. Rivera advirtió además sobre la práctica de grabar la voz de usuarios en llamadas falsas para entrenar a las IA con patrones de habla más precisos. Por eso, aconseja evitar conversaciones largas con desconocidos y no responder con expresiones simples como “sí”, que pueden ser utilizadas para suplantaciones. “Hoy en día, con 20 o 30 minutos de grabación, se puede entrenar un modelo para clonar la voz, cambiar su tonalidad, hacerlo sonar más formal o incluso traducirlo a otros idiomas”, explicó. El experto cerró recordando que la prevención pasa por la educación y la cautela: desconfiar de llamadas urgentes, establecer mecanismos de verificación y limitar la exposición de nuestra voz son pasos clave para no caer en la trampa de estas nuevas estafas digitales.
Listen Now

Love PodBriefly?

If you like Podbriefly.com, please consider donating to support the ongoing development.

Support Us