Estafas con voces clonadas por inteligencia artificial: el crimen suena cada vez más real
- Tara Lau
- Apr 21
- 2 min read

En 2024 se reportaron más de 845,000 casos de estafas por suplantación en Estados Unidos.
Con apenas unos segundos de audio, los programas de clonación de voz mediante inteligencia artificial pueden replicar una voz con tal precisión que resulta casi imposible distinguirla del original. Aunque esta tecnología tiene aplicaciones legítimas —desde accesibilidad hasta automatización—, también se ha convertido en una herramienta al alcance de los estafadores. Y lo preocupante es que los sistemas de protección actuales son fácilmente eludibles.
Uno de los fraudes más comunes es el llamado “scam de la abuela”, donde los delincuentes utilizan voces clonadas de seres queridos para engañar a víctimas vulnerables. Este tipo de estafa no es nueva, pero según Rahul Sood, jefe de producto en la firma de ciberseguridad Pindrop, “la rapidez con que ocurren y el realismo de las voces ha cambiado radicalmente”. Ya no solo están en riesgo los individuos; empresas también enfrentan amenazas como suplantaciones en centros de llamadas o intentos de reclutamiento falsos.
Un reciente informe de Consumer Reports encendió las alarmas: de seis herramientas de clonación de voz evaluadas, en cuatro fue “fácil” crear imitaciones a partir de audios públicos, sin requerir consentimiento del dueño de la voz ni mecanismos que limitaran su uso indebido. Además, estas plataformas eran gratuitas.
Aunque no hay cifras específicas sobre fraudes con voces clonadas, en 2024 se reportaron más de 845,000 casos de estafas por suplantación en Estados Unidos. Algunas incluso involucran voces de figuras conocidas: desde llamadas automáticas falsas imitando al presidente Biden hasta anuncios apócrifos con la voz de Kamala Harris. Ante estos casos, la Comisión Federal de Comunicaciones prohibió por unanimidad el uso de voces generadas por IA en robollamadas.
La tecnología ya superó el llamado “valle inquietante”: el oído humano ya no detecta la diferencia entre lo real y lo sintético. Y como lo demuestra el testimonio del abogado Gary Schildhorn ante el Senado en 2023, la amenaza es real. Schildhorn recibió una llamada de su supuesto hijo, llorando desde una cárcel tras un accidente con una mujer embarazada. El engaño parecía creíble, pero un llamado posterior del verdadero hijo lo salvó de enviar dinero a los estafadores.
Expertos recomiendan nuevas prácticas para frenar este fenómeno: declaraciones de consentimiento personalizadas, marcas de agua en audios creados por IA y, en casa, acordar una palabra clave familiar para verificar identidades.
Pero el debate no es blanco o negro. Como señala Steve Grobman, director tecnológico de McAfee, esta tecnología también puede ser transformadora: ayudar a quienes han perdido su voz, traducir idiomas y optimizar recursos. “Nuestra voz ya es parte del costo de vivir en el mundo digital de 2025”, concluye.
El desafío está servido: cómo aprovechar lo bueno sin caer en las trampas que suenan cada vez más reales.
Comentarios