Pico y Placa Medellín

viernes

no 

no

Pico y Placa Medellín

jueves

no 

no

Pico y Placa Medellín

miercoles

no 

no

Pico y Placa Medellín

martes

no  

no

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

no aplica  

language COL arrow_drop_down

Pilas: están clonando voces con IA, aprenda a protegerse

En el pasado, para estafar a alguien se necesitaban armas, intimidación o complicidad. Hoy, basta con una simple muestra de audio y una conexión a internet.

  •  El uso malicioso de inteligencia artificial permite imitar voces humanas con mucho realismo. FOTO cortesía
    El uso malicioso de inteligencia artificial permite imitar voces humanas con mucho realismo. FOTO cortesía
hace 1 hora
bookmark

Con apenas tres segundos de audio, ciberdelincuentes pueden clonar una voz y hacerse pasar por cualquier persona. Esta amenaza, cada vez más común en todo el mundo, combina técnicas de ingeniería social con herramientas de inteligencia artificial avanzadas para perpetrar estafas muy convincentes.

El experto en ciberseguridad Christian Ali Bravo, de la firma ESET, advierte sobre la creciente ola de engaños en que los atacantes extraen breves grabaciones de redes sociales como TikTok o Instagram, e incluso de notas de voz compartidas en grupos de WhatsApp, y las procesan mediante IA para replicar patrones vocales.

Con esto, bandas criminales hacen las típicas llamadas de “tía, estoy preso”, contactando a conocidos de la víctima de clonación para obtener dinero o información confidencial, sonando con el ritmo, entonación y matices de la voz original, apelando también a una manipulación emocionalmente.

¿Cómo clonan una voz?

Los estafadores no necesitan herramientas complejas ni largas horas de grabación. De hecho, un audio corto es suficiente para replicar una voz humana con un nivel de realismo que puede engañar incluso a familiares cercanos. Esta capacidad ha sido demostrada por bancos e instituciones de ciberseguridad, y es una de las razones por las que estos fraudes han crecido tanto.

Ali Bravo explica que los ciberdelincuentes suelen seguir estos pasos:

-Obtención de muestras: aprovechan cualquier archivo de audio público (videos, notas de voz, entrevistas, publicaciones en redes abiertas).

-Entrenamiento del modelo: usan plataformas de clonación de voz basadas en IA. Herramientas como Voice Engine, de OpenAI, permiten replicar un habla natural a partir de apenas 15 segundos de audio, sin necesidad de entrenamientos extensos.

-Simulación de la llamada: la voz clonada se utiliza para crear una llamada falsa, en la que el delincuente se hace pasar por alguien de confianza —un hijo, una madre, un jefe— y plantea una situación urgente que requiere dinero inmediato o el envío de información confidencial.

-Manipulación emocional: la víctima, enfrentada a una voz que reconoce, baja la guardia. Las emociones nublan el juicio y hacen que la respuesta sea automática.

A todo esto se suma otra técnica común: el uso del spoofing, que permite simular el número de teléfono de un contacto conocido para darle aún más credibilidad a la llamada falsa.

Las consecuencias de estos ataques no son menores. Según la Comisión Federal de Comercio (FTC) de Estados Unidos, durante 2023 se reportaron pérdidas superiores a los 2.700 millones de dólares por estafas digitales.

En el Reino Unido, el banco digital Starling realizó una encuesta a más de 3.000 personas adultas y los resultados fueron preocupantes: una de cada cuatro personas afirmó haber sido víctima de una estafa con voz clonada al menos una vez en el último año.

Más alarmante aún: el 46 % de los encuestados no sabía que existía este tipo de fraude, lo que demuestra el bajo nivel de conocimiento ciudadano frente a esta nueva amenaza.

Lea también: MedSearch, la IA colombiana que ayuda a los médicos a diagnosticar más rápido

Aprenda a protegerse

En respuesta a esta amenaza, desde ESET y Starling Bank proponen una estrategia preventiva concreta: establecer una frase segura previamente acordada entre familiares o personas cercanas, que sirva como código de verificación ante llamadas o mensajes sospechosos.

Esta frase debe cumplir con ciertas características:

-Ser simple pero poco predecible.

-Fácil de recordar, pero diferente a las contraseñas tradicionales.

-Compartida solo en persona (nunca por mensajes ni redes sociales).

-Cambiada de forma periódica, especialmente si se sospecha que ha sido comprometida.

En caso de duda, “si alguien que supuestamente es un ser querido no puede decir la frase segura, la recomendación es colgar de inmediato y contactar a esa persona por otro medio”, señala Ali Bravo. Este sencillo paso puede ser la diferencia entre caer en la trampa o detener el fraude a tiempo.

El empleo que buscas
está a un clic

Nuestros portales

Club intelecto

Club intelecto

Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD