Entretenimiento

cómo evitar caer en estafas


Plataformas y redes sociales como Facebook e Instagram se han llenado en los últimos meses de los denominados deepfakes de voz de personas famosas, que respaldan sorteos y concursos fraudulentos, juegos de azar y oportunidades de inversión para intentar engañar a los internautas.

Los deepfakes de voz se generan a través de herramientas de inteligencia artificial (IA) para crear copias sintéticas de la voz de otro individuo. Es posible porque esta tecnología emplea técnicas de aprendizaje profundo para replicar el habla de una persona con un audio realista y convincente, debido a sus similitudes con la voz humana.

Frente a las voces sintéticas generadas íntegramente por un computador que utiliza sistemas de conversión de texto a voz, la clonación de voces usa la voz real de otro individuo para producir una interpretación realista del original.

Crear un deepfake es relativamente sencillo, ya que solo es necesario recopilar muestras de la voz humana que se quiere clonar, ya sea a través del audio de un video o mediante una grabación física de alguien hablando.

Una vez se ha recogido esa muestra, el software de clonación de voz la analiza para identificar los detalles de la voz, como el tono, el ritmo o el volumen, entre otras características vocales. Todos estos datos se utilizan para entrenar un modelo de aprendizaje automático.

Este proceso implica introducir los datos de voz en un algoritmo que sea capaz de aprender a imitar la voz original. Admite, además, la adición de datos para refinar el deepfake.

Si bien la clonación de voz tiene muchos usos legítimos, como la creación de asistentes de voz personalizados, esta tecnología se usa también para actividades fraudulentas.

Este uso de la IA ha causado enorme preocupación porque con él ya se está tratando de influir en procesos democráticos y engañar a potenciales votantes, como ocurrió en enero cuando, antes de las primarias presidenciales de Nuevo Hampshire, ciudadanos de Nueva Inglaterra recibieron llamadas telefónica supuestamente del presidente Biden en la que les pedía guardar el voto para los comicios noviembre. 

Ante esta amenaza, grandes tecnológicas, entre ellas Google, Microsoft y Meta, firmaron el acuerdo ‘AI Elections Accord’ y se comprometieron a evitar el uso fraudulento de la IA en procesos electorales en el mundo, desarrollando herramientas para poner en evidencia las deepfakes y promover la autenticidad de sus contenidos.

Actividades fraudulentas

Entre algunas de las actividades fraudulentas más dañinas están el ciberacoso, el chantaje o la creación de deepfakes para manipular, engañar o dañar financieramente a usuarios, como explica en su blog la compañía de seguridad informática Bitdefender. 

Las plataformas y redes sociales se han convertido en el canal de difusión de buena parte de estas estafas. Esto preocupa especialmente a sus usuarios, ya que más del 57 por ciento asegura sentirse intranquilo por su exposición ante esta tendencia creciente, como revela un reciente sondeo realizado por los responsables de las soluciones de software Voicebot y Pindrop. 

Bitdefender ha hecho un análisis de este fenómeno y se ha centrado principalmente en los deepfakes de voz que circulan por Facebook, plataforma de Meta, aunque no es la única en la que proliferan estos ataques, ya que Instagram, Audience Network y Messenger se encuentran entre los principales sitios donde abundan estas estafas.

En primer lugar, la firma ha determinado que la mayor parte del contenido fraudulento descubierto empleó generadores de voz de IA para clonar las voces de personajes famosos, como Elon Musk, Oprah Winfrey, Mr. Beast, Kylie Jenner, Vin Diesel, Jennifer Aniston o Tiger Woods. 

Los ciberdelincuentes usaron la imagen de estas personas para promover diferentes engaños mediante videos publicitarios con una duración inferior a 30 segundos. En ellos se ofertaban regalos de productos de alto costo.

En Colombia se conoció un caso de deepfake con el futbolista Luis Díaz. A través de un video en Instagram, el jugador, aparentemente, daba una entrevista a un noticiero hablando de un proyecto que invitaba a usuarios a ganar dinero e independizarse económicamente y los guiaba a un enlace donde se completaba la estafa.

Bitdefender ha indicado que se han usado los deepfakes para promover inversiones y participaciones en juegos de azar, y que estas estafas llegaron a las víctimas a través de anuncios fraudulentos de la red social. 

Para sumar víctimas, los estafadores llevaron a cabo el método tradicional de engaño, consistente en prometer un premio a los 100, 1.000 o 10.000 primeros participantes o el retorno de estas inversiones multiplicado por cinco.

Una vez las víctimas hacían clic sobre el enlace falso, se las redirigía a una página fraudulenta, para completar una encuesta falsa con sus datos personales.

Así puede identificarlas y aprender a protegerse

La compañía de seguridad informática Bitdefender revela que, de acuerdo con el análisis que ha realizado de los deepfakes de voz en Facebook, los grupos demográficos más afectados por esta clase de fraudes de voz son los que tienen edades entre los 18 y los 65 años.

Con ello ha reconocido que, a pesar de que se trata de un método cada vez más sofisticado, la mayoría de los videos y suplantaciones de voz analizados para este estudio “están mal ejecutados” e incluyen indicios “muy visibles y anomalías visuales” que permiten determinar que se trata de una estafa.

Entre algunas de estas evidencias, ha mencionado la más habitual, que son los movimientos de labios que no coinciden con lo que se está diciendo o las imágenes distorsionadas, entre otros ejemplos.

Según los cálculos de la firma de ciberseguridad, las estafas deepfake de voz se dirigieron al menos a un millón de usuarios estadounidenses y europeos, en países como España, Rumania, Francia, Austria, Bélgica, Portugal, Polonia, Suecia, Holanda, Chipre y Dinamarca. De hecho, un solo anuncio llegó a 100.000 usuarios.

Para evitar esta clase de estafas, Bitdefender ha comentado que siempre se deben verificar la calidad y la consistencia de la voz, debido a que las voces clonadas suelen tener tonos inusuales, ser estáticas o presentar inconsistencias en los patrones del habla. 

También se debe escuchar atentamente el sonido del video, para detectar si hay ruidos de fondo inusuales, así como verificar que se trata de una oferta legítima contactando directamente con la persona u organización que la promociona.

Y señalan que hay que desconfiar de aquellos anuncios y videos que prometen recompensas poco creíbles y, sobre todo, de formularios de contacto en páginas web desconocidas que soliciten datos personales y financieros.

AUTOR: PORTALTIC – EUROPA PRESS 

MADRID





Source link

Antea Morbioli

Hola soy Antea Morbioli Periodista con 2 años de experiencia en diferentes medios. Ha cubierto noticias de entretenimiento, películas, programas de televisión, celebridades, deportes, así como todo tipo de eventos culturales para MarcaHora.xyz desde 2023.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button