Entretenimiento

Estafas IA | Desde conductoras de televisión hasta la presidenta de la República: PNP ha descubierto 100 casos donde se aplica inteligencia artificial | dirincri | suplantar la identidad | clonación de voz | roban 1 millon de soles | LIMA


LEE TAMBIÉN: Usuarios denuncian que menores son utilizados para promover discursos de odio en redes sociales

La Dirección Nacional de Investigación Criminal (Dirincri) informó a Latina Noticias que son 94 casos de estafa con el apoyo de la IA, la cual es aplicada con el objetivo de suplantar la identidad de otras personas. Además, bajo esta modalidad se ha logrado robar más de 1 millón de soles aproximadamente. Este monto sigue creciendo y hay más casos que no se denuncian”, comentó una fuente de esta dirección.

Hasta setiembre de este año eran 94 casos registrados. Sin embargo, la novedosa estrategia de los delincuentes sigue cobrando víctimas.

La clonación de voz y rostro

Distintas conductoras de televisión ya habían sufrido de la clonación de su imagen, como Mávila Huertas o María de Jesús Gonzáles. Ahora los estafadores cuentan con un nuevo personaje para engañar a la ciudadanía. Se trata de la imagen de la presidenta de la República del Perú .

La Dirincri sostuvo que son 94 las estafas registradas donde se utiliza la IA para clonar las voces y rostros de personas.

Su objetivo es hacer creer a los incautos que la verdadera Boluarte es quien aparece en la publicidad engañosa, la cual se difunde por medio de videos en redes sociales. Las víctimas caen en la trampa y depositan su dinero a una plataforma que supuestamente les hará obtener un monto más grande.

Trabajo arduamente para brindar a cada peruano la oportunidad de ganar grandes sumas de dinero, independientemente de su profesión o ingresos actuales (…). Ahora no necesitarán invertir constantemente su dinero, solo necesitarán hacer un depósito único de 950 soles (…). Le garantizo que, si realiza el depósito mínimo, verá más de 2.000 soles en su cuenta para la mañana siguiente”, se escucha en el video falso. Este tipo de modalidad ha sorprendido a varios internautas por la sincronización de la voz y los gestos corporales de la presidenta.

Dina Boluarte Deepfake

La técnica del deepfake

Erick Iriarte, abogado experto en derecho digital y nuevas tecnologías, explicó a este Diario que en la técnica del deepfake se emplean programas de Internet que permiten escribir un texto para que sea convertido de forma casi inmediata en la voz de audios que obtuvieron previamente

Rodrigo Ochoa, líder de automatización e inteligencia artificial en Moventi, señaló a El Comercio que el deepfake funciona de la misma manera tanto para audio como para video. Se utilizan algoritmos que, con la ayuda de una base audiovisual, son entrenados para almacenar grandes cantidades de archivos que servirán para hacer un video falso.

Estos programas pueden encontrarse abiertamente en Internet. “Mientras más audios y videos se tengan de la persona para que la IA pueda estudiarlos, la clonación se verá más real”, comentó.

Especialistas señalaron a El Comercio que el proceso para llegar a la clonación suele durar unos cuantos minutos.

Especialistas señalaron a El Comercio que el proceso para llegar a la clonación suele durar unos cuantos minutos.

¿Cómo funciona este proceso?

Rodrigo Ochoa añadió que la IA está programada para poder reproducir un audio con las palabras que los estafadores escriben en el sistema. Se deben tener varios audios y videos grabados para que la IA pueda registrarlos y luego el programa pueda hacer la representación”, dijo.

De ese modo, la IA será capaz de gesticular e imitar la voz de las personas, también es un programa capaz de sincronizar los labios con las palabras que ‘se están diciendo’”, agregó Ochoa.

Erick Iriarte explicó que el proceso implica utilizar imágenes con relación a un texto. “Por ejemplo, yo tengo un video tuyo, luego le pido a un programa que analice cómo mueves el rostro con palabras específicas, de tal manera que parezca que realmente tú estuvieras hablando”, precisó.

La técnica del deepfake puede emplearse tanto para clonar voces como para clonar rostros.

La técnica del deepfake puede emplearse tanto para clonar voces como para clonar rostros.

Gustavo Vallejo, especialista en ciberseguridad, señaló que los delincuentes eligen a personajes públicos ya que hay mucha información sobre ellos por su trabajo. “Los estafadores operan desde un punto psicológico, esto es así debido a que generalmente las figuras escogidas son líderes de opinión, por lo que se decide capturar su video y voz con la finalidad de sacar un beneficio fraudulento”, dijo.

Resaltó que todo puede ocurrir en cuestión de minutos. “Básicamente hacen un guion, luego buscan todo el material que puedan de un famoso, hacen uso del programa, y finalmente consiguen hacer la clonación. Todo en menos de un día”, acotó.

¿Cómo reconocer estos videos?

Rodrigo Ochoa considera que la población debe observar la calidad de los videos en cuestión. “La mayoría de estos videos muestra algún signo de edición, no son perfectos. En algún momento vas a ver que los labios no sincronizan con el audio, también se puede percibir que una mueca no es acorde a la persona, o que la voz es robotizada. Siempre habrá algo que no cuadra”, comentó.

Erick Iriarte acotó que otra de las formas para identificar estos videos es que no suelen ser muy dinámicos. “Pueden parecer fotos animadas y están lejos de ser videos continuos”, mencionó.

Las personas que sufren de la clonación de su voz y rostro para publicidad engañosa generalmente son personajes públicos.

Las personas que sufren de la clonación de su voz y rostro para publicidad engañosa generalmente son personajes públicos.

/ Pixabay

Por su parte, Gustavo Vallejo indicó que hay que comparar y verificar dicho contenido con las fuentes oficiales, en este caso, las plataformas digitales de los personajes involucrados, ello para validar si el video es verídico o no.

Los delitos

Erick Iriarte aseguró que el delito directo es el de suplantación de identidad, el cual se encuentra en el artículo 9 de la Ley de Delitos Informáticos. Tiene una pena privativa de la libertad no menor de tres ni mayor de cinco años.

En el caso del delito de suplantación de identidad se considerará como un agravante que se cometa este con el fin de obtener un beneficio económico, en cuyo caso la pena se podrá aumentar hasta un tercio por encima del máximo legal previsto, es decir, aproximadamente seis años y medio”, agregó Alexandra Vargas, abogada penalista del Estudio Linares.

Por otro lado, Iriarte mencionó los delitos de estafa y de hurto, los cuales están establecidos en el Código Penal. Estos ocurren siempre y cuando se haya cumplido la acción. El primero tiene una pena de no menor de uno ni mayor de seis años; y el segundo de no menor de uno ni mayor de tres años.

Anteriormente, distintas conductoras de televisión ya habían sufrido de la clonación de su imagen. Ahora la víctima es la presidenta Dina Boluarte.

Anteriormente, distintas conductoras de televisión ya habían sufrido de la clonación de su imagen. Ahora la víctima es la presidenta Dina Boluarte.

Canales de atención

El Ministerio Público informó a El Comercio que, al ser delitos de estafas que utilizan tecnologías de información, las denuncias son atendidas por las fiscalías penales de turno, pudiendo recurrir a la Unidad Fiscal Especializada en Ciberdelincuencia para solicitar un acompañamiento técnico y así acceder al tratamiento de la evidencia digital.

Por otro lado, Ricardo Elías, abogado experto en cibercriminalidad, dijo que los canales para denunciar estos casos son la Divindat y el Ministerio Público. Precisó que, solo si ocurrió en Lima, se puede acudir a la Fiscalía Especializada en Ciberdelincuencia. Mientras que, si ocurrió fuera de la capital, se debe ir a la fiscalía penal correspondiente.



Source link

Antea Morbioli

Hola soy Antea Morbioli Periodista con 2 años de experiencia en diferentes medios. Ha cubierto noticias de entretenimiento, películas, programas de televisión, celebridades, deportes, así como todo tipo de eventos culturales para MarcaHora.xyz desde 2023.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button