La historia de una mujer francesa que entregó 800.000 euros a un estafador que se hacía pasar por el actor Brad Pitt ha dado la vuelta al mundo en los últimos días, alertando de los peligros de las nuevas tecnologías. El estafador, luego de contactar a la mujer, utilizó el deepfake, una tecnología que permite generar contenido convincente pero falso.
“Las deepfakes (acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo) o manipulaciones de medios digitales utilizando inteligencia artificial para crear contenido falso y realista, plantean riesgos significativos. Por ejemplo, la manipulación de imágenes y videos genera imágenes falsas que pueden parecer auténticas, puede influir en la percepción del público sobre una personalidad, afectando su imagen y credibilidad.”, explica el abogado William Llanos, docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.
El experto indica que la desinformación se manifiesta a través de discursos falsos, entrevistas inventadas o declaraciones ficticias, lo que puede resultar en una desinformación masiva.
Activistas y reguladores advierten que el desarrollo de programas de IA generativa podría generar un flujo incontrolable de contenidos degradantes, como imágenes falsas (deepfakes) pornográficas de mujeres famosas, afectando también a personas anónimas.
Un informe reciente de Unit 42, la división de investigación de la empresa de ciberseguridad Palo Alto Networks, revela que ya existen bandas organizadas que crean campañas de deepfakes.
Estos grupos utilizan sin permiso la imagen de celebridades para promover esquemas de inversión falsos o se hacen pasar por ejecutivos para estafar a sus víctimas. Un ejemplo reciente es la plataforma fraudulenta Quantum AI, que usó la imagen de figuras como Elon Musk, la presidenta italiana Georgia Meloni y el expresidente mexicano Andrés Manuel López Obrador para crear videos falsos que atrajeron a los usuarios.
Según el informe, los atacantes suelen comenzar con un video legítimo al que agregan audio generado por IA y utilizan tecnología de sincronización de labios para que el movimiento de los labios coincida con el audio.
En el caso de los estafadores que utilizaron la imagen de Brad Pitt, estos contactaron a la mujer por medio de redes sociales y crearon una historia según la cual el actor se estaba enamorando de su víctima y necesitaba dinero para un procedimiento quirúrgico.
La mujer, que recibía periódicamente imágenes manipuladas a través de deepfake y otras técnicas más rudimentarias, realizó varios depósitos hasta llegar a la cifra de 800.000 euros antes de darse cuenta del engaño.
Otros casos similares, también utilizando la imagen de Pitt, se presentaron en España y otros países.
Una herramienta utilizada para el delito
“Si una persona puede ser fácilmente representada en un video haciendo algo que nunca hizo, ¿cómo podemos confiar en la veracidad de lo que vemos en línea? Esto puede tener un impacto significativo en nuestra percepción de la realidad y en nuestra confianza en los medios de comunicación”, puntualiza.
El experto agrega que el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas (deepfakes) pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.
Llanos indica que estas herramientas a menudo son utilizadas para reinventar antiguas formas de estafa que se aprovechan del factor humano.
Los ataques contra individuos son un área que verá un crecimiento exponencial en estas campañas, como en las estafas donde el delincuente se hace pasar por un familiar. La mayoría de las personas desconoce lo fácil que es usar estas herramientas para replicar la voz de alguien. Los estafadores pueden utilizar una grabación de una llamada para clonar la voz de una persona y contactar a sus seres queridos, o incluso extraerlas de sus redes sociales. Son las mismas estafas de antes, pero con un enfoque moderno.
Recomendaciones
Ante éste y otros ataques que involucren contenido manipulado o deepfake, la plataforma de ciberseguridad ESET recomienda seguir los siguientes consejos:
Verificar la fuente: antes de creer o compartir contenido en línea, es fundamental verificar la autenticidad de la fuente, investigando la reputación y la credibilidad del sitio web, la cuenta de redes sociales o la aplicación que está promoviendo el contenido.
Analizar el contexto: debemos examinar el contexto en el que se presenta el contenido. ¿Coincide con el tono y el estilo habitual de la persona o la organización que se muestra en el video? Si algo parece fuera de lugar o poco probable, es posible que se trate de un deepfake.
Comparar con fuentes confiables: ante dudas sobre la veracidad de un video o una noticia, es posible compararlos con fuentes confiables y verificadas como otros sitios, entrevistas o escritos para obtener una perspectiva más completa y precisa.
Estar atento a las inconsistencias: detalles como movimientos faciales irregulares, errores en la sincronización labial o anomalías en la calidad del audio y el video pueden ser señales de que el contenido ha sido manipulado digitalmente.
Mantenerse informado: estar al tanto de las últimas tendencias y desarrollos en tecnologías de manipulación de medios como los deepfakes es vital para identificar y evitar la desinformación y el contenido fraudulento en línea.