"Deepfake de Sobyanin": hackers clonaron a jefes regionales para engañar a clientes bancarios

Los ciberdelincuentes han adoptado tecnologías de inteligencia artificial (IA). Comenzaron a utilizar masivamente las imágenes de funcionarios y empresarios famosos para atraer dinero a los rusos. Lea sobre cómo funciona en el artículo de NI.
Un nuevo tipo de fraude se está extendiendo rápidamente en línea a través de deepfakes: imágenes de personas famosas que cobran vida gracias a tecnología de inteligencia artificial.
Ya se han descrito casos en los que se persuadió a los rusos a “transferir dinero a una cuenta segura” o invertir sus ahorros en un “negocio súper rentable” mediante imágenes electrónicas con la apariencia y la voz de jefes de regiones rusas, artistas famosos y empresarios exitosos.
“Durante la última semana, apareció en las redes sociales una nueva ola de vídeos falsos en los que aparecen jefes de regiones rusas. Los estafadores crearon canales falsos en Telegram de los gobernadores de Vologda, Smolensk, Samara y otras regiones, donde difundieron desinformación”, informó la UBK del Ministerio del Interior de Rusia (policía cibernética del Ministerio del Interior de la Federación Rusa).
El Ministerio de Desarrollo Digital aclaró que el primer deepfake con el alcalde de Moscú , Sergei Sobyanin, apareció en Internet hace un año y medio.
El fundador del Instituto de Tecnologías Financieras y de Inversión, Alexey Primak, recuerda que antes, para lograr sus nefastos objetivos, los estafadores “sólo” enviaban un mensaje de texto o un correo electrónico de una persona “cercana” que estaba en problemas y necesitaba dinero. Sin embargo, ahora sus capacidades técnicas han aumentado significativamente.
“Ahora los estafadores hacen audio, sintetizan voz y crean mensajes de vídeo”, advierte el experto.
El arsenal de tecnologías de inteligencia artificial disponibles para los estafadores se está expandiendo rápidamente. Foto: Imagen de Midjourney
Hoy en día, la “clonación” digital de imágenes de otras personas mediante tecnologías de inteligencia artificial se ha generalizado. La policía cibernética aclaró que la difusión de información supuestamente procedente de funcionarios puede perseguir diversos objetivos, que van desde el phishing hasta la influencia psicológica dirigida a desestabilizar la situación.
El jefe del Departamento de Personología y Análisis del Comportamiento de la Academia de Tecnologías Sociales, psiquiatra, psicólogo y experto en detección de mentiras, Alexey Filatov, dijo a NI que anteriormente, el país ya había registrado incidentes masivos de envío de mensajes de audio falsos por parte de los jefes de empresas municipales, universidades, escuelas, hospitales y otras organizaciones.
“Las falsificaciones de audio generan un mayor grado de confianza porque son más atractivas y es menos fácil verificar su autenticidad”, explicó el experto.
Señaló que primero, los atacantes recogen muestras de la voz de una persona (por ejemplo, de discursos públicos, entrevistas, grabaciones de audio) y luego, utilizando redes neuronales, sintetizan frases falsas que imitan el timbre, la entonación y la forma de hablar de la persona.
“Los modelos modernos permiten crear dichas muestras en cuestión de minutos y, en combinación con la generación de videos deepfake, los estafadores pueden incluso imitar videollamadas. Hoy en día, en Internet existen al menos una docena de sitios abiertos y programas especializados que permiten a casi cualquier persona con conocimientos informáticos medios hacer esto”, aclaró Alexey Filatov.
Según el jefe del departamento analítico de la compañía de inversiones "Rikom-Trust", Ph.D. norte. Oleg Abelev , los participantes del mercado financiero pueden instalar protección contra deepfakes.
“Hoy en día se trata de un software que permite una mejor identificación de los clientes debido a que proporcionan información adicional para completar una transacción, identificación multifactorial, cuando el sistema de seguridad verifica no solo el código, sino también el propio dispositivo desde el que se realiza la solicitud de datos personales, la dirección IP, ubicación, así como sistemas antifraude que están entrenados en operaciones típicas.
Y si ocurre algo inusual, entonces esta operación se verifica con la base de datos de muestras de actividad fraudulenta y si hay una coincidencia, la operación se bloquea automáticamente hasta que el propietario de la cuenta proporcione la confirmación necesaria”, dijo el experto.
Está seguro de que cuando aparezca un software capaz de reconocer deepfakes, entonces podremos decir que la IA está protegiendo los intereses y los fondos de los clientes de los bancos y otras empresas financieras.
Sin embargo, las tecnologías de protección del usuario aún están por detrás del ritmo de la actividad técnica de los estafadores.
“Las empresas de desarrollo ya están probando algoritmos de detección de falsificaciones analizando microvibraciones en la voz, anomalías en la síntesis de voz y artefactos en la representación visual. Algunos bancos y servicios de mensajería están desarrollando mecanismos de autenticación basados en factores adicionales, incluida una solicitud de pronunciación de palabras aleatorias, análisis de características biométricas y verificación de metadatos de archivos de audio. Sin embargo, todavía no existe una solución masiva y fiable”, advirtió el experto Alexey Filatov .
Según el Ministerio del Interior, en respuesta a las quejas de los usuarios sobre la proliferación de “clones” de funcionarios, la administración del mensajero Telegram ya ha identificado y marcado como poco fiables los canales sospechosos con deepfakes. Algunos de ellos han sido eliminados por completo. Sin embargo, los estafadores que intentan llegar a los bolsillos de los rusos no se quedan de brazos cruzados: están creando cada vez más imágenes falsas que imitan la apariencia y la voz del original con meticulosa precisión.
“Recomendamos que los usuarios confíen únicamente en fuentes confiables. “No estaría mal comprobar la inclusión del canal en la lista de páginas personales de usuarios de redes sociales, el tamaño de audiencia de cada una de las cuales es más de diez mil usuarios”, aconsejó la policía cibernética.
El psicólogo Alexey Filatov agregó que en cualquier situación lo principal es permanecer alerta y mantener la cabeza fría.
“Si de repente recibes una llamada del ‘gobernador’, de un agente de la ley, un mensaje de voz de un gerente o de un ‘empleado del banco’ pidiéndote que hagas algo urgentemente, debes tener cuidado: todo es una estafa”, está convencido el experto.
Los expertos aconsejan no entrar en pánico cuando se trata de estafadores. Foto: Imagen de Midjourney
Para evitar ser víctima de delincuentes, el especialista recomienda volver a jugar a lo seguro.
“Utilice canales de verificación adicionales: vuelva a llamar a los contactos oficiales, haga preguntas cuyas respuestas el falso pueda no saber. “No hay que confiar ciegamente en las videollamadas, sobre todo si la calidad de la imagen es extraña y las expresiones faciales parecen artificiales”, aconsejó Alexey Filatov .
El experto Alexey Primak recomienda mantener el control en cualquier situación y no permitir que el pánico rompa nuestras defensas.
“Hablemos por separado del fraude en las inversiones. Gracias a los deepfakes, en Internet aparecen vídeos de personajes famosos, por ejemplo, Pavel Durov , Oleg Tinkov* y otras personalidades famosas. Y si de repente una persona famosa anuncia, digamos, una nueva terminal de comercio de criptomonedas, la gente crédula pierde la vigilancia. El objetivo de todo esto es engañar a los inversores.
Recuerde: un anuncio de una persona famosa, especialmente si el tema del anuncio no tiene relación alguna con él y no es su negocio, no es motivo para invertir. "Si el resultado de la inversión parece demasiado dulce y tentador y la rentabilidad es demasiado buena para ser verdad, normalmente se trata de una estafa", advierte Alexey Primak.
La voz de la actriz rusa Alena Andronova, grabada para una aplicación bancaria, fue robada por los creadores de sitios pornográficos. Foto: Campeonato
Cabe señalar que en Occidente, la tecnología de uso de deepfakes está muy extendida desde hace mucho tiempo y es completamente legal. Inicialmente, se creó, entre otras cosas, como un medio para proteger la salud y la vida de los actores de cine al realizar acrobacias complejas. Sin embargo, la práctica de utilizar deepfakes se extendió tanto que los clones digitales comenzaron a desplazar a personas vivas, lo que provocó huelgas por parte de los actores.
Rusia también tuvo su cuota de escándalos artísticos.
La actriz dijo que presentó una demanda para proteger su honor y dignidad contra Tinkoff Bank. Acusó a la entidad crediticia de robar muestras de su voz, que, contra la voluntad de la actriz, “migraron” de los servicios de audio del banco a locuciones para anuncios de sitios pornográficos .
Andronova exigió al banco ante el tribunal 6 millones de rublos. También anunció su intención de unirse con los actores de voz y la Unión de Locutores Rusos para buscar la protección legislativa de las voces. Andronova afirmó que es necesario proteger la voz de un ciudadano en igualdad de condiciones que su imagen y prohibir a terceros utilizar una grabación de voz para sintetizar el habla, a menos que esté claramente indicado entre los fines de la grabación.
*Agregado al registro de agentes extranjeros por el Ministerio de Justicia de Rusia.
newizv.ru