Un homme a été arrêté pour avoir créé et partagé du faux contenu pornographique créé en utilisant les visages d’idols de K-POP mineures.
Récemment, le Bureau du Procureur de Jeju a annoncé avoir arrêté ‘A’, un homme dans la trentaine accusé d’avoir créé et partagé des « deepfakes » d’idols de K-POP âgées de moins de 18 ans.
Les vidéos « deepfakes » sont des vidéos dans lesquelles une IA est utilisée pour mettre un visage à la place d’un autre sur une vidéo. Malheureusement, cette pratique a vu débarquer sur le net de nombreuses vidéos nauséabondes, avec notamment des visages de célébrités utilisés sur des vidéos à caractère pornographique.
De Août 2019 à Juin 2023, ‘A’ a créé plus de 2300 vidéos pornographiques en utilisant la technologie deepfake, mettant les visages d’idols de K-POP mineures dans des contenus pornographiques.
Il n’a pas vendu le matériel fabriqué, mais l’a distribué via des chat rooms exclusives privées sur Telegram et d’autres plateformes similaires. Il a été confirmé que plus de 50 célébrités faisaient partie des victimes.
‘A’ est un coréen qui étudiait aux États-Unis au moment où il a été appréhendé.
La police coréenne a découvert ces chat rooms sur Telegram en Décembre 2022, ainsi que le fait que le coupable vivait actuellement aux États-Unis. Les autorités ont réussi à obtenir un mandat d’arrêt pour faire invalider son passeport, et il a été arrêté aux États-Unis suite à une notice rouge d’Interpol à la demande de la police coréenne en Juin 2023.
‘A’ avait demandé à pouvoir être libéré sous caution, ce qui lui a été refusé, et il a été renvoyé en Corée du Sud le 22 Août dernier. Il attend désormais d’être jugé.
Source : gangnamtimes