AIの悪用の中に、偽画像・映像を簡単に作るという犯罪がある。「ディープフェイク」と呼ばれるもので、特に性的偽映像を実在の人物の画像をもとに作成し頒布するのが目立つ。なぜか、韓国でこの種の犯罪が横行している。プラットフォームとなっているのは、今話題の<Telegram>が多い(*1)ようだ。 ディープフェイクわいせつ動画、被害者の53%が韓国人で世界最多…日本は 米企業調査(朝鮮日報日本語版) - Yahoo!ニュース によれば、被害は韓国人が53%でトップ、2位の米国人20%より倍も多い。3位の日本人は10%だった。個人別被害件数上位10名のうち、8人が韓国タレント・歌手である。韓国内の調査で…