AIでアイコラ偽AV動画を作成して逮捕 芸能人200人が被害に

AIでアイコラ偽AV動画を作成して逮捕 芸能人200人が被害に

写真はイメージ(C)日刊ゲンダイ

被害に遭った芸能人は200人に上り、3500本以上のアダルトビデオ(AV)動画が見つかった。

 人工知能(AI)を使ってAV出演女優の顔をアイドルや女優の顔にすげ替えて動画を作成。インターネットサイトに配信したとして、熊本市の大学2年、林田拓海(21)と兵庫県三田市のシステムエンジニア、大槻隆信(47)両容疑者が2日までに、名誉毀損と著作権法違反の疑いで警視庁保安課に逮捕された。芸能人の名誉を傷つけ、AV制作会社の著作権を侵害したとされる。

■有名な「ディープフェイク」

 精巧な偽動画「ディープフェイク」はAI関連の先端技術「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた合成語で、AV関連の摘発は全国で初めてのこと。サイバーパトロールで発覚した。

 林田容疑者は昨年末から今年7月にかけ、約40人の偽動画250本以上を作成し、有料サイトで公開。月額300円の会費を徴収し、8カ月で約80万円を容疑得た。会員は1万人を超えている。一方、大槻容疑者は今年3〜7月、約80人の偽動画を1000本以上作成していた。調べに対し、「お金は儲けていない。第三者からの評価を得るためにやった」と供述している。2人は直接の知り合いではなく、メールで技術的な相談を交わしていた。共にネット上では「ディープフェイク職人」と呼ばれるほど有名人だった。

 林田容疑者が運営するサイトには、卑猥なタイトルの動画がずらりとラインアップされていた。主に大人数のアイドルグループが中心だったが、ドラマや映画に出演している有名女優が実名でさらされているケースもあった。

「ディープフェイクは精巧なものから粗雑なものまであり、大槻容疑者は約3万枚の顔画像を集め、AIに100万回学習させて、ようやく10分の動画を作成していた。その作業に1週間かかったそうです。フェイク動画を作る無料アプリがあり、それを使って作成していた。動作環境もゲームソフトを作動できる程度のパソコンの機能があれば、簡単に作れるそうです」(捜査事情通)

 よっぽど暇で、アイドル好きオタクなのだろう。2人は「作品」を公開したため逮捕されたが、一人でこっそり自作を楽しんでいるマニアも結構いるかもしれない。


関連記事(外部サイト)