日本人アイドルも被害に「ディープフェイク」96%はポルノ動画、政治的な悪用も(BuzzFeed Japan)

他人の顔写真をポルノ動画に重ねたり、表情を勝手に変えたりするAIによる動画の加工「ディープフェイク」が世界中で問題視されている。ディープフェイクは、AIによる深層学習「ディープラーニング」と「フェイク」(偽物)を掛け合わせた造語だ。有名女優から、政治家までが被害に遭っているという。いったい、何が起きているのか。【BuzzFeed Japan/籏智 広太】

お手軽な「ディープフェイク」

NPO法人「ファクトチェック・イニシアティブ」(FIJ)が12月5日、インターネット上のフェイクをめぐるセミナーを東京都内で開いた。

セミナーでは世界中で問題視されている「ディープフェイク」がひとつのテーマとして取り上げられ、桜美林大学教授の平和博さんがその現状を語った。

平さんによると、そもそも「ディープフェイク」はハンドルネーム「deepfakesが、2017年の秋口にAIを使った動画を掲示板「reddit」にアップしていたことが発端とされている。

エマ・ワトソンや、メイジー・ウィリアムズなどの有名女優の顔だけを、既存のポルノ動画に貼り付けたものを作成。共有していた。

さらに2018年に入ると別のユーザーが「FakeApp」というツールを「reddit」で公開。こうしたツールを用いたフェイク動画がポルノ動画サイトを通じ、一気に拡散したという。

日本人女優やアイドルも被害に

その後、オープンソースのサービスを経由し、「ディープフェイク」のツール自体もはネット上に広がったという。

オンライン上の有料サービスも出現。1時間あたり2ドルほどの利用料で、「顔を丸ごと交換するのに4時間」で済むようなサイトも存在する。「お手軽に顔交換ができるようになっている」(平さん)のが現状だ。

実際、日本人女優やアイドルが被害に遭っているケースもポルノ動画のサイトでは散見される。BuzzFeed Newsが確認しただけでも10個以上は存在し、多いものでは300万回以上再生されているものもある。

サイバーセキュリティ会社「DeepTrace」の調査(2019年10月)によると、過去7か月で1万4678のディープフェイク動画が確認された。1年で倍増しているといい、その96%がポルノ動画だった。

ディープフェイクに特化した上位4つのポルノサイトでは、数百人の女性有名人のフェイク動画が、計1億3400万回以上も再生されているという。

平さんは「一部では一般人へのリベンジポルノの手法としても使われている。ディープフェイクは、女性に対する人権侵害の問題になっている」と語る。


【関連記事】


Source : 国内 – Yahoo!ニュース

Japonologie:
Leave a Comment