ポルノ映像にK-POPアイドルの顔を合成して販売 10代が逮捕


韓国で芸能人を利用した「ディープフェイク」映像を制作して流布した10代と20代がつかまった。

25日、釜山警察庁によると芸能人の顔を利用したディープフェイク映像を販売した4つの事件を摘発、1万4000件を販売した10代の容疑者2人を逮捕した。また、歌手3人の顔を合成して5件を販売した20代1人など4人を書類送検した。

10代の2人はK-POP歌手150人の顔を人工知能技術などを活用して身体と合成する「ディープフェイク」を利用して写真3039枚と性搾取もの映像1万1373本を作った疑いを受けている。

彼らは90回にわたって150万ウォンを受けとって販売した疑いも受けている。捜査網を避けるための販売方式も緻密だった。SNSを介して宣伝し、その映像が保存されている場所のユーザ名とパスワードを購入者に知らせる方法を利用した。

10代たちは警察の取り調べで「小遣いを稼ぐために始めた」と供述したことが分かった。

過去1~2月にも10代1人と20代1人、販売サーバを賃貸した2人の合計4人が「ディープフェイク」と関連して逮捕された。

「ディープフェイク」は芸能人などの顔を既存の映像に合成して、偽の映像を作り出す技術だ。特にアダルト映像などに特定の芸能人の顔を合成したディープフェイク映像が流布して被害が発生することが多い。

先月、韓国の青瓦台(大統領府)国民請願掲示板には「女性芸能人を苦しめる違法な映像「ディープフェイク」を強く処罰してください」という請願文が書き込まれて関心を集めた。

ディープフェイク写真に利用された女性アイドルグループが所属する企画会社の関係者は「テレグラムでディープフェイク映像が流布されているという事実を初めて知った」としながらも「知ったとしても事実上、何もできない状態だ」と訴えた。
  • 毎日経済 スタートゥデイ チン・ヒャンヒ記者
  • 入力 2021-02-25 11:51:45