時代はAI人工知能を利用した犯罪まさに新しい犯罪に突入している。

下記の内容です

人工知能(AI)を

使ってポルノ動画の出演者の顔を女性芸能人の顔にすり替えた「ディープフェイクポルノ」をインターネット上で公開したとして、警視庁と千葉県警は2日、熊本市中央区黒髪5、大学生、林田拓海(21)と、兵庫県三田市三輪1、システムエンジニア、大槻隆信(47)の両容疑者を名誉毀損(きそん)と著作権法違反容疑で逮捕したと発表した。同庁によると、ディープフェイクポルノを巡る摘発は全国で初めて

 

人工知能(AI)

精巧な偽動画を作る技術「ディープフェイク」による犯罪が顕在化してきた。芸能人の顔を合成したポルノ動画をインターネットに投稿した男らを警察が初摘発した。被害は氷山の一角とみられ、海外では政治家や企業も被害に遭った。見破る技術の開発も進むが、いたちごっこが続いている。

警視庁や京都府警などは

2日までに、ディープフェイクを使ってアダルトビデオを合成したとされる男3人を名誉毀損と著作権法違反の疑いで逮捕した。被害に遭った女性芸能人は延べ約150人に上り、500本を超える動画が違法に公開された疑いがある。

うち1人の男は

動画1本あたり3万枚の画像をAIに読み込ませ、機械学習を1週間繰り返して作成していたという。警視庁は国内で3500本超の合成動画を確認した。捜査幹部は「合成ポルノは被害者の尊厳を傷つける重大な犯罪。被害は広がっており、取り締まりを強める」と話す。

ディープフェイクは

特定の人物の写真など膨大なデータをAIに読み込ませ本物のような動画を作る技術だ。AIに詳しいデータグリッド(京都市)の岡田侑貴社長によると、制作過程では動画を生成するAIと、本物か偽物かを見破る別のAIが競いながら学習し精度を高める。「技術や知識は必要だが、専用のソフトウエアも流通しており作り手のハードルは下がっている」と話す。

 

動画サイトやSNSには

大量の動画や画像が投稿されており、AIに読み込ませる「素材」を集めやすい。オランダのセキュリティー企業によると、6月にネット上で確認されたディープフェイクは約4万9000件。大半がポルノ動画だが、悪用の幅は広がりつつある。

2019年に英エネルギー関連会社の最高経営責任者(CEO)が、ドイツの親会社の幹部を装う相手に電話で送金を指示され、約2600万円をだましとられる事件があった。ディープフェイクは動画だけでなく音声の生成も可能で、幹部の声は音声データをAIが学習し、再現したとみられる。

政治家の動画を合成し虚偽の情報を流すケースも相次ぐ。マレーシアでは19年、閣僚が同国で禁止される同性との性行為動画を偽造、拡散された。11月に大統領選を控える米国では偽情報への懸念が強まっており、カリフォルニア州は候補者の言動などを改ざんした動画の配布を禁じた。

米マイクロソフトは9月

動画の偽造をAIで見破り自動検知するソフトを発表した。米フェイスブックは偽の投稿動画を独自の基準で削除するなど各IT企業もディープフェイク対策を急ぐ。

米マカフィー日本法人の桜井秀光セールスエンジニアリング本部長は「ディープフェイクはなりすましによる詐欺や本人認証の突破といった様々な犯罪のツールになる恐れがある。今後も精度が高まっていくのは間違いなく、偽物を見破る技術の向上が求められている」と警鐘を鳴らす。

 

まとめ

アイドル等の顔をすり替えAVにするなどを起こした事件。AIを悪用が誰にでも出来る時代がそこまで来ている。AIを誰もが簡単に使えるなら、大学など行かなくても、学ばなくても、ギャンブル、株、fx更には宝くじなども簡単に操作して行く事や、更には戦争も、引き起こしす事も出来る世の中になりそうですね。と言うか人間が、いらない世界がまさにターミネーターの世界にならないで欲しい〜ですね。

 

 

 

アバター

By spec-iu