ディープフェイクポルノ。 ディープフェイク

ディープフェイクとは?注意点や問題点は?閲覧可能なサイトも紹介!

ディープフェイクポルノ

単なる口パクではなく、超リアルに動きます。 今の人工知能技術は、人の声を解析して任意のセリフをたり、可愛いにすげ替え不気味の谷のズンドコに突き落としたりと、思い付くことは何でも簡単に出来てしまう時代になりました。 たとえば教育目的で美術館がさせたり、ネットやアプリ内で動くアバターを生成などという無害で素晴らしいディープ・フェイクもありますが…… 悪意があればを作って誰かに嫌がらせをすることも可能だったりして、 光と闇が強い技術かと思われます。 ディープ・フェイクをお手軽に作れるという研究 この度、モスクワにあるSamsung(サムスン)の AIセンターに勤める科学者たちと、スコルコボ研究所がディープ・フェイクに関する報告書を発表しました。 これはたった数枚の写真(または絵画)に写った顔を、 仮想的に喋らせるというものです。 科学者たちは昨年、機械学習を利用して超絶リアルな誰かの映像を生成するなど、でディープ・フェイクを生み出してきました。 ですがまだ、そうした映像を作るために 重要な前提条件がひとつあります。 それはAIに学習させるべく、フェイク映像を生成したい人物の資料を、リアルにしたければしたいほど 大量に集めないといけない、ということなんです。 学習素材を集める苦労 もちろん、これはもしオープンソースの画像収集ソフトや、モデルにしたい人物がネット上に充分な量の写真や映像を投稿していれば、大量の資料を集めることは不可能ではありません。 しかしそれらはまだお手軽な作業ではありませんし、何より偽ポルノを作るときなどは、被害者になるかもしれない人たちが、どれほど自らが悪用可能なデータをシェアしているか注意深くなるようになりました。 ですがこの新システムは、結構な時間を費やすことが必須だった、資料集めの作業から 開放してくれるのです。 Image: 少ない資料と短時間で生成する 報告書にて、科学者たちはこのシステムが 「限られた時間内」で 「一握りの写真からおしゃべりする頭」を生み出せる、と書いています。 もし誰かがディープ・フェイクを作る場合、モデルになる人の大量の写真(トレーニング用データ・セット)をディープ・ニューラル・ネットワークに入力する必要があります。 ですがこの科学者たちは、彼らのシステムが必要とするのは少しの写真でそんなに時間を要さず、フェイク映像を吐き出せる、というのです。 また研究結果には、「完璧なリアリズム」を作るため 32枚の画像で訓練した、とあります。 これは従来よりとても少ない上、今のネットでは 簡単に集められる枚数ですよね。 モデルにしたい人のFacebookページに行けば、それくらいの枚数を見つけるのは難しくないってことは、簡単に想像できちゃいます。 さらに重要なのは、この技術は急速なスピードで開発が行なわれているってことだったりします。 こちらの映像では、たった 8枚の画像から重点となる顔のパーツを見つけ、かなり自然なフェイク映像が出来上がった様子などが見られます。 Video: 1枚からでも生成は可能ですが、8枚、 32枚と資料が多いほどより良い映像が出来ることも比較してますね。 16枚の自撮り写真からも自分のアバターを生成したり、ダリやアインシュタイン、マリリン・モンローといった実在した人物の写真だけでなく、イワン・クラムスコイの『見知らぬ女』やダ・ヴィンチの『モナ・リザ』といった絵画までもが生き生きと、表情豊かに動いていました。 1枚の静止画ですら、このシステムが命を吹き込めるのは凄いですよね。 これらの例には、簡単にフェイクだと断言するのが難しいものもありました。 Image: 応用が期待できる 報告書ではまた、科学者たちはこの種の技術の先には 「ビデオ会議やマルチプレイヤー用ゲーム、それに特殊効果を扱う業界などでの遠隔配信にて実用的」かもしれない、と記しています。 テック企業がアニメ化したアバターやバーチャル・リアリティーへ移行するように、この技術はより個人的で現実的なヴィジュアルへと向かう、次の段階への 自然な一歩のように感じられます。 それに映像業界でも、たとえ ば亡くなった役者の復元ための大幅な 時間短縮ができるようになるかもしれません。 使い方は良心に委ねられる しかしながら、フェイク映像として 悪用のモデルにされた被害者に与える本当の脅威に目を向けず、ただこの技術を褒め称えるのは無責任かと思われます。 実際にディープ・フェイクが世間に認知され始めた頃、ネット上の女性にとってこの技術がどれほど牙を剥くのかは、といわれていたくらい。 ネットには、こういう技術を悪用しようという輩が必ずいる、という厳しい現実が待っています。 ですが技術者たちは、日々もっと簡単に、もっと効果的に、と向上を目指すものなのです。 何事にも当てはまりますが、使い方はその人の 良心次第ですね。 Source: ,• Tags :•

次の

フェラクレス

ディープフェイクポルノ

単なる口パクではなく、超リアルに動きます。 今の人工知能技術は、人の声を解析して任意のセリフをたり、可愛いにすげ替え不気味の谷のズンドコに突き落としたりと、思い付くことは何でも簡単に出来てしまう時代になりました。 たとえば教育目的で美術館がさせたり、ネットやアプリ内で動くアバターを生成などという無害で素晴らしいディープ・フェイクもありますが…… 悪意があればを作って誰かに嫌がらせをすることも可能だったりして、 光と闇が強い技術かと思われます。 ディープ・フェイクをお手軽に作れるという研究 この度、モスクワにあるSamsung(サムスン)の AIセンターに勤める科学者たちと、スコルコボ研究所がディープ・フェイクに関する報告書を発表しました。 これはたった数枚の写真(または絵画)に写った顔を、 仮想的に喋らせるというものです。 科学者たちは昨年、機械学習を利用して超絶リアルな誰かの映像を生成するなど、でディープ・フェイクを生み出してきました。 ですがまだ、そうした映像を作るために 重要な前提条件がひとつあります。 それはAIに学習させるべく、フェイク映像を生成したい人物の資料を、リアルにしたければしたいほど 大量に集めないといけない、ということなんです。 学習素材を集める苦労 もちろん、これはもしオープンソースの画像収集ソフトや、モデルにしたい人物がネット上に充分な量の写真や映像を投稿していれば、大量の資料を集めることは不可能ではありません。 しかしそれらはまだお手軽な作業ではありませんし、何より偽ポルノを作るときなどは、被害者になるかもしれない人たちが、どれほど自らが悪用可能なデータをシェアしているか注意深くなるようになりました。 ですがこの新システムは、結構な時間を費やすことが必須だった、資料集めの作業から 開放してくれるのです。 Image: 少ない資料と短時間で生成する 報告書にて、科学者たちはこのシステムが 「限られた時間内」で 「一握りの写真からおしゃべりする頭」を生み出せる、と書いています。 もし誰かがディープ・フェイクを作る場合、モデルになる人の大量の写真(トレーニング用データ・セット)をディープ・ニューラル・ネットワークに入力する必要があります。 ですがこの科学者たちは、彼らのシステムが必要とするのは少しの写真でそんなに時間を要さず、フェイク映像を吐き出せる、というのです。 また研究結果には、「完璧なリアリズム」を作るため 32枚の画像で訓練した、とあります。 これは従来よりとても少ない上、今のネットでは 簡単に集められる枚数ですよね。 モデルにしたい人のFacebookページに行けば、それくらいの枚数を見つけるのは難しくないってことは、簡単に想像できちゃいます。 さらに重要なのは、この技術は急速なスピードで開発が行なわれているってことだったりします。 こちらの映像では、たった 8枚の画像から重点となる顔のパーツを見つけ、かなり自然なフェイク映像が出来上がった様子などが見られます。 Video: 1枚からでも生成は可能ですが、8枚、 32枚と資料が多いほどより良い映像が出来ることも比較してますね。 16枚の自撮り写真からも自分のアバターを生成したり、ダリやアインシュタイン、マリリン・モンローといった実在した人物の写真だけでなく、イワン・クラムスコイの『見知らぬ女』やダ・ヴィンチの『モナ・リザ』といった絵画までもが生き生きと、表情豊かに動いていました。 1枚の静止画ですら、このシステムが命を吹き込めるのは凄いですよね。 これらの例には、簡単にフェイクだと断言するのが難しいものもありました。 Image: 応用が期待できる 報告書ではまた、科学者たちはこの種の技術の先には 「ビデオ会議やマルチプレイヤー用ゲーム、それに特殊効果を扱う業界などでの遠隔配信にて実用的」かもしれない、と記しています。 テック企業がアニメ化したアバターやバーチャル・リアリティーへ移行するように、この技術はより個人的で現実的なヴィジュアルへと向かう、次の段階への 自然な一歩のように感じられます。 それに映像業界でも、たとえ ば亡くなった役者の復元ための大幅な 時間短縮ができるようになるかもしれません。 使い方は良心に委ねられる しかしながら、フェイク映像として 悪用のモデルにされた被害者に与える本当の脅威に目を向けず、ただこの技術を褒め称えるのは無責任かと思われます。 実際にディープ・フェイクが世間に認知され始めた頃、ネット上の女性にとってこの技術がどれほど牙を剥くのかは、といわれていたくらい。 ネットには、こういう技術を悪用しようという輩が必ずいる、という厳しい現実が待っています。 ですが技術者たちは、日々もっと簡単に、もっと効果的に、と向上を目指すものなのです。 何事にも当てはまりますが、使い方はその人の 良心次第ですね。 Source: ,• Tags :•

次の

Kanna Hashimoto Deepfakes Sex 橋本 環奈 ディープフェイク ポルノ

ディープフェイクポルノ

参考動画:BuzzFeedVideo|有名なディープフェイク動画の例。 この偽動画を作成したのはコメディアンのJordan Peele氏(画面右に登場)とのこと。 フェイク動画の将来の危険性について警告しています。 ディープフェイクとは? によれば、 「ディープフェイク(deep fake)」とは、人工知能の重要技術である「ディープラーニング(deep learning)」と英語で捏造・にせものを意味する「フェイク(fake)」から作られた造語、とのことです。 人工知能によって、本人が実際には話していないことを話させたり、人物の顔を巧妙に入れ替えたりして、本物と見分けがつかないような偽動画などを作ることができる技術のようです。 一人の男が、盗んだデータで何億人ものあらゆる秘密、生活、将来を完全に支配している様子を。 )などと発言しているフェイク動画です。 しゃべるモナリザ?たった1枚の画像からディープフェイク動画を作成 参考動画|tech 4tress:ディープフェイク動画を作成できるフリーソフトツールとして有名な「FakeApp」のダウンロード・インストール方法や使い方などが解説されています。 — VICE VICE 他にも、スマホなどで簡単にフェイク動画や画像を作れるアプリがどんどん出てくるのも、もはや時間の問題といえそうです。 有名人だけでなく、どんな人でも被害者になりうるため、非常に怖い脅威となりつつあります。 このように偽動画などを簡単に作れるようになることで、有名な政治家のフェイク動画が選挙結果に影響を及ぼしたり、捏造動画が新たないじめの手段に使われたりと、様々な可能性が懸念されています。 ディープフェイクを見破る方法や対策など 参考動画|東京新聞:フェイク動画を見破る人工知能AIについての報道。 ディープフェイクのアルゴリズムによる巧妙な偽動画は、すでに人間の目では本物と見分けることは難しくなりつつあるため、AIによってディープフェイクを見破る技術の研究が進んでいるようです。 ただ、偽造技術の方も日々進歩しているため、結局いたちごっこになってしまうのでは?と個人的には危惧しています。 他にも、たとえば透かしを入れる方法などが検討されているようですね。 法律の整備などもこれから急速に進んでいくでしょう。 どんな情報も鵜呑みにせず、各自が総合的に判断していく能力が今まで以上に求められることになりそうですね。 ダーウィン・ジャーナルにご訪問いただきありがとうございます!管理人のチャールズです。 当サイトでは生物学や心理学・テクノロジー分野のクリエイティブ・コモンズの論文を中心に、管理人が個人的に興味を持った世界の最新の研究成果や面白い科学ニュース雑学などを、できるだけわかりやすくまとめて紹介しています。 各分野の専門家ではない管理人が個人で運営しておりますため、恐縮ですが、誤りなどを含んでいる可能性がありますことを予めご了承下さい(参考:)。 記事中には原則としてソースの学術論文をリンク付きで明記していますので、学術・医療分野などにおける正確性・厳密性を求められる方はそちらを直接ご覧下さいますようお願い致します。 もし誤りについてのご指摘やご意見・ご感想などありましたら、コメント欄に記入あるいはからお気軽にご連絡頂ければ幸いです。

次の