ディープ フェイク 画像。 ディープフェイクとは?偽動画の例や仕組み・作り方・危険性などをまとめて紹介

AIで架空の人物を生成!ディープフェイクとは?

ディープ フェイク 画像

参考動画:BuzzFeedVideo|有名なディープフェイク動画の例。 この偽動画を作成したのはコメディアンのJordan Peele氏(画面右に登場)とのこと。 フェイク動画の将来の危険性について警告しています。 ディープフェイクとは? によれば、 「ディープフェイク(deep fake)」とは、人工知能の重要技術である「ディープラーニング(deep learning)」と英語で捏造・にせものを意味する「フェイク(fake)」から作られた造語、とのことです。 人工知能によって、本人が実際には話していないことを話させたり、人物の顔を巧妙に入れ替えたりして、本物と見分けがつかないような偽動画などを作ることができる技術のようです。 一人の男が、盗んだデータで何億人ものあらゆる秘密、生活、将来を完全に支配している様子を。 )などと発言しているフェイク動画です。 しゃべるモナリザ?たった1枚の画像からディープフェイク動画を作成 参考動画|tech 4tress:ディープフェイク動画を作成できるフリーソフトツールとして有名な「FakeApp」のダウンロード・インストール方法や使い方などが解説されています。 — VICE VICE 他にも、スマホなどで簡単にフェイク動画や画像を作れるアプリがどんどん出てくるのも、もはや時間の問題といえそうです。 有名人だけでなく、どんな人でも被害者になりうるため、非常に怖い脅威となりつつあります。 このように偽動画などを簡単に作れるようになることで、有名な政治家のフェイク動画が選挙結果に影響を及ぼしたり、捏造動画が新たないじめの手段に使われたりと、様々な可能性が懸念されています。 ディープフェイクを見破る方法や対策など 参考動画|東京新聞:フェイク動画を見破る人工知能AIについての報道。 ディープフェイクのアルゴリズムによる巧妙な偽動画は、すでに人間の目では本物と見分けることは難しくなりつつあるため、AIによってディープフェイクを見破る技術の研究が進んでいるようです。 ただ、偽造技術の方も日々進歩しているため、結局いたちごっこになってしまうのでは?と個人的には危惧しています。 他にも、たとえば透かしを入れる方法などが検討されているようですね。 法律の整備などもこれから急速に進んでいくでしょう。 どんな情報も鵜呑みにせず、各自が総合的に判断していく能力が今まで以上に求められることになりそうですね。 ダーウィン・ジャーナルにご訪問いただきありがとうございます!管理人のチャールズです。 当サイトでは生物学や心理学・テクノロジー分野のクリエイティブ・コモンズの論文を中心に、管理人が個人的に興味を持った世界の最新の研究成果や面白い科学ニュース雑学などを、できるだけわかりやすくまとめて紹介しています。 各分野の専門家ではない管理人が個人で運営しておりますため、恐縮ですが、誤りなどを含んでいる可能性がありますことを予めご了承下さい(参考:)。 記事中には原則としてソースの学術論文をリンク付きで明記していますので、学術・医療分野などにおける正確性・厳密性を求められる方はそちらを直接ご覧下さいますようお願い致します。 もし誤りについてのご指摘やご意見・ご感想などありましたら、コメント欄に記入あるいはからお気軽にご連絡頂ければ幸いです。

次の

AIで架空の人物を生成!ディープフェイクとは?

ディープ フェイク 画像

ディープフェイクとは? 皆さんのなかには、ディープフェイクという言葉を初めて聞いた方も多いのではないでしょうか。 ディープフェイクは、AIのディープラーニング(深層学習)とフェイク(偽物)をあわせた造語です。 AI技術を悪用した高品質な合成画像や映像・音声の偽物を表し、素人には判別できないほど精巧であることが特徴です。 AI技術は非常に進化しており、今や本物との違いがわからないほど精巧な偽物を作り出すことができるようになっています。 こうしたディープフェイクによる画像や映像・音声などは、主にインターネット上のコンテンツとして悪用目的で利用されることが多いです。 ディープフェイクで作られた偽物の動画や音声は、ディープフェイクビデオやディープフェイクボイスと表現されることもあり、従来の技術では偽物を作ることが難しかった動画・音声の分野で利用されることが多いのです。 ディープフェイクの問題点・事例 精巧な偽物を作り出すディープフェイクには、次に挙げるような危険性・問題点が存在します。 それぞれの問題点や事例について、一つずつ見ていきましょう。 政治上の印象操作|オバマ元大統領がトランプ大統領を批判した偽の演説動画 ディープフェイクを用いることで、政治家が言ってもいないことをでっち上げることができてしまいます。 たとえば、ディープフェイクの演説動画を使って、政治上の印象操作を行うなどのことが可能です。 後ほど紹介しますが、実際にこのような事例は存在しており、場合によっては国際問題に発展する可能性もあります。 アメリカでは、オバマ元大統領がトランプ大統領に対して「うんざりだ」という旨の発言をしている動画がYouTubeで公開されています。 こちらは、ディープフェイクの驚異を世界に知らしめるために制作されたものですが、非常に精巧であり、本物との違いがほとんどわかりません。 海外の女優エマ・ワトソンさんや、メイジー・ウィリアムズさんのフェイクポルノが有名であるほか、日本人の女優やアイドルも標的とされており、ディープフェイクに特化したポルノサイトも存在しているほどです。 また、被害の対象は著名人だけではなく私たち一般人にも危険性があります。 リベンジポルノとして脅迫などに利用されることも考えられ、女性だけでなく男性にとっても人権侵害・信用失墜の危険性があります。 さらに、顔写真が250枚ほどあればディープフェイクが作成できるサービスが存在しています。 フェイクポルノによる被害は、誰にでも起こり得る可能性があることを覚えておきましょう。 フェイクボイス|CEOになりすまし約2,600万円の詐欺被害 音声合成技術は、従来の機械的な音声合成ではなく、実在する人物が話しているような音声が作れるまでに進化しています。 すでに電話では判別できないほどのレベルに達しており、電話を利用したオレオレ詐欺等の事例が増える危険性があるのです。 イギリスでは、ディープフェイクボイスを利用した詐欺事例が報告されています。 イギリスを拠点とするエネルギー企業のCEOによって、至急22万ユーロ(約2,600万円)を送金するように指示されたところ、実際はディープフェイクボイスだった、という事例です。 大きな企業のCEOともなれば、メディアの露出が増えます。 そのため、ディープフェイクボイスの元となるデータを集めやすいといえるでしょう。 先ほどのディープフェイクの動画を見ればわかるとおり、電話越しの音声だけでは本人と判別がつかなくなっており、注意が必要であることがわかる事例です。 参照元: ディープフェイクに騙されないために 私たちは非常に精巧なディープフェイクに対して、どのような対策を取ればよいでしょうか。 ディープフェイクに騙されないために心得ておくべきことを紹介します。 情報をすべて鵜呑みにしない インターネット上にはさまざまな情報が溢れていますが、すべてが真実とは限りません。 私たちが得る情報は本物なのか、と疑う習慣を身につけるべきでしょう。 特に著名人のポルノ動画などは冷静に考えると「あり得ない」という判断ができるはずです。 ディープフェイクは今まで以上に情報の真偽の見極めが難しいものです。 しかし、まずはこのような嘘の情報があることを知り、情報をすべて鵜呑みにしないことを意識することからはじめましょう。 事実確認、検証をする ディープフェイクは非常に精巧な作りであるとはいえ、完璧なものではありません。 少しでも違和感があるのであれば、まずは情報源を確認しましょう。 たとえば、政府の動画に見せかけたディープフェイクであったとしても、情報源が政府とは関係のないWebサイトであれば偽物だと判断することが可能です。 情報を公開している人物を確認することでも判断可能でしょう。 例えば、前述したザッカーバーグ氏の演説動画には「CBSN」のロゴが入っているため、同社のWEBサイトからこのニュースが本物かどうか、確認をすることができます。 ディープフェイクに関わらず、情報源となる一次情報の確認は、インターネット上から情報収集をする上では非常に大切なことです。 安易に拡散しない SNSが非常に発達しており、多くの人が気軽に情報を発信できる世の中ですが、面白がって安易に情報を拡散しないように気をつけましょう。 嘘の情報を拡散してしまうと、多くの被害者が発生することになります。 情報を拡散する場合は与えられた情報を鵜呑みにせず、事実確認や検証をした上で拡散する習慣を身につけるとよいでしょう。 もし、何も考えずに拡散してしまった場合、拡散した情報が特定の人を傷つけるものであれば、あなたも加害者の一人になってしまうかもしれません。 嘘の情報に騙されない!ディープフェイクに気をつけよう ディープフェイクは、AI技術を悪用した、高品質な合成画像や映像・音声で、偽物です。 ディープフェイクビデオやディープフェイクボイスなどは、非常に精巧な作りであるため、素人目には本物との区別がつきづらいという特徴があります。 ディープフェイクに騙されないように、すべての情報を鵜呑みにせず、情報の事実確認や検証を行う習慣を身につけるとよいでしょう。 また、安易に拡散して被害者を増やすことのないように、情報を拡散する際には注意することを意識してみてください。 このように、私たちの日常生活には皆さんが気づきにくいネットトラブルがたくさん潜んでいます。 被害に遭った、不安があり悩んでいる、といった際はドコモの「」をぜひご活用ください。 にお電話いただければ専門スタッフが悩みをお聞きして、ネットトラブルの解決を全面的にサポートします。 ぜひ一度ご相談ください。 新規事業室 チーフコンサルタント 池田 啓宏 東京大学経済学部卒業後、コンサルティングファーム、ベンチャーキャピタルを経てエルテスへ入社。 経営コンサルティング業務に長年携わっており、経営視点での課題抽出を得意とする。 エルテスでは、ディープフェイク等の新たなテクノロジー・メディア普及の反動として生じるニューリスクに対する研究等を行っている ログアウト.

次の

AIで架空の人物を生成!ディープフェイクとは?

ディープ フェイク 画像

最終更新日: 2019年12月24日 あたかも人が実際に動いたり話したりしている架空の動画をAIで作れるようになっています。 例えば、先日 Facebook社の共同創業者兼会長兼CEOのザッカーバーグ氏が話しているディープフェイク 動画がインスタグラムにアップロードされ話題を呼びました。 そのように、実際に人を使って撮影しなくてもその人を使った動画を気軽に作成できる技術がディープフェイク です。 ディープフェイク が発展すれば、ニュースや映画などあらゆる業界に改革を巻き起こすかもしれません。 そこで、今回はディープフェイク に関してご紹介していこうと思います。 GANは生成モデルの一種で、「ジェネレーター(generator)」と「ディスクリミネーター(discriminator)」の2種類のAIを使って画像などの生成を行います。 ジェネレーターは偽物を作ろうとするAIで、ディスクリミネーターはこれをその偽物を見破るAIです。 その2つのAIが偽物を作っては、見破る過程を繰り返します。 はじめのうちは学習量が足りず、ディスクリミネーターは容易に偽物を見破ります。 しかし、次第にジェネレーターの学習量が増えていくにしたがって偽物が巧妙になり、最後にはディスクリミネーターは偽物を見破るのが困難になります。 このようにして、GANでは生成物の精度を高めていきます。 ディープフェイク はそのようにGANで生成された動画です。 実在の有無に関わらず生成可能 ディープフェイク は実在する人物はもちろん、実在しない人でも生成することができます。 そのため、動画の分野においては非常に活用の幅が広いと言えます。 例えば、広告モデルとして適切な人物をディープフェイク を使って低コストで的確に生成できるようになるかもしれません。 techcrunch. すでにこのキャンペーンは世界で4億インプレッションを超えており大きな反響を読んでいます。 自分の顔を映画スターに!「Zao」.

次の