COLUMNコラム

ディープフェイクとはどんなもの?有用性や作り方などを解説!

公開日: 2023年9月21日  

ディープフェイクやフェイク動画は世界各国で話題となっており、ウクライナ侵攻でも用いられたこともあって、多くの人から注目を集めています。この記事では、ディープフェイクやフェイク動画の危険性や有用性、作り方などを解説しています。気になる方はぜひ最後まで読んでみてください。

ディープフェイクの基本情報

ディープフェイクとは、ディープラーニング技術を使って人工的に作り出された合成映像や音声、文章などのメディアコンテンツのことです。ディープフェイク技術は、機械学習や人工知能の進歩によって生まれたものであり、政治や外交へも影響を及ぼしています。

具体的には、人物の顔や動きを合成して、まるでその人が実際に映像に出演しているかのように見せるといったことです。また、声のトーンや言葉遣いを学習させることで、本来の話者とは別の人物が話しているように聞こえる音声も作り出せます。

一般的には、ディープフェイク技術で制作した動画は「フェイク動画」と呼ばれ、ディープフェイク=フェイク動画と思われています。しかし、フェイク動画というと悪意ある使い方をされるイメージがありますが、本来のディープフェイク動画にはさまざまな効果や有用性があるため、全てを同じように判断しないようにすることが大切です。

※「フェイク動画」という表記は、悪意ある目的で作られたものというイメージがあるため、健全な目的で作られた正しい技術のものを本記事では「ディープフェイク動画」という表記を用います。

ディープフェイクの有用性

ディープフェイク技術の利点を知ると、さっそく使ってみようと思えるかもしれません。また、利点を知るとディープフェイクがどのようなものなのか、さらに理解しやすくなります。

1. CG制作の負担を減らせる

ディープフェイク技術は、ハリウッド映画のようなエンターテインメント業界でよく用いられています。特にCG制作では、人間以外の生き物が登場することもあり、その際にディープフェイク技術を用いることで、これまでよりも制作時の負担を減らすことが可能になります。

これまでは、特殊なキャラクターを演じる際に特殊メイクをする必要がありましたが、メイクだけだとどうしても限界がありました。しかしディープフェイクを用いればその壁を突破し、キャラクター画像を学習させることで違和感なく映像を置き換えることができるようになり、さらに幅広いキャラクターを演じられるようになります。

2. 再撮影の手間を減らせる

動画制作に関連した利点として、再撮影の手間を減らせることも挙げられます。もしもセリフを変更しなければならなくなった際に、これまでだともう一度撮影する必要が生じてしまいました。

しかし、ディープフェイク技術を用いることで、再撮影を行わなくても映画を完成させることも可能になります。AIに大量のデータを読み込ませて学習しているため、似た映像と合成・加工を繰り返して新しい映像を作ることができます。さまざまな理由で再撮影する必要があっても、これまでよりも手間をかけずに編集することが可能になります。

3. 報道キャスターの仕事を代わりにやれる

ディープフェイク技術を使うと、実在しないキャラクターやバーチャルアイドルを作り出すことができるため、アナウンサーやタレントによる報道キャスターの仕事を代わりにやってくれます。

実際にAIアナウンサーを採用しているケースもあり、新華社通信やテレビ朝日では、AIアナウンサーを本格的に起用してニュース放送を行い、話題になりました。

ディープフェイクには多くの危険性がある

ディープフェイク技術にはさまざまな有用性がある反面、危険性もはらんでいるため、そのことも踏まえてディープフェイクの理解を深めましょう。

1. なりすまし動画を作られてしまう

なりすまし動画は「フェイク動画」とも呼ばれており、政治的な動画や偽のニュース映像を作り出して世論を操作できるため、社会的な問題として注目を集めています。

なりすまし動画の悪用は、実際に起きていることです。すでに見たことがある方もいるかも知れませんが、次のケースが挙げられます。

事例1)ウクライナ侵攻

2022年3月16日、ウクライナ侵攻においてロシアへの降伏を発表するゼレンスキー大統領の動画が、FacebookとYouTubeへ投稿されました。投稿者は不明ですが、ディープフェイク技術が用いられたフェイク動画であり、投稿後にゼレンスキー大統領自身がこれを否定し、FacebookとYouTubeからも動画が削除されました。

すぐに削除されたフェイク動画ですが、武力紛争において初めて戦術として利用されたディープフェイク技術であるとも指摘されているのです。そのことを考えると、今後新たな戦術としてさまざまな国でフェイク動画が用いられるかもしれません。

事例2)オバマ元大統領

なりすまし動画の事例として、オバマ元大統領のケースは、あらかじめディープフェイク技術が用いられていることを公表した上で公開された動画ですが、そのことを知らずに見ると本物に思えるかもしれません。

オバマ元大統領のフェイク動画は、ジョーダン・ピールという俳優がオバマ元大統領の声を真似し、動画の唇の動きを俳優の言葉と組み合わせて作られました。非常にクオリティが高いものであり、違和感なくオバマ元大統領がスピーチしているように見えます。

2. フェイクポルノを作られてしまう

ディープフェイク技術を用いた悪用事例で最も多いのが、ポルノ動画に出演している人の顔を別の人の顔に差し替えるフェイクポルノです。

合成メディアの検知や監視を行う企業であるセンシティ社の報告書によると、ネットに投稿された14,000点以上のディープフェイク動画を対象にしたサンプル調査の中で、96%が同意を得ていないものでした。また同じ報告書には、6ヶ月ごとにネット上のフェイク動画の数が2倍ほど増えていると指摘されています。

日本でもフェイクポルノに関する事件が起きており、2020年10月にはアダルトビデオ出演者の顔を女性芸能人の顔に差し替えたとされる2名が、名誉毀損と著作権法違反の疑いで逮捕されました。

3. ビジネスメール詐欺が増える恐れがある

ディープフェイク技術は、ビジネスメール詐欺にも用いられるリスクがあるとも指摘されています。ビジネスメール詐欺とは、上司や取引先を装った偽メールでお金をだまし取る詐欺のことであり、自動化されたサービスが登場するかもしれないと指摘する声もあるほどです。

現在のビジネスメール詐欺では、ディープフェイク音声を取り入れたケースが横行していますが、今後はフェイク動画が用いられるようになるかもしれません。そのため、ビジネスメールのやり取りにおいて、さらに情報セキュリティの意識が重要になるでしょう。

ディープフェイクを用いた動画の作り方

ディープフェイク動画の作り方の仕組みを簡単にまとめると、

  1. 元の動画内の置き換えたい顔画像を検出する

  2. 検出した顔画像の特徴をAIに学習させてトレーニングする

  3. 1コマずつ別の顔画像に置き換えて変換処理を行う

  4. 生成と識別を繰り返して高品質な画像を作り、元の動画に重ねる

AIの一種といわれるGAN (Generative Adversarial Network:敵対的生成ネットワーク)というディープラーニング技術を利用して変換処理を繰り返します。

現在では、XpressionやRefaceのようなディープフェイク動画を作れるアプリやサービスがいくつも登場しています。そのため今では、スマートフォンで誰でも簡単にディープフェイク動画を制作することが可能になりました。

「フェイク動画」という表記は、悪意ある目的で作られたものというイメージがあるため、健全な目的で作られた正しい技術のものを本記事では「ディープフェイク動画」という表記を用います。

ディープフェイクは今後どうなる?

ディープフェイクは多くの危険性を持つ技術ですが、だからといって将来的に使われなくなってしまうことはありません。ディープフェイク技術の未来には、次のようなことが考えられます。

エンターテインメント業界でさらに活用される

すでにディープフェイク技術が用いられているエンターテインメント業界では、さらに活用されていくでしょう。例えばP&G社のスキンケアブランド「SK-Ⅱ」のCMでは、バーチャルヒューマンと女優が共演した映像を作って公開しています。

またディズニーでは、オリジナル実写ドラマであるマンダロリアンシリーズで、ディープフェイク技術の利用が検討されました。大手のエンターテインメント会社からも注目を集めているため、さらに今後は活用されやすくなるでしょう。

悪用を防ぐためのさまざま開発が行われる

ディープフェイク技術には、なりすまし動画やフェイクポルノなどの悪用事例が数多くありますが、そのことを防ぐためにさまざまな技術の開発や取り組みが行われています。

その1つが、DeepFake Detection Challengeです。ディープフェイク動画の検知技術を競うコンテストであり、最終的に2,000チームを超える団体から応募が来ました。

もう1つとして、Microsoft Video Authenticatorが挙げられます。マイクロソフト社がディープフェイクを検知するためのツールとして開発したもので、リアルタイムでフェイク動画の確率や信頼度スコアなどを教えてくれる仕組みです。

役者による対応が明確なものになる

現在、ディープフェイク技術に対して役者が何らかの対応を取るケースがいくつか見られます。例えば、ダイ・ハードシリーズで有名なブルース・ウィリスは、ディープフェイクを使って自身のデジタルツインを映画や広告に出演させる権利を売却しました。

一方、ジョン・ウィックシリーズで有名なキアヌ・リーブスは、編集で涙を追加する等のディープフェイク技術を契約で禁止しています。このようなケースが今後増えていくかもしれません。

法律やルールの整備が行われる

倫理的観点や社会受容性の観点の問題から、国内外でディープフェイク技術に対する法律やルールの整備が行われています。

例えばアメリカやヨーロッパでは、AIを導入した結果、社会的な非難を浴びたり、既存の法律に違反したりと、倫理や法律の観点からさまざまな問題提起がされています。
そのため、AIの法制化やAI政策の整備、倫理のルール化が進められています。これらは日本にも影響を及ぼすことになるでしょう。

他言語への翻訳がしやすくなる

ディープフェイク技術は、映画の翻訳で用いられる可能性があります。イギリスのFlawlessという企業はディープフェイク技術を用いて、映画の俳優が翻訳された言語で話しているかのように演出できるソフトウェアを開発しました。これまでの吹き替え翻訳よりも手間を減らせる上に、自然な形で表現できるため、今後増えるかもしれません。

DXと連携し始める

ディープフェイク技術は、DXと連携する可能性もあります。そもそもDXとはデジタルトランスフォーメーションの略で、デジタルテクノロジーを活用して効率化や生産性、ビジネスプロセスを見直すことです。

ディープフェイク技術はすでに現代社会で用いられている技術であり、DX推進にも役立ちます。例えば、デジタルツインを応用した作業プロセスを見直すための動画を作るといったことが挙げられるでしょう。

まとめ

今回は、ディープフェイク技術の基本情報や有用性、危険性などを紹介しました。ディープフェイクはCG制作の負担を減らせたり、再撮影の手間を減らせたりなどの利点があります。しかし、巧妙ななりすまし動画が作られやすくなるといったリスクがあることにも注意しなくてはなりません。

しかし将来的には、ディープフェイク技術はさらに活用される可能性があります。そのため、今のうちに理解を深めておくことをおすすめします。

弊社ではさまざまな動画制作を行っております。気になる方は、以下のリンク先からお問い合わせください。

https://www.generalasahi.co.jp/cd/movie/contactform/

CONTACTお問い合わせ

   

まずはお気軽にご相談ください。

お電話でお問い合わせ
メールでお問い合わせ