ディープフェイクとは? その正体と危険性、騙されないためのポイントを解説

ディープフェイクとは
ディープフェイクとは、AI(人工知能)を使って実在する人物の映像や音声を本物そっくりに偽造する技術です。
例えば、コンピュータに有名人の大量の写真や動画を学習させると、その人が実際には言っていないセリフを話す偽の動画を作り出すことができます。
名前の由来は「ディープラーニング(深層学習)」という高度なAIの学習技術と「フェイク(偽物)」を組み合わせた造語で、本物と区別がつかないほど精巧なメディアを生成できることを意味しています。
言い換えるならば、「AIによる超高度なコラ画像・声真似」です。
要するに、写真や動画の顔だけあてはめたり、音声のモノマネをAIが行い、まるで本人がそこにいるかのようなニセ映像・ニセ音声を作り出してしまうのがディープフェイクです。
誰でも作れる偽動画、その便利さと裏腹の危険
ディープフェイク技術は、一般人でも高精度な偽映像・偽音声を作れてしまうため、悪用による犯罪が急増しています。
世界で見ると、2025年第一四半期(たった3か月)だけでディープフェイク詐欺による被害額が世界全体で約300億円近くに達した
という報告もあり、その被害規模は年々大きくなっています。
ディープフェイクによる被害例
ディープフェイクによって生じる危険や悪影響には、以下のようなものがあります。
詐欺・なりすましによる金銭被害
本人そっくりの偽の音声や動画を使えば、他人や企業になりすまして詐欺を行うことが容易になります。例えば、偽の上司の声で部下に送金を指示したり、知人のフリをしてビデオ通話でお金を要求するといった手口です。恋愛感情を悪用する「ロマンス詐欺」にディープフェイクの偽プロフィール写真や動画が使われるケースもあります。
認証の突破・セキュリティ侵害
高度なディープフェイクは顔認証や声認証といった生体認証セキュリティを突破してしまう恐れがあります。例えば銀行の声紋認証を偽の音声ですり抜けて口座に不正アクセスしたり、スマホやオフィスの顔認証ロックを偽の映像で解除するといった可能性があります。
偽情報の拡散による社会的混乱
ディープフェイクで作られた偽の映像や写真がインターネットやSNSで拡散すると、多くの人が誤った情報を信じてしまい社会に混乱を招きます。例えば「有名企業の社長が逮捕された」といったフェイクニュース動画が出回れば、その企業の信用は大きく傷つき、市場や世論に影響を与えかねません。政治の世界でも、偽の動画が拡散されれば民主主義への信頼低下につながります。
プライバシー侵害・名誉毀損
ディープフェイクは個人の評判やプライバシーも脅かします。特に深刻なのが性的なディープフェイクの被害です。女性芸能人の顔を無断で合成した偽のポルノ動画や、一般人の知人同士で卒業アルバムの写真から裸の画像を作り出す悪質な例まで報告されています。自分の顔写真を勝手に合成され、卑わいな偽画像をネット上にばら撒かれることは、被害者に大きな精神的苦痛を与えます。
裁判における証拠の信頼性低下
ディープフェイクによって作られた偽の証拠映像や音声が裁判などに提出されると、「それが本当なのか?」と司法の場が混乱するおそれがあります。
嘘の証拠で無実の人が罪に問われたり、逆に本物の証拠が疑われて犯人が逃れてしまう危険があるのです。
このように、ディープフェイクは使い方次第では人々の信頼や安全を揺るがす兵器にもなってしまいます。
実際に起きたディープフェイク事件

ディープフェイク技術による被害が現実にどのように表れているのか、実際のニュース事例を紹介します。
ウクライナ大統領が降伏を呼びかける偽映像の拡散
2022年、ロシアとウクライナの戦争下で、ウクライナ大統領ゼレンスキー氏が国民に対し「武器を置いて降伏せよ」と呼びかける内容の映像がしました。もちろんゼレンスキー大統領本人はそんな呼びかけをしておらず、これは敵対勢力が作成したディープフェイク動画でした。映像の中の人物は妙に瞬きも少なく動きが硬い不自然なもので、大統領の声もいつもと異なる調子だったため直ぐに偽物と見破られました。このフェイク動画自体は米メタ社が迅速に削除し、ゼレンスキー大統領本人も即座に「そんな発言はしていない」と本物のメッセージを発信したことで大事には至りませんでした。
参考:投降呼びかけるゼレンスキー氏の偽動画 米メタが削除 - 日本経済新聞
岸田文雄前首相が汚い言葉で暴言を吐いている偽の動画
日本では2023年に、当時の岸田文雄首相がまるで汚い言葉で暴言を吐いているかのように見える偽の動画がSNS上で拡散される騒ぎがありました。
その動画は実在のニュース番組のテロップやロゴを真似て巧妙に作られており、一見すると本物のニュース映像のようでした。
投稿者は「悪意はなかった」と釈明しつつその偽動画を約1時間ほどで作成し公開してしまい、後になって謝罪・削除する事態となりました。
参考:「首相偽動画」が拡散、精巧化するディープフェイクのリスク 技術向上で簡易に- 産経新聞
政治に関する偽の映像は、社会不安を引き起こしかねない危険なものです。
詐欺に悪用された例(金融・犯罪)
ディープフェイクは直接的な金銭詐欺にも利用されています。最近の大きな事件では、2024年2月に香港のとある多国籍企業の財務担当者が、本社CFO(最高財務責任者)を名乗る人物とオンラインのビデオ会議を行い、その指示通りに会社のお金を海外口座へ振り込んでしまいました。実は、そのビデオ会議に映っていたCFOや同僚の映像こそがディープフェイクで作られた偽物で、巧妙になりすました詐欺グループの罠でした。この騙し取られた金額は日本円にして約38億円にも上り、企業は巨額の被害を被りました。
参考:会計担当が38億円を詐欺グループに送金、ビデオ会議のCFOは偽物 香港 - CNN
また、一般家庭を狙ったディープフェイク音声による振り込め詐欺のような事件も起きています。アメリカでは2023年、ある母親のもとに「娘を誘拐した。助けてほしければ身代金を払え」という電話がかかってきました。電話口から聞こえる泣きじゃくる声は確かに娘さんの声で、母親は瞬時にパニックに陥りました。しかし実際は娘さんは無事で、この通話は犯人がAI音声で娘さんの声を真似ていただけの巧妙なイタズラだった、という事件が報告されています。
参考:AIで作成したクローン音声で誘拐をでっち上げて身代金を要求する事件が発生 - GIGAZINE
このようにディープフェイクは企業だけでなく個人の日常生活にも入り込み、誰もが詐欺被害に遭うリスクがあることがわかります。
悪質なディープフェイク画像の例
ディープフェイク技術は映像だけでなく静止画の分野でも悪用されています。その例が、他人の写真を加工してわいせつな偽画像を作る「性的ディープフェイク」です。
2023年、名古屋市で元小学校教諭の男性が逮捕・起訴された事件が報じられました。この元教諭は、勤務先の小学校で管理していた女子児童たちの写真データを不正に持ち出し、それを元に知人に依頼して裸の姿の偽わいせつ画像を作成させていました。警察の捜査のスマートフォンからそうした合成画像が発見され、児童ポルノ禁止法違反(性的ディープフェイク画像の所持)で全国初の立件例となりました。生成AI技術による性的画像生成が初めて刑事摘発された点で社会に与えた衝撃は大きいものでした。
参考:生成AIで児童のわいせつ画像、元小学教諭を児童ポルノ所持で起訴…全国初 - 読売新聞
ほかにも、ディープフェイクを巡る事件は絶えず出ている状況です。
ディープフェイクに騙されないための見分け方と対策
技術の進歩により、最新のディープフェイク映像や音声は驚くほどリアルで一見しただけでは見破るのが難しくなってきました。それでも、「おかしいぞ?」と気づくためのポイントや、被害を未然に防ぐための心構えがあります。ディープフェイクに惑わされないための具体的な見分け方や対策を紹介します。
①疑う目を持つ、情報を鵜呑みにしない
②映像の不自然な点をチェックする
ディープフェイク動画には細部にわずかな不自然さが残っている場合があります。例えば「表情や動きが機械的に繰り返されていないか」「顔の動きと体の動きが合っていない箇所はないか」「光の当たり方と影の位置に矛盾がないか」「瞬きの頻度や視線が不自然に固定されていないか」といった点です。高度なAI合成では完全に自然に見えるものもありますが、まばたきや表情の変化が不自然なループになっていたり、顔だけが浮いたように見えたり、影の方向が周囲の光源と合わなかったりすることがあります。こうした違和感に気づいたら「もしかして偽物かも?」と立ち止まることが大切です。
③複数のソースで真偽を確かめる
SNSやチャットで流れてきた動画や音声がショッキングな内容だった場合、すぐに信じて拡散しないようにしましょう。一歩引いて、その情報の出所を確認します。例えば「〇〇さんが重大発表!」といった動画があれば、その本人の公式アカウントや信頼できるニュースサイトで同じ発表がされているか照らし合わせます。政治家の発言や災害情報など緊急性の高いものほど、必ず公式発表や複数の報道機関の情報と突き合わせて、フェイクに踊らされないようにすることが重要です。
④本人確認の徹底
怪しい依頼や連絡は直接確認する
「今すぐお金を振り込んで!」「アカウントのパスワードを教えて」といった急を要する依頼がメールや電話で来たときは要注意です。たとえそれが上司や家族・友人からのメッセージに見えても、一度立ち止まりましょう。もし電話の声が本人そっくりでも、別の手段(たとえば本人の携帯番号にかけ直す、直接会って確認する等)で真偽を確かめることが鉄則です。「他の人に言わないで」「すぐに対応して」と急かす連絡ほど詐欺の可能性があります。本物そっくりのディープフェイク音声・映像でも、電話番号やメールアドレスなど連絡元がおかしければ偽物と見抜ける場合も多いので、落ち着いて確認するクセをつけましょう。
技術による対策も登場しつつある
ディープフェイク検出のための技術も日進月歩で進んでおり、例えばマイクロソフトは「Video Authenticator」などのAIを使った動画真偽判定ツールを開発・提供し始めています。今後はこうした技術が普及し、偽動画を自動的に見破ってくれるツールが増えるかもしれません。
参考:マイクロソフト、ディープフェイクを検知する新技術「Video Authenticator」を発表 - ZD NET
しかし現時点では、巧妙なフェイクを100%完璧に見抜くことは難しいと言われています。結局のところ、ユーザーが「映像や音声は簡単に偽造される」という意識を持つことが重要です。
まとめ
以上、ディープフェイクとは何か、その危険性と実例、そして対策について解説しました。AIが作り出す偽りの映像や音声は一見面白いですが、その裏には大きなリスクが潜んでいます。
私たち一般人でも、知識と注意を持っていれば被害を防ぐことができます。便利なAI技術と上手に付き合いながら、だまされないように賢く対処していきましょう。
参考リンク
※クリックすると新規タブで開きます
「首相偽動画」が拡散、精巧化するディープフェイクのリスク 技術向上で簡易に- 産経新聞
生成AIで児童のわいせつ画像、元小学教諭を児童ポルノ所持で起訴…全国初 - 読売新聞
3か月で被害額300億円、深刻化する「ディープフェイク」詐欺の現状と課題 - ビジネス+IT
投降呼びかけるゼレンスキー氏の偽動画 米メタが削除 - 日本経済新聞
会計担当が38億円を詐欺グループに送金、ビデオ会議のCFOは偽物 香港 - CNN
AIで作成したクローン音声で誘拐をでっち上げて身代金を要求する事件が発生 - GIGAZINE
マイクロソフト、ディープフェイクを検知する新技術「Video Authenticator」を発表 - ZD NET