ディープフェイク

Deepfake

AIで生成された、本物と見分けがつきにくい偽の映像・音声・画像。なりすまし・詐欺のリスクが士業実務でも無視できない。

ディープフェイクとは

ディープフェイクは、ディープラーニングで生成された、本物と見分けがつきにくい偽の映像・音声・画像を指します。「Deep Learning」と「Fake」を合わせた造語で、特定人物の顔や声を、別の映像・音声に差し替える技術が代表例です。

悪用される典型パターン

  • なりすまし動画: 経営者・著名人が言っていない発言をしているように見せる
  • 音声なりすまし: 電話口で本人の声を偽装し、送金・情報開示を指示
  • 偽の証拠: 画像・映像を改ざんし、あたかも事実があったように見せる
  • SNSでのデマ拡散: 偽ニュースや評判毀損

士業の実務での影響

  • 弁護士: 証拠の真正性判断が重くなる。提出された映像・音声が本物か検証する視点が必要
  • 会計士・税理士: 経営者になりすました振込指示メール・音声による不正送金リスクへの助言
  • 社労士: ハラスメント・不祥事案件で偽の音声証拠が出される可能性
  • 行政書士・司法書士: 本人確認書類の画像改ざんに要注意

注意点と対応

  • 本人確認は複数経路で(音声だけ、画像だけで判断しない)
  • 電子透かし(ウォーターマーク)・Cレコ等の来歴情報の有無を確認
  • 異常な指示は必ず別経路で再確認(電話・対面など)
  • 顧問先企業には社内の送金承認フローを見直してもらうよう助言

技術の進歩が速い領域のため、常に最新の手口と検知技術にアンテナを張ることが重要です。

士業AIで業務を効率化しませんか?

税務・会計・法務の専門AIが、日々の業務をサポートします。
まずは無料プランからお試しください。

無料で今すぐ試す