ディープフェイク
Deepfake
AIで生成された、本物と見分けがつきにくい偽の映像・音声・画像。なりすまし・詐欺のリスクが士業実務でも無視できない。
ディープフェイクとは
ディープフェイクは、ディープラーニングで生成された、本物と見分けがつきにくい偽の映像・音声・画像を指します。「Deep Learning」と「Fake」を合わせた造語で、特定人物の顔や声を、別の映像・音声に差し替える技術が代表例です。
悪用される典型パターン
- なりすまし動画: 経営者・著名人が言っていない発言をしているように見せる
- 音声なりすまし: 電話口で本人の声を偽装し、送金・情報開示を指示
- 偽の証拠: 画像・映像を改ざんし、あたかも事実があったように見せる
- SNSでのデマ拡散: 偽ニュースや評判毀損
士業の実務での影響
- 弁護士: 証拠の真正性判断が重くなる。提出された映像・音声が本物か検証する視点が必要
- 会計士・税理士: 経営者になりすました振込指示メール・音声による不正送金リスクへの助言
- 社労士: ハラスメント・不祥事案件で偽の音声証拠が出される可能性
- 行政書士・司法書士: 本人確認書類の画像改ざんに要注意
注意点と対応
- 本人確認は複数経路で(音声だけ、画像だけで判断しない)
- 電子透かし(ウォーターマーク)・Cレコ等の来歴情報の有無を確認
- 異常な指示は必ず別経路で再確認(電話・対面など)
- 顧問先企業には社内の送金承認フローを見直してもらうよう助言
技術の進歩が速い領域のため、常に最新の手口と検知技術にアンテナを張ることが重要です。
