音声クローン詐欺とは、生成 AI の音声合成技術を使って特定の人物の声を模倣し、電話で家族や知人になりすまして金銭を騙し取る詐欺手法です。わずか 3〜10 秒の音声サンプルから高精度な音声クローンを生成できる技術が悪用されています。
従来のオレオレ詐欺では声の違いで見破れるケースがありましたが、音声クローンは本人と区別がつかないほど精巧です。SNS に投稿した動画、留守番電話のメッセージ、YouTube の配信などから音声サンプルを取得される可能性があります。アメリカの FTC (連邦取引委員会) は 2023 年に音声クローン詐欺の急増を警告しています。
対策として、家族間で合言葉を決めておく、電話でお金の話が出たら一度切って本人に直接確認する (別の連絡手段で)、SNS での音声公開を控えるなどが有効です。振り込め詐欺の防止策で具体的な対策を確認しましょう。