ワールド
2024/9/20 5:30

英国の4人に1人が「AI音声詐欺」の標的に。回避方法は?

音声認識アプリ、チャットボット、AI家電など、ますます身近になるAI。ただし、技術が進歩するほど、悪用される懸念も高まっています。

↑話している相手は誰?

 

そんなケースの一つが、AI音声生成による詐欺事件。先日発表された調査で、英国の4人に1人以上がすでに詐欺の標的になったことがわかりました。

 

AI音声生成は、わずか数秒程度の短時間の音声ファイルがあれば、その人物とそっくりの音声を作れるというもの。これを悪用する犯人は、SNSなどインターネット上にアップロードされた動画、ボイスメールから、その人物に似せた音声を作ります。そして、その人物や家族の住所を特定し、電話をかけたり音声メッセージを送りつけたりして、事故の賠償や家賃の支払いを理由に金銭を要求するという手口です。

 

英スターリング銀行が3000人を対象に行った調査結果によると、過去1年間に少なくとも1回、AI音声生成詐欺のターゲットにされた経験があると答えた人は、全体の28%もいることがわかったのです。

 

別の調査でも、英国の平均的な成人は、過去1年間に5回も詐欺の標的になっていることが明らかになっています。

 

AI音声詐欺を回避する方法

AI音声生成を活用した巧妙な詐欺の手口に引っ掛からないためには、どうしたらいいでしょうか? スターリング銀行が紹介したのが、家族で共通のパスワードか合言葉を作ることです。

 

電話などで、家族や友だちを名乗った人物が金銭を求めてくるとき、そのパスワードや合言葉を聞き出して、相手が本当に家族や友だちなのかを確認するという方法です。

 

また、AIが作った音声は、ロボットのような話し方をしていたり、不自然な間があったりすることが考えられるため、そんな違和感をすぐに察知できるといいかもしれません。

 

そして、日々SNSにアップロードしている自分や家族の動画がAI音声詐欺に利用されている可能性があることを自覚しておいたほうがよさそうです。

 

【主な参考記事】

This is Money. Millions could be caught out by little-known AI voice imitation scam – and one major bank warns 28% of Britons have already been targeted. September 18 2024