実在しない人物の顔写真を作り出したり、顔写真が口を動かしたり表情を変えだしたり……。
AIの技術の進化によって、人の顔ですら本物か偽物か見分けることがますます難しくなってきている今日、ついに世界で初めてと見られる、AIによる詐欺事件が発生しました。AIが作った合成音声によって約2600万円もの大金がだまし取られてしまった、と欧米メディアは報じています。
上司にそっくりの声で振込みを指示
被害にあったのは、イギリスのあるエネルギー企業。この企業にサイバー保険を提供する「ユーラーヘルメス」によると、今年3月、このエネルギー企業の社長のもとに電話がかかってきました。電話の相手は親会社の上役で、ハンガリーのある取引先口座へ24万ドルを緊急で振り込み、この会社が支払いの遅延による罰金を回避するよう指示したのだそう。そして、この電話の相手こそAIで作られた合成音声だったのです。
電話の声は本物そっくりで、声の調子や間合いも似ていて、ドイツ訛りまであったそう。電話を受けた社長のことを名前で呼び、さらに振込み先の口座情報をメールでも送信していました。電話は複数回にわたり、2度目の振込みを指示され疑念がわいた社長は、本物の上役へ電話をかけて確認をしたそう。そして、本物の上役と電話している間に、偽者の上役が電話をかけてきたことで詐欺が発覚。
残念ながら、22万ユーロ(約2600万円)のお金はハンガリーとメキシコの口座に移されてしまい、行方がわからなくなっているそうです。
本物か偽物か聞き分けられない
人工の音声をAIが作るソフトウェアは数多く存在しており、この詐欺事件で使用されたソフトウェアは特定されていないもの、この種の人工音声製造のソフトウェアが利用されたものと見られています。
人工音声は、防災無線や施設案内、車内放送、音声対話など様々なサービスで、より聞き取りやすく、温かみのある声として広く使われてきています。しかし、本物の人の声と似れば似るほど、本物の声なのか人工的な声なのか聞き分けられなくなっているのも事実でしょう。
今回のAIの合成音声による詐欺事件は世界で初めてのものと見られていますが、これだけの大金をだましとることに成功したという事例は、AIを悪用した新たな犯罪を世界中で助長することになりかねないかもしれません。
近年の日本では、オレオレ詐欺といった特殊詐欺の被害件数が増加傾向にあり、今後は合成音声によるオレオレ詐欺事件が増えていく危険もはらんでいるのかもしれません。