【No.】 175
【ストレッサー】 新手のAI振り込め詐欺
【内容】 海外でAI技術を悪用した振り込め詐欺事件が広まっているというニュースに驚く
【分類】 E 身近な出来事
【効果】 ★★
【対処法】 実在の人物の顔と声を複製できるAI技術があることを知っておけば、いざという時に用心できるかもしれないと考える
【ストレッサー型】 4 モンモン未来不安型
【解説】 昨日の報道番組で、人工知能(AI)を悪用した振り込め詐欺事件が世界中で広まっているというニュースに驚きました。犯人が実在の人物の顔と声をAIで複製して、被害者の友人になりすまして日本円で約8500万円を振り込ませてだまし取ったということでした。
日本では「オレオレ詐欺」とか「振り込み詐欺」などの特殊詐欺事件が毎日のように発生しています。しかも、かなりの被害額(2021年は年間282億円)となり、生活を脅かす深刻な情勢になっています。ターゲットとしては高齢者を狙っていますが、海外のAI振り込め詐欺の場合、知名度や社会的地位の高い人がターゲットにされており、日本でも発生するのではないかと懸念されます。
詐欺の予防策として、よく言われていることは、合言葉をあらかじめ決めておくとか、お金絡みのやり取りが発生したら本人のいつもの電話にかけ直すなどのニ重チェックをするのがいいと言われています。
そして、今回のAI詐欺の予防策として2点あるそうです。
❶相手の映っている顔は正面だけでなく、右を向かせたり、左を向かせたりすると不自然な動きになり、偽物画像と見分けることができるそうです。
❷相手の顔の前に人差し指を立てて動かしてもらうと、指が消えて見えなくなる瞬間があり、偽物画像と見分けることができるそうです。
ただ、AI技術は日進月歩で進化しており、やがてこの2点の欠点を克服したソフトが出てくるのでしょう。AI技術の進歩の裏には、それを悪用する犯罪が今後増えてくることが予想されます。
日本で実被害が出る前に、もっとテレビやネットなどで被害防止のための啓発活動をどんどんやってもらえればなあと思いました。こういった実在の人物の顔と声を複製できるAI技術があることは認識しておいた方がいいと思った次第です。いざという時に、覚えていたら役に立つかもしれません。
今は動画がきちんとした証拠になっていますが、AI技術の進歩によって動画が証拠にならなくなってしまう時代が来るのかもしれません。法整備はもちろん必要ですが、そういう世の中にならないように、今のうちから対応策の議論が必要かと思われます。
いつもお読みいただきありがとうございます。