AIがまるで人間のようにふるまったり、音声や動画になると便利ですが、それだけ詐欺が巧妙になるということです。
ここではいろんなAI詐欺の事例を紹介しますので、自己防衛しましょう。
動画・音声の偽造
ディープフェイク詐欺
中国ではディープフェイクを使った詐欺事件が発生。ディープフェイクとは、顔出し動画の顔の部分だけAIによって置き換えるというもの。本来出演していないのにトム・クルーズが動画内でしゃべったりします。
中国の事件では、友人からビデオ通話で「入札のために8500万円の補償金が必要だから振り込んでほしい」と依頼された振り込んだということです。
のち、本人と会話してそんな話はしていないとして発覚。
ディープフェイクを使った動画通話詐欺が中国で発生、被害額8500万円! | ギズモード・ジャパン (gizmodo.jp)
対策としては
・顔の前で指を動かす。すると認識している位置情報がずれて顔が歪んだりしやすい
・顔を左右振り向く。輪郭が不自然になったり、メガネが正しく表示されないといったことがおきやすい
など。
AI音声誘拐
ある日母親に知らない番号からかかってきた電話。
娘が出てきて「助けて!」とし、電話を替わった詐欺師は100万ドル、約1億4千万円を要求しました。
幸いその後娘と連絡を取ったことでこれが偽の電話ということが発覚。ただし音声は非常にリアルに娘の声に聞こえたそうです。
AIの音声合成は、どんどんクォリティがあがってきているので、このようななりすましはますます識別しにくくなるのでしょう。
Can you trust your ears? AI voice scams rattle US - CNA (channelnewsasia.com)
フェイクニュース
ペンタゴンで爆破があったとする写真が拡散。一時株価にも影響を及ぼしました。
その後この写真はフェイクであることが判明。
しかしフェイクニュースやフェイク写真を悪用することで、株価操作など大きな影響を与える事例は増えてくるものと思われます。
文字・デザインの偽造
フィッシングサイト
いままでフィッシングサイトやフィッシングメールでは、言語翻訳を使っただけの機械的・うわべだけのものも多かったです。
しかしChatGPTなど、より人間が作ったような洗練されたフィッシングサイトが登場し、だまされる危険性は高まってきています。
プログラム
悪意あるコード
AIによってプログラムの作成も簡単になってきました。
ということは、悪意のあるプログラムの作成も簡単になることを意味します。
参考:
The criminal use of ChatGPT – a cautionary tale about large language models | Europol (europa.eu)