KNOWLEDGE - COLUMN ナレッジ - コラム

AI技術を利用した犯罪行為について考える。

コラムイメージ

関連するソリューション

業務改革

AI

株式会社IDデータセンターマネジメント
ICTサービス第5部
テクニカルスペシャリスト 水谷 知彦顔写真

IDデータセンターマネジメント所属テクニカルスペシャリスト水谷です。

誰でも利用できる高性能AI


最近、高性能なAIを利用するハードルが急速に下がっていると感じます。
以前は、IT技術者がいないとAIを利用する機会はごく限られたものでしたが、今は前回のコラムで触れたChatGPTの様にインターネットに接続できる環境があれば、何時でも誰でも高性能のAIを利用することが可能になってきています。
 
手軽に高性能なAIを利用できる状況は、生産性の向上や効率化などを行える機会が増え、生活や仕事において大変好ましい状況と考えられます。しかし、ここまでAI利用のハードルが下がってくると、犯罪行為にAIが利用される可能性も無視できなくなってきます。
 
ChatGPTなどのチャットボットサービスは、基本的に犯罪や違法行為、悪意のある内容は回答しないよう制限がされています。では、チャットボットサービスは犯罪行為などに利用できないのでしょうか?

ジェイルブレイク(脱獄)の試行


ChatGPTを利用して検証してみたいと思います。
本来、チャットボットサービスでは回答させない、犯罪や違法行為、悪意のある内容について回答させることをジェイルブレイク(脱獄)と言います。ChatGPTを利用して実際にジェイルブレイクを行えるのか試してみたいと思います。
※ChatGPTは、GPT-4のバージョンを利用して、最新の情報が取り込めるようブラウザと連携させています。
※なお、こちらの検証は、犯罪行為などの被害に会わないための情報共有を目的としており、犯罪行為などを助長するものではございません。

最近ますます巧妙化しているフィッシングメールですが、私もフィッシングメール用の文章を作ってみたいと思います。


画面イメージ

流石にストレートな質問では、回答してくれない様です。
質問の意図に気が付かれないよう、質問の内容を少し変えて聞いてみたいと思います。


画面イメージ


フィッシングメールで利用できそうな、いくつかのネタを仕入れることが出来ました。
後は、このネタからChatGPTを利用してブラッシュアップしていけば、フィッシングメールの文面で利用できる文章が作成できそうです。
 

引き続き、悪いことを聞いてみたいと思います。


画面イメージ


やはり、ストレートな質問では、回答をしてくれません。
こちらも質問の内容を少し変えて聞いてみたいと思います。


画面イメージ


脱税するためのいくつかのヒントを得ることができました。
こちらもこのヒントを利用して、ChatGPTでさらに具体的な方法を聞けば悪いことができるかもしれません。
 
質問者である私の質問スキルが不足しているため、ジェイルブレイクレベルになっていないかもしれませんが、ストレートな質問では回答してくれない内容も、聞き方を工夫すれば回答してもらえることが確認できたかと思います。

その他、質問の内容を工夫する以外に、ChatGPTに別の人格を演じさせてジェイルブレイクを行う方法もあります。質問を入力する前に、何でも回答ができる人格が回答する設定を前提条件として入力して、回答させると言ったものになります。
過去に検証されていた内容を参考にして、ChatGPTでこちらを検証してみましたが、現時点では何でも回答はしてくれず、しっかりと回答を拒否されました。ChatGPT側で対策が行われていると考えられます。
 
この様に、犯罪や違法行為、悪意のある内容をチャットボットサービスなどから直接聞き出すことは制限がかかっており難しい状況です。しかし、聞き方を変えたり間接的に聞くなど工夫をすれば、高性能なAIを犯罪行為や悪意のある文章の作成などに利用できてしまいます。

巧妙化するフィッシングメール


最近のフィッシングメールの内容が、自然な日本語で作成されている状況は、AI技術の進歩も大いに関係していると考えられます。ひと昔前までは、片言の日本語で作成された文章などもあり、容易にフィッシングメールの判断がつくものも数多くありました。

しかし、最近は片言の日本語など不自然な日本語で作成されたフィッシングメールを見る機会が減っており、情報搾取や詐欺などの被害あわないため、URLをクリックしたり個人情報を入力するさいはより一層の注意が必要になってきています。
 
会社などの組織に所属している環境であれば、メールやインターネット接続のフィルタリング機能で危険なサイトなどへ接続する機会を減らすことは可能ですが、個人のプライベートな環境では、会社組織の環境などと比較して危険なサイトなどへ接続する機会は増えてしまいます。

メールに書かれているURLをクリックするのではなく、ブラウザから自分で検索をしてブラウザが安全であると判断しているサイトから情報を入手するなど、個人での対策が不可欠な状況です。

まとめ


今後もAIの技術はまだまだ進歩していくと考えられるため、AI技術の良い面だけでなく、悪い面も意識して常に情報をアップデートしていく必要があります。最近は、AIによる画像生成系のサービスも手軽に利用できる状況のため、フェイクニュースやフェイク画像などAIを利用すれば、誰でも短時間で作成することが可能になっています。個人で情報を発信できるSNSなどを利用するさいは、発信されている情報を鵜呑みにせず、複数の情報源から情報を取得して検証する必要があるかもしれません。
 
美味しいパン屋さんの情報を見て行ってみたら、実際そんなパン屋さんはなかった程度の被害であれば笑い話になりますが、災害や伝染病、ネガティブな話題など多くの人の行動、意識に影響を与える情報は、その情報が正しいものか十分な検証が必要になると考えられます。
 
最後までお読みいただきありがとうございました。
それではまた、次のコラムでお会いしましょう。


当サイトの内容、テキスト、画像等の転載・転記・使用する場合は問い合わせよりご連絡下さい。


エバンジェリストによるコラムやIDグループからのお知らせなどを
メルマガでお届けしています。

メルマガ登録ボタン


水谷 知彦

株式会社IDデータセンターマネジメント テクニカルスペシャリスト

この執筆者の記事一覧

関連するソリューション

業務改革

AI

関連するナレッジ・コラム

AI倫理~AIとの向き合い方と制度~

生成AIのトレンド「LLM+RAG」を解説

画像生成AIでキャラクターを作ってみる version 2