
関連するソリューション

セキュリティサービス

セキュリティ製品

業務改革

AI
IDアメリカ
ハムザ・アフメッド
今春、世界最大規模のサイバーセキュリティカンファレンス「RSAカンファレンス2025(RSAC 2025)」が、4月28日から5月1日まで、サンフランシスコのモスコーニ・センターで開催されました。
140か国以上から4万4千人を超える参加者が集まり、進化し続けるデジタル脅威の状況について、専門家たちが意見を交わす国際的な場となりました。昨年は、AIがまだ業界のバズワードとして語られていた時期でしたが、今年のカンファレンスでは、実際の応用例や課題が中心に取り上げられました。サイバーセキュリティの専門家たちは、AIを導入し、防御に活用し始めると同時に、ハッカーたちが同じ技術をどのように悪用しているのかも観察できるようになってきました。
本レポートでは、RSAカンファレンス2025(RSAC 2025)を形作った主要テーマと議論を振り返り、最先端のサイバーセキュリティの潮流を紹介いたします。

多様な声、ひとつのコミュニティ
カンファレンスの開幕にあたり、RSAカンファレンス(RSAC)のチェアマンであるヒュー・トンプソン氏は、団結のメッセージを込めた基調講演を行いました。その内容は、過去を振り返りながらも、未来への行動を促すもので、「サイバーセキュリティは技術的な問題にとどまらず、私たち全員が担うべき共通の責任である」と強調しました。脅威が複雑化する中、企業や国、専門分野の垣根を越えた協力の重要性がますます高まっています。 彼のメッセージはシンプルながら力強いものでした。
「この脅威には、一人では立ち向かえない」
この想いは、カンファレンス全体に共通するものでした。WideField Securityの脅威リサーチャーであるジェンコ・ホワン氏は、あるセッションで、「攻撃者たちはますます巧妙になっており、既存の高度な防御をすり抜けている」と警鐘を鳴らしました。強力なパスワードや多要素認証といった基本的な対策は依然として重要ですが、ハッカーたちはそれらを迂回する手法を学びつつあります。
サイバーセキュリティの世界がますます複雑化する中で、協力体制の必要性は明白です。一つの企業や個人だけで、すべてのシステムを守ることは不可能です。しかし、コミュニティが力を合わせれば、より安全なデジタル社会を築くことができるのです。
悪しきAIの台頭、立ち上がるAIディフェンダー
他の産業と同様で人工知能(AI)は、サイバーセキュリティの分野にも大きな影響を与えています。しかし、そのすべてが歓迎すべき変化ではありません。昨年のRSAカンファレンス(RSAC)では、AIがセキュリティ専門家をどのように支援できるかが主なテーマでしたが、今年はより切迫した問題に焦点が当てられました。それは、AIそのものがいかに脆弱であるか、そしてサイバー犯罪者がそれをいかに武器化し始めているかという点です。AIの「感覚」を騙す:信頼できない世界の見え方
コーネル・テックのTingwei Zhang氏によるセッションでは、ハッカーがAIの入力データを巧妙に操作することで、AIを騙す手法について解説しました。AIは画像、音声、テキストなどのデータを処理する際、「埋め込み(embedding)」と呼ばれる仕組みを用いて意味を理解します。これは、AIにとっての「常識」のようなもので、「犬の写真」と「dog」という単語が同じ対象を指すことを判断する基盤です。しかし、Zhang氏のチームは、この埋め込みを意図的に汚染することで、AIに実際とは異なる世界を認識させることが可能であると実証しました。例えば、「犬の鳴き声」が「クラシック音楽の演奏」と誤認されるといった具合です。こうしたマルチモーダルな敵対的攻撃(multi-modal adversarial attacks)は、検索エンジンからコンテンツフィルターまで様々なシステムに影響を与える可能性があり、AmazonのTitanのような閉鎖的なシステムにも効果があると示されました。
AIによるハッキング:「WormGPT」の脅威
また、別のセッションでは、生成AIの闇の側面が取り上げられました。研究者たちは、「WormGPT」と呼ばれるダークウェブで取引されているAIモデルが、ハッカーにより、どのように使用されているかを明らかにしました。WormGPTは、脆弱性のスキャンや攻撃コードの生成に利用されており、一般的なAIプラットフォームとは異なり、倫理的な制限が一切存在しません。サブスクリプション型で販売され、価格帯やユーザーレビューまであるとのことです。セキュリティ専門家のDavidoff氏は、リアルタイムのデモでWormGPTを用い、MagentoやLog4jといった一般的なソフトウェアの脆弱性を発見する様子を披露しました。生成されたコードは完璧ではありませんでしたが、従来のセキュリティツールよりも効果的な場面もあり、攻撃の自動化が現実の脅威であることを強調する内容でした。
エージェント型AI:サイバーセキュリティの次なるフロンティア
次世代の人工知能が登場しつつあります。それは、単に命令に反応するツールではなく、自律的に思考し行動する「エージェント型AI」です。このようなシステムは、目標を設定し、意思決定を行い、人間の介入なしにタスクを実行することができます。記憶を活用し、段取りを計画し、必要に応じてツールを選択することも可能で、まるで自分自身の意志を持ったデジタルアシスタントのような存在です。

新たな脅威:「混乱させる」ことによる攻撃
セキュリティ専門家のマクマレン氏は、「エージェント型AIに対する最大の脅威は、従来のハッキングではなく“混乱”である」と指摘しました。人間が誤解を招く指示によって惑わされるように、自律的なAIエージェントも特定の入力によって軌道を逸れさせることが可能です。その結果、本来意図されていない行動や有害な処理を引き起こすリスクがあります。
最大の懸念は、現在のサイバーセキュリティ体制が、こうした自律AIに対応する準備が整っていないという点です。
自律性がもたらすリスク
ハッカーが人間を狙う理由の一つに、人間が「予測不能な意思決定をする存在」であることが挙げられます。エージェント型AIもそれと同様です。自由に行動できるAIに指示を与えると、誤解、誤作動、意図を超えた行動が発生する可能性があります。明確な制御や制限がなければ、これは深刻なセキュリティリスクとなります。
解決策:安全なエコシステムの構築
マクマレン氏は、エージェント型AIの未来を「高級レストランの厨房」に例えました。複数のシェフが独立して働きながらも、役割や合図によって連携し合う空間のように、AIも同様の調和が求められると述べました。安全で信頼できるエージェントAIを実現するには、以下のような仕組みが必要です。
- 役割ベースのルール:各エージェントの権限や動作範囲を明確にする
- 検証システム:エージェント同士が相互の行動を確認できる仕組み
- 冗長性と隔離:一部のエージェントが失敗しても全体に影響が出ないようにする
- セキュリティモデル:信頼関係や通信方法に関するガイドラインの整備
LLM活用に潜むリスク:AIが生成するコードは本当に安全か?
ChatGPTやGitHub CopilotといったAIツールは、ソフトウェア開発のあり方を大きく変えています。開発スピードを高め、プログラマーの負担を軽減すると称賛されており、一部のテック企業のCEOは「将来的に開発チームを大幅に削減できる」とまで予測しています。しかし、ここで重要な問いがあります。それは、AIが生成するコードは本当に安全なのかということです。
AIを検証する:1,200件のコードで大規模実験
この疑問を解明するために、研究者のマーク・シャーマン氏はチームとともに大規模な実験を行いました。彼らは、ChatGPT-3.5、GPT-4、GPT-4o、GitHub Copilotといった人気のAIモデルに対して、実際のプログラムコード1,200件以上を提示。そのうち半数には意図的にセキュリティ上の脆弱性が含まれていました。対象となったコードは、C、C++、Javaといった主要言語における既存の安全基準に基づいて作成されました。
実験の目的はシンプルです。AIが安全なコードと危険なコードをどこまで正確に見分けられるのかを検証することでした。
結果
ChatGPT-3.5の正答率は約50%。これはほぼコイントスと同じ精度です。GPT-4やCopilotはやや優れており、メモリの使用や文字列の処理などに関する問題を70~80%の精度で見抜きました。しかし、論理エラーやマルチスレッド処理に関するバグなど、より微妙で深い問題に関しては、これらの上位モデルですら見逃すことが多かったのです。中には、AIが過去に学習した危険なコードをそのまま繰り返して出力したり、実在しない「対策」をもっともらしく提案したケースもありました。見た目は賢そうでも、内容が誤っていたり、誤解を招く説明であることもあったのです。
AIを活用するには「慎重さ」が不可欠
シャーマン氏が、開発者に伝えたメッセージは明確です。 AIは定型作業やテンプレート補完、簡単なコードレビューなどでは有用ですが、全面的に信頼してはいけないということです。代わりに、以下のような手法と組み合わせて使用すべきだと提案しました。
- 安全なコーディングのガイドライン
- 自動コードチェッカー
- 経験豊富なエンジニアによる手動レビュー
AI時代のフィッシング:詐欺メールが賢くなっている理由
「あなたの銀行口座に問題があります」「信じられないほどお得なキャンペーンです」といった怪しいメール、誰しも一度は目にしたことがあるでしょう。今日では、多くの人がこうした古典的なフィッシング詐欺に気づき、迷わず削除するようになっています。しかし、今その状況が変わりつつあります。
AIの進化により、詐欺メールはかつてないほど巧妙になりつつあり、熟練者やフィルターでも見抜くのが困難になってきているのです。

増加するAI生成の詐欺メール
Mimecastのプロダクト責任者、ロブ・ジャンカー氏は、AIによって作成されたフィッシングメールの急増について衝撃的なデータを公開しました。彼のチームは、まず「どのくらいのメールがAIによって書かれているのか?」というシンプルな疑問から調査を始めました。その答えは:
過去1年間でAIによって書かれたメールの数は急増しており、特に大規模言語モデル(LLM)によると特定されたメールのうち79%が悪意のある内容であることが判明しました。これらのメールは、ログイン情報を盗んだり、社員を騙したり、信頼できる人物を装うなど、巧妙な詐欺手段を使っているのです。
しかも、これらのメールには不自然な英語や怪しいフォーマットは見られず、丁寧で構成もしっかりしていて信憑性が高いため、判別が非常に難しくなっています。
AI生成のフィッシングメールに見られる兆候
ジャンカー氏は、AIによって書かれた可能性のあるメールに共通する特徴をいくつか挙げました。- 「ご注目いただきありがとうございます」などの過度に丁寧な表現
- 同じような構文の繰り返し
- 「WhatsApp」といった外部プラットフォームに誘導するキーワード
- 「crucial(極めて重要な)」「significant(重要な)」「delve(掘り下げる)」といった、AIが好んで使うワード
自分と組織を守るには
こうした新手のフィッシング攻撃に対抗するために、ジャンカー氏は以下の対策を推奨しています。- AI検出ツールを使い、機械生成の文体を識別する
- 文体や行動パターンの変化に注目し、技術的な指標だけに頼らない
- 従業員への教育を行い、AI特有の言語パターンを見抜けるようにする
- メッセージの「内容」だけでなく、「どのように作られたか」にも注意を向ける
人間ではなくAIがフィッシングの標的に
脅威は人間だけに留まりません。現在、職場にAIツールが導入される中で、「AI自体を騙す」新たな攻撃手法も登場しています。それが「クロス・プロンプト・インジェクション攻撃(XPIA)」と呼ばれるものです。
これは、メールやドキュメントの中に悪意ある命令を隠して仕込むという手口で、AIエージェントがそれを読み取ってしまうと、まるで人間が危険なリンクをクリックするかのように誤った指示を実行してしまう恐れがあります。
このようなリスクに対抗するには、従来のメールフィルターだけでは不十分です。AI同士の認証(二方向認証)や、デジタルエージェントの誤作動を防ぐための厳格な制御が今後ますます重要になっていきます。
最後に
サイバーセキュリティの基本原則は今も変わっていません。しかし、攻撃の手口は急速に進化しており、とりわけAIによる脅威の台頭が大きな転換点となっています。AIは生産性を飛躍的に高めるツールとして広く活用されるようになり、多くの企業にとって、もはや導入は必須事項となっています。しかし一方で、リスクも同時に増大しています。 現在使われている多くのAIシステムは、セキュリティを重視して設計されておらず、これまでにない新たな攻撃に対して無防備なままなのです。
意思決定、業務の自動化、ユーザーとの対話といった領域で、ますます自律型技術に依存するようになる今こそ、それらを安全かつ責任ある形で開発・活用することが不可欠です。なぜなら、我々を加速させるための同じツールが、攻撃者にとってはより賢く動くための武器にもなっているからです。
当サイトの内容、テキスト、画像等の転載・転記・使用する場合は問い合わせよりご連絡下さい。
エンジニアによるコラムやIDグループからのお知らせなどを
メルマガでお届けしています。
