SCW Icons
hero bg no divider
Blog

良いツールが悪くなるとき:AI ツールポイズニング、そして AI がダブルエージェントとして振る舞うのを防ぐ方法

Pieter Danhieux
Published Jul 09, 2025
Last updated on Mar 10, 2026

AI 支援開発 (または、よりトレンディなバージョンの「バイブコーディング」) は、コード作成に大きな変革をもたらしています。定評のある開発者がこれらのツールを大量に採用しており、私たちの中で常に独自のソフトウェアを作成したいと思っていたが、関連する経験がなかった人々も、以前はコストと時間がかかりすぎていたであろう資産を構築するためにこれらのツールを活用しています。このテクノロジーはイノベーションの新時代の到来を告げると期待されていますが、セキュリティリーダーが軽減に苦労しているさまざまな新しい脆弱性とリスクプロファイルをもたらします。

A 最近の発見 InvariantLabsは、強力なAIツールが他のソフトウェアやデータベースと自律的に相互作用できるようにするAPIのようなフレームワークであるモデルコンテキストプロトコル(MCP)の重大な脆弱性を発見しました。これにより、企業にとって特に損害を与える可能性のある新しい脆弱性カテゴリである「ツールポイズニング攻撃」と呼ばれる攻撃が可能になります。WindsurfやCursorなどの主要なAIツールも例外ではありません。何百万人ものユーザーがいるため、この新たなセキュリティ問題を管理するための認識とスキルが最も重要です。

現状では、これらのツールの出力は じゃない に記載されているように、エンタープライズ対応とラベル付けできるほど一貫して安全です 最近の研究論文 AWS と Intuit のセキュリティ研究者、ヴィネス・サイ・ナラジャラとイダン・ハブラー:」AIシステムがより自律的になり、MCPなどを通じて外部ツールやリアルタイムデータと直接やり取りするようになるにつれて、それらの相互作用が安全であることを確認することが絶対に不可欠になります。。」

エージェンシーAIシステムとモデルコンテキストプロトコルのリスクプロファイル

モデルコンテキストプロトコルは便利なソフトウェアです アンソロピック社製 これにより、大規模言語モデル(LLM)AIエージェントと他のツールとのより適切でシームレスな統合が可能になります。これは強力なユースケースであり、プロプライエタリなアプリケーションと GitHub のようなビジネスに不可欠な SaaS ツールと最先端の AI ソリューションとの間で、さまざまな可能性が広がります。MCP サーバーを書くだけで、それをどのように機能させ、どのような目的で機能させたいかについてのガイドラインを設定する作業に取り掛かることができます。

MCPテクノロジーのセキュリティへの影響は、実際にはほとんどポジティブなものです。LLMとセキュリティ専門家が使用する技術スタックをより簡単に統合できるという約束は、無視できないほど魅力的であり、少なくとも各タスク用のカスタムコードを作成してデプロイしなければ、これまで不可能だったレベルでの正確なセキュリティタスクの自動化の可能性を示しています。データ、ツール、担当者間の広範囲にわたる可視性と接続性が、効果的なセキュリティ防御と計画の基本であることを考えると、MCPによって提供されるLLMの相互運用性の強化は、エンタープライズセキュリティにとって有望な展望です。

ただし、MCPを使用すると、他の脅威ベクトルが発生する可能性があり、注意深く管理しない限り企業の攻撃対象領域が大幅に拡大する可能性があります。が指摘しているように インバリアントラボ、ツールポイズニング攻撃は、AIモデルによる機密データの流出や不正アクションにつながる可能性のある新しい脆弱性カテゴリであり、そこから、セキュリティへの影響はすぐに非常に暗くなります。

InvariantLabsによると、ツールポイズニング攻撃は、ユーザーには表示されないが、AIモデルでは完全に読み取れる(実行できる)悪意のある指示がMCPツールの説明に埋め込まれている場合に可能になるとのことです。これにより、ツールはユーザーに気付かれずに不正なアクションを実行するように仕向けられます。問題は、すべてのツールの説明が信頼できるものであるというMCPの想定にあり、これは脅威アクターの耳に響きます。

彼らは、ツールが危険にさらされると次のような結果になる可能性があることを指摘しています。

  • 機密ファイル (SSH キー、設定ファイル、データベースなど) にアクセスするよう AI モデルに指示する。
  • これらの悪意のある行為が本質的に知らないユーザーから隠されている環境で、このデータを抽出して送信するようにAIに指示する。
  • ツールの引数と出力の一見シンプルな UI 表現の背後に隠れることで、ユーザーが見るものと AI モデルが実行するものとの間に断絶が生じます。

これは懸念される新たな脆弱性のカテゴリーであり、MCPの使用が避けられないほど増加するにつれて、ほぼ確実にこのカテゴリーが頻繁に見られるようになるでしょう。企業のセキュリティプログラムが進化するにつれて、この脅威を見つけて軽減するために慎重な対策を講じることになるため、開発者がソリューションに参加できるように十分な準備を整えることが重要です。

セキュリティスキルのある開発者だけがエージェント AI ツールを活用すべき理由

Agentic AIコーディングツールは、ソフトウェア開発の効率、生産性、柔軟性を向上させる機能に加えて、AI支援コーディングの次の進化と見なされています。コンテキストと意図を理解する能力が強化されているため特に便利ですが、攻撃者による即時注入、幻覚、行動操作などの脅威から免れることはできません。

開発者は良いコードコミットと悪いコードコミットの間の防衛線であり、セキュリティと批判的思考の両方のスキルを磨くことは、安全なソフトウェア開発の将来の基本となるでしょう。

AIのアウトプットは、決して盲目的に信頼して実装すべきではありません。このテクノロジーによってもたらされる生産性の向上を安全に活用できるのは、状況に応じた批判的思考を行うセキュリティスキルのある開発者です。それでも、人間の専門家がツールによって生み出された作業を評価、脅威モデル化し、最終的に承認できる、ペアプログラミング環境のような環境でなければなりません。

開発者が AI を使用してスキルを向上させ、生産性を向上させる方法の詳細をご覧ください。 ここに

実践的な緩和手法、および最新の研究論文でさらに詳しく

AIコーディングツールとMCPテクノロジーは、サイバーセキュリティの将来において重要な要素になると思われますが、状況を確認する前に深く掘り下げないことが重要です。

ナラジャラとハブラー 論文 企業レベルでMCPを実施するための包括的な緩和戦略と、そのリスクの継続的な管理について詳しく説明しています。最終的には、多層防御とゼロトラストの原則を中心に、この新しいエコシステムが企業環境にもたらす独自のリスクプロファイルを明確に対象としています。特に開発者にとっては、以下の分野における知識のギャップを埋めることが不可欠です。

  • 認証とアクセス制御: エージェント型AIツールは、人間がエンジニアリングタスクに取り組むのとほぼ同じように、問題を解決し、そのために計画された目標を達成するための自律的な意思決定を行うように機能します。しかし、すでに確立しているように、熟練した人間がこれらのプロセスを監視することは無視できないため、これらのツールをワークフローで使用する開発者は、自分がどのようなアクセス権を持っているか、どのようなデータを取得または公開する可能性があるか、どこで共有されるかを正確に把握する必要があります。
  • 一般的な脅威の検出と軽減: ほとんどの AI プロセスに当てはまることですが、ツールの出力にある潜在的な欠陥や不正確さを見つけるには、ユーザー自身がタスクに習熟している必要があります。開発者は、セキュリティプロセスを効果的に見直すために、継続的なスキルアップとスキルの検証を受ける必要があります。 そして AI が生成したコードを、セキュリティの精度と信頼性をもってレビューできます。
  • セキュリティポリシーと AI ガバナンスとの連携: 開発者は承認されたツールについて周知し、スキルアップやツールへのアクセスを得る機会を与える必要があります。コミットを信頼する前に、開発者とツールの両方がセキュリティベンチマークの対象となるべきです。

最近リリースしました 研究論文 バイブコーディングとAIアシストコーディングの出現と、AIを活用した次世代のソフトウェアエンジニアを育成するために企業が取るべき措置について。今すぐチェックして、開発チームを強化するために連絡を取ってください。

リソースを表示
リソースを表示

もっと興味がありますか?

Chief Executive Officer, Chairman, and Co-Founder

learn more

Secure Code Warriorは、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする文化を築くお手伝いをします。アプリケーションセキュリティマネージャ、開発者、CISO、またはセキュリティ関係者のいずれであっても、安全でないコードに関連するリスクを軽減するお手伝いをします。

デモを予約
シェア:
linkedin brandsSocialx logo
著者
Pieter Danhieux
Published Jul 09, 2025

Chief Executive Officer, Chairman, and Co-Founder

Pieter Danhieux is a globally recognized security expert, with over 12 years experience as a security consultant and 8 years as a Principal Instructor for SANS teaching offensive techniques on how to target and assess organizations, systems and individuals for security weaknesses. In 2016, he was recognized as one of the Coolest Tech people in Australia (Business Insider), awarded Cyber Security Professional of the Year (AISA - Australian Information Security Association) and holds GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA certifications.

シェア:
linkedin brandsSocialx logo

AI 支援開発 (または、よりトレンディなバージョンの「バイブコーディング」) は、コード作成に大きな変革をもたらしています。定評のある開発者がこれらのツールを大量に採用しており、私たちの中で常に独自のソフトウェアを作成したいと思っていたが、関連する経験がなかった人々も、以前はコストと時間がかかりすぎていたであろう資産を構築するためにこれらのツールを活用しています。このテクノロジーはイノベーションの新時代の到来を告げると期待されていますが、セキュリティリーダーが軽減に苦労しているさまざまな新しい脆弱性とリスクプロファイルをもたらします。

A 最近の発見 InvariantLabsは、強力なAIツールが他のソフトウェアやデータベースと自律的に相互作用できるようにするAPIのようなフレームワークであるモデルコンテキストプロトコル(MCP)の重大な脆弱性を発見しました。これにより、企業にとって特に損害を与える可能性のある新しい脆弱性カテゴリである「ツールポイズニング攻撃」と呼ばれる攻撃が可能になります。WindsurfやCursorなどの主要なAIツールも例外ではありません。何百万人ものユーザーがいるため、この新たなセキュリティ問題を管理するための認識とスキルが最も重要です。

現状では、これらのツールの出力は じゃない に記載されているように、エンタープライズ対応とラベル付けできるほど一貫して安全です 最近の研究論文 AWS と Intuit のセキュリティ研究者、ヴィネス・サイ・ナラジャラとイダン・ハブラー:」AIシステムがより自律的になり、MCPなどを通じて外部ツールやリアルタイムデータと直接やり取りするようになるにつれて、それらの相互作用が安全であることを確認することが絶対に不可欠になります。。」

エージェンシーAIシステムとモデルコンテキストプロトコルのリスクプロファイル

モデルコンテキストプロトコルは便利なソフトウェアです アンソロピック社製 これにより、大規模言語モデル(LLM)AIエージェントと他のツールとのより適切でシームレスな統合が可能になります。これは強力なユースケースであり、プロプライエタリなアプリケーションと GitHub のようなビジネスに不可欠な SaaS ツールと最先端の AI ソリューションとの間で、さまざまな可能性が広がります。MCP サーバーを書くだけで、それをどのように機能させ、どのような目的で機能させたいかについてのガイドラインを設定する作業に取り掛かることができます。

MCPテクノロジーのセキュリティへの影響は、実際にはほとんどポジティブなものです。LLMとセキュリティ専門家が使用する技術スタックをより簡単に統合できるという約束は、無視できないほど魅力的であり、少なくとも各タスク用のカスタムコードを作成してデプロイしなければ、これまで不可能だったレベルでの正確なセキュリティタスクの自動化の可能性を示しています。データ、ツール、担当者間の広範囲にわたる可視性と接続性が、効果的なセキュリティ防御と計画の基本であることを考えると、MCPによって提供されるLLMの相互運用性の強化は、エンタープライズセキュリティにとって有望な展望です。

ただし、MCPを使用すると、他の脅威ベクトルが発生する可能性があり、注意深く管理しない限り企業の攻撃対象領域が大幅に拡大する可能性があります。が指摘しているように インバリアントラボ、ツールポイズニング攻撃は、AIモデルによる機密データの流出や不正アクションにつながる可能性のある新しい脆弱性カテゴリであり、そこから、セキュリティへの影響はすぐに非常に暗くなります。

InvariantLabsによると、ツールポイズニング攻撃は、ユーザーには表示されないが、AIモデルでは完全に読み取れる(実行できる)悪意のある指示がMCPツールの説明に埋め込まれている場合に可能になるとのことです。これにより、ツールはユーザーに気付かれずに不正なアクションを実行するように仕向けられます。問題は、すべてのツールの説明が信頼できるものであるというMCPの想定にあり、これは脅威アクターの耳に響きます。

彼らは、ツールが危険にさらされると次のような結果になる可能性があることを指摘しています。

  • 機密ファイル (SSH キー、設定ファイル、データベースなど) にアクセスするよう AI モデルに指示する。
  • これらの悪意のある行為が本質的に知らないユーザーから隠されている環境で、このデータを抽出して送信するようにAIに指示する。
  • ツールの引数と出力の一見シンプルな UI 表現の背後に隠れることで、ユーザーが見るものと AI モデルが実行するものとの間に断絶が生じます。

これは懸念される新たな脆弱性のカテゴリーであり、MCPの使用が避けられないほど増加するにつれて、ほぼ確実にこのカテゴリーが頻繁に見られるようになるでしょう。企業のセキュリティプログラムが進化するにつれて、この脅威を見つけて軽減するために慎重な対策を講じることになるため、開発者がソリューションに参加できるように十分な準備を整えることが重要です。

セキュリティスキルのある開発者だけがエージェント AI ツールを活用すべき理由

Agentic AIコーディングツールは、ソフトウェア開発の効率、生産性、柔軟性を向上させる機能に加えて、AI支援コーディングの次の進化と見なされています。コンテキストと意図を理解する能力が強化されているため特に便利ですが、攻撃者による即時注入、幻覚、行動操作などの脅威から免れることはできません。

開発者は良いコードコミットと悪いコードコミットの間の防衛線であり、セキュリティと批判的思考の両方のスキルを磨くことは、安全なソフトウェア開発の将来の基本となるでしょう。

AIのアウトプットは、決して盲目的に信頼して実装すべきではありません。このテクノロジーによってもたらされる生産性の向上を安全に活用できるのは、状況に応じた批判的思考を行うセキュリティスキルのある開発者です。それでも、人間の専門家がツールによって生み出された作業を評価、脅威モデル化し、最終的に承認できる、ペアプログラミング環境のような環境でなければなりません。

開発者が AI を使用してスキルを向上させ、生産性を向上させる方法の詳細をご覧ください。 ここに

実践的な緩和手法、および最新の研究論文でさらに詳しく

AIコーディングツールとMCPテクノロジーは、サイバーセキュリティの将来において重要な要素になると思われますが、状況を確認する前に深く掘り下げないことが重要です。

ナラジャラとハブラー 論文 企業レベルでMCPを実施するための包括的な緩和戦略と、そのリスクの継続的な管理について詳しく説明しています。最終的には、多層防御とゼロトラストの原則を中心に、この新しいエコシステムが企業環境にもたらす独自のリスクプロファイルを明確に対象としています。特に開発者にとっては、以下の分野における知識のギャップを埋めることが不可欠です。

  • 認証とアクセス制御: エージェント型AIツールは、人間がエンジニアリングタスクに取り組むのとほぼ同じように、問題を解決し、そのために計画された目標を達成するための自律的な意思決定を行うように機能します。しかし、すでに確立しているように、熟練した人間がこれらのプロセスを監視することは無視できないため、これらのツールをワークフローで使用する開発者は、自分がどのようなアクセス権を持っているか、どのようなデータを取得または公開する可能性があるか、どこで共有されるかを正確に把握する必要があります。
  • 一般的な脅威の検出と軽減: ほとんどの AI プロセスに当てはまることですが、ツールの出力にある潜在的な欠陥や不正確さを見つけるには、ユーザー自身がタスクに習熟している必要があります。開発者は、セキュリティプロセスを効果的に見直すために、継続的なスキルアップとスキルの検証を受ける必要があります。 そして AI が生成したコードを、セキュリティの精度と信頼性をもってレビューできます。
  • セキュリティポリシーと AI ガバナンスとの連携: 開発者は承認されたツールについて周知し、スキルアップやツールへのアクセスを得る機会を与える必要があります。コミットを信頼する前に、開発者とツールの両方がセキュリティベンチマークの対象となるべきです。

最近リリースしました 研究論文 バイブコーディングとAIアシストコーディングの出現と、AIを活用した次世代のソフトウェアエンジニアを育成するために企業が取るべき措置について。今すぐチェックして、開発チームを強化するために連絡を取ってください。

リソースを表示
リソースを表示

レポートをダウンロードするには、以下のフォームに記入してください

当社の製品および/または関連するセキュアコーディングのトピックに関する情報を送信する許可をお願いします。当社は、お客様の個人情報を常に細心の注意を払って取り扱い、マーケティング目的で他社に販売することは決してありません。

送信
scw success icon
scw error icon
フォームを送信するには、「アナリティクス」クッキーを有効にしてください。設定が完了したら、再度無効にしても構いません。

AI 支援開発 (または、よりトレンディなバージョンの「バイブコーディング」) は、コード作成に大きな変革をもたらしています。定評のある開発者がこれらのツールを大量に採用しており、私たちの中で常に独自のソフトウェアを作成したいと思っていたが、関連する経験がなかった人々も、以前はコストと時間がかかりすぎていたであろう資産を構築するためにこれらのツールを活用しています。このテクノロジーはイノベーションの新時代の到来を告げると期待されていますが、セキュリティリーダーが軽減に苦労しているさまざまな新しい脆弱性とリスクプロファイルをもたらします。

A 最近の発見 InvariantLabsは、強力なAIツールが他のソフトウェアやデータベースと自律的に相互作用できるようにするAPIのようなフレームワークであるモデルコンテキストプロトコル(MCP)の重大な脆弱性を発見しました。これにより、企業にとって特に損害を与える可能性のある新しい脆弱性カテゴリである「ツールポイズニング攻撃」と呼ばれる攻撃が可能になります。WindsurfやCursorなどの主要なAIツールも例外ではありません。何百万人ものユーザーがいるため、この新たなセキュリティ問題を管理するための認識とスキルが最も重要です。

現状では、これらのツールの出力は じゃない に記載されているように、エンタープライズ対応とラベル付けできるほど一貫して安全です 最近の研究論文 AWS と Intuit のセキュリティ研究者、ヴィネス・サイ・ナラジャラとイダン・ハブラー:」AIシステムがより自律的になり、MCPなどを通じて外部ツールやリアルタイムデータと直接やり取りするようになるにつれて、それらの相互作用が安全であることを確認することが絶対に不可欠になります。。」

エージェンシーAIシステムとモデルコンテキストプロトコルのリスクプロファイル

モデルコンテキストプロトコルは便利なソフトウェアです アンソロピック社製 これにより、大規模言語モデル(LLM)AIエージェントと他のツールとのより適切でシームレスな統合が可能になります。これは強力なユースケースであり、プロプライエタリなアプリケーションと GitHub のようなビジネスに不可欠な SaaS ツールと最先端の AI ソリューションとの間で、さまざまな可能性が広がります。MCP サーバーを書くだけで、それをどのように機能させ、どのような目的で機能させたいかについてのガイドラインを設定する作業に取り掛かることができます。

MCPテクノロジーのセキュリティへの影響は、実際にはほとんどポジティブなものです。LLMとセキュリティ専門家が使用する技術スタックをより簡単に統合できるという約束は、無視できないほど魅力的であり、少なくとも各タスク用のカスタムコードを作成してデプロイしなければ、これまで不可能だったレベルでの正確なセキュリティタスクの自動化の可能性を示しています。データ、ツール、担当者間の広範囲にわたる可視性と接続性が、効果的なセキュリティ防御と計画の基本であることを考えると、MCPによって提供されるLLMの相互運用性の強化は、エンタープライズセキュリティにとって有望な展望です。

ただし、MCPを使用すると、他の脅威ベクトルが発生する可能性があり、注意深く管理しない限り企業の攻撃対象領域が大幅に拡大する可能性があります。が指摘しているように インバリアントラボ、ツールポイズニング攻撃は、AIモデルによる機密データの流出や不正アクションにつながる可能性のある新しい脆弱性カテゴリであり、そこから、セキュリティへの影響はすぐに非常に暗くなります。

InvariantLabsによると、ツールポイズニング攻撃は、ユーザーには表示されないが、AIモデルでは完全に読み取れる(実行できる)悪意のある指示がMCPツールの説明に埋め込まれている場合に可能になるとのことです。これにより、ツールはユーザーに気付かれずに不正なアクションを実行するように仕向けられます。問題は、すべてのツールの説明が信頼できるものであるというMCPの想定にあり、これは脅威アクターの耳に響きます。

彼らは、ツールが危険にさらされると次のような結果になる可能性があることを指摘しています。

  • 機密ファイル (SSH キー、設定ファイル、データベースなど) にアクセスするよう AI モデルに指示する。
  • これらの悪意のある行為が本質的に知らないユーザーから隠されている環境で、このデータを抽出して送信するようにAIに指示する。
  • ツールの引数と出力の一見シンプルな UI 表現の背後に隠れることで、ユーザーが見るものと AI モデルが実行するものとの間に断絶が生じます。

これは懸念される新たな脆弱性のカテゴリーであり、MCPの使用が避けられないほど増加するにつれて、ほぼ確実にこのカテゴリーが頻繁に見られるようになるでしょう。企業のセキュリティプログラムが進化するにつれて、この脅威を見つけて軽減するために慎重な対策を講じることになるため、開発者がソリューションに参加できるように十分な準備を整えることが重要です。

セキュリティスキルのある開発者だけがエージェント AI ツールを活用すべき理由

Agentic AIコーディングツールは、ソフトウェア開発の効率、生産性、柔軟性を向上させる機能に加えて、AI支援コーディングの次の進化と見なされています。コンテキストと意図を理解する能力が強化されているため特に便利ですが、攻撃者による即時注入、幻覚、行動操作などの脅威から免れることはできません。

開発者は良いコードコミットと悪いコードコミットの間の防衛線であり、セキュリティと批判的思考の両方のスキルを磨くことは、安全なソフトウェア開発の将来の基本となるでしょう。

AIのアウトプットは、決して盲目的に信頼して実装すべきではありません。このテクノロジーによってもたらされる生産性の向上を安全に活用できるのは、状況に応じた批判的思考を行うセキュリティスキルのある開発者です。それでも、人間の専門家がツールによって生み出された作業を評価、脅威モデル化し、最終的に承認できる、ペアプログラミング環境のような環境でなければなりません。

開発者が AI を使用してスキルを向上させ、生産性を向上させる方法の詳細をご覧ください。 ここに

実践的な緩和手法、および最新の研究論文でさらに詳しく

AIコーディングツールとMCPテクノロジーは、サイバーセキュリティの将来において重要な要素になると思われますが、状況を確認する前に深く掘り下げないことが重要です。

ナラジャラとハブラー 論文 企業レベルでMCPを実施するための包括的な緩和戦略と、そのリスクの継続的な管理について詳しく説明しています。最終的には、多層防御とゼロトラストの原則を中心に、この新しいエコシステムが企業環境にもたらす独自のリスクプロファイルを明確に対象としています。特に開発者にとっては、以下の分野における知識のギャップを埋めることが不可欠です。

  • 認証とアクセス制御: エージェント型AIツールは、人間がエンジニアリングタスクに取り組むのとほぼ同じように、問題を解決し、そのために計画された目標を達成するための自律的な意思決定を行うように機能します。しかし、すでに確立しているように、熟練した人間がこれらのプロセスを監視することは無視できないため、これらのツールをワークフローで使用する開発者は、自分がどのようなアクセス権を持っているか、どのようなデータを取得または公開する可能性があるか、どこで共有されるかを正確に把握する必要があります。
  • 一般的な脅威の検出と軽減: ほとんどの AI プロセスに当てはまることですが、ツールの出力にある潜在的な欠陥や不正確さを見つけるには、ユーザー自身がタスクに習熟している必要があります。開発者は、セキュリティプロセスを効果的に見直すために、継続的なスキルアップとスキルの検証を受ける必要があります。 そして AI が生成したコードを、セキュリティの精度と信頼性をもってレビューできます。
  • セキュリティポリシーと AI ガバナンスとの連携: 開発者は承認されたツールについて周知し、スキルアップやツールへのアクセスを得る機会を与える必要があります。コミットを信頼する前に、開発者とツールの両方がセキュリティベンチマークの対象となるべきです。

最近リリースしました 研究論文 バイブコーディングとAIアシストコーディングの出現と、AIを活用した次世代のソフトウェアエンジニアを育成するために企業が取るべき措置について。今すぐチェックして、開発チームを強化するために連絡を取ってください。

オンラインセミナーを見る
始めよう
learn more

以下のリンクをクリックして、このリソースのPDFをダウンロードしてください。

Secure Code Warriorは、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする文化を築くお手伝いをします。アプリケーションセキュリティマネージャ、開発者、CISO、またはセキュリティ関係者のいずれであっても、安全でないコードに関連するリスクを軽減するお手伝いをします。

レポートを表示デモを予約
PDF をダウンロード
リソースを表示
シェア:
linkedin brandsSocialx logo
もっと興味がありますか?

シェア:
linkedin brandsSocialx logo
著者
Pieter Danhieux
Published Jul 09, 2025

Chief Executive Officer, Chairman, and Co-Founder

Pieter Danhieux is a globally recognized security expert, with over 12 years experience as a security consultant and 8 years as a Principal Instructor for SANS teaching offensive techniques on how to target and assess organizations, systems and individuals for security weaknesses. In 2016, he was recognized as one of the Coolest Tech people in Australia (Business Insider), awarded Cyber Security Professional of the Year (AISA - Australian Information Security Association) and holds GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA certifications.

シェア:
linkedin brandsSocialx logo

AI 支援開発 (または、よりトレンディなバージョンの「バイブコーディング」) は、コード作成に大きな変革をもたらしています。定評のある開発者がこれらのツールを大量に採用しており、私たちの中で常に独自のソフトウェアを作成したいと思っていたが、関連する経験がなかった人々も、以前はコストと時間がかかりすぎていたであろう資産を構築するためにこれらのツールを活用しています。このテクノロジーはイノベーションの新時代の到来を告げると期待されていますが、セキュリティリーダーが軽減に苦労しているさまざまな新しい脆弱性とリスクプロファイルをもたらします。

A 最近の発見 InvariantLabsは、強力なAIツールが他のソフトウェアやデータベースと自律的に相互作用できるようにするAPIのようなフレームワークであるモデルコンテキストプロトコル(MCP)の重大な脆弱性を発見しました。これにより、企業にとって特に損害を与える可能性のある新しい脆弱性カテゴリである「ツールポイズニング攻撃」と呼ばれる攻撃が可能になります。WindsurfやCursorなどの主要なAIツールも例外ではありません。何百万人ものユーザーがいるため、この新たなセキュリティ問題を管理するための認識とスキルが最も重要です。

現状では、これらのツールの出力は じゃない に記載されているように、エンタープライズ対応とラベル付けできるほど一貫して安全です 最近の研究論文 AWS と Intuit のセキュリティ研究者、ヴィネス・サイ・ナラジャラとイダン・ハブラー:」AIシステムがより自律的になり、MCPなどを通じて外部ツールやリアルタイムデータと直接やり取りするようになるにつれて、それらの相互作用が安全であることを確認することが絶対に不可欠になります。。」

エージェンシーAIシステムとモデルコンテキストプロトコルのリスクプロファイル

モデルコンテキストプロトコルは便利なソフトウェアです アンソロピック社製 これにより、大規模言語モデル(LLM)AIエージェントと他のツールとのより適切でシームレスな統合が可能になります。これは強力なユースケースであり、プロプライエタリなアプリケーションと GitHub のようなビジネスに不可欠な SaaS ツールと最先端の AI ソリューションとの間で、さまざまな可能性が広がります。MCP サーバーを書くだけで、それをどのように機能させ、どのような目的で機能させたいかについてのガイドラインを設定する作業に取り掛かることができます。

MCPテクノロジーのセキュリティへの影響は、実際にはほとんどポジティブなものです。LLMとセキュリティ専門家が使用する技術スタックをより簡単に統合できるという約束は、無視できないほど魅力的であり、少なくとも各タスク用のカスタムコードを作成してデプロイしなければ、これまで不可能だったレベルでの正確なセキュリティタスクの自動化の可能性を示しています。データ、ツール、担当者間の広範囲にわたる可視性と接続性が、効果的なセキュリティ防御と計画の基本であることを考えると、MCPによって提供されるLLMの相互運用性の強化は、エンタープライズセキュリティにとって有望な展望です。

ただし、MCPを使用すると、他の脅威ベクトルが発生する可能性があり、注意深く管理しない限り企業の攻撃対象領域が大幅に拡大する可能性があります。が指摘しているように インバリアントラボ、ツールポイズニング攻撃は、AIモデルによる機密データの流出や不正アクションにつながる可能性のある新しい脆弱性カテゴリであり、そこから、セキュリティへの影響はすぐに非常に暗くなります。

InvariantLabsによると、ツールポイズニング攻撃は、ユーザーには表示されないが、AIモデルでは完全に読み取れる(実行できる)悪意のある指示がMCPツールの説明に埋め込まれている場合に可能になるとのことです。これにより、ツールはユーザーに気付かれずに不正なアクションを実行するように仕向けられます。問題は、すべてのツールの説明が信頼できるものであるというMCPの想定にあり、これは脅威アクターの耳に響きます。

彼らは、ツールが危険にさらされると次のような結果になる可能性があることを指摘しています。

  • 機密ファイル (SSH キー、設定ファイル、データベースなど) にアクセスするよう AI モデルに指示する。
  • これらの悪意のある行為が本質的に知らないユーザーから隠されている環境で、このデータを抽出して送信するようにAIに指示する。
  • ツールの引数と出力の一見シンプルな UI 表現の背後に隠れることで、ユーザーが見るものと AI モデルが実行するものとの間に断絶が生じます。

これは懸念される新たな脆弱性のカテゴリーであり、MCPの使用が避けられないほど増加するにつれて、ほぼ確実にこのカテゴリーが頻繁に見られるようになるでしょう。企業のセキュリティプログラムが進化するにつれて、この脅威を見つけて軽減するために慎重な対策を講じることになるため、開発者がソリューションに参加できるように十分な準備を整えることが重要です。

セキュリティスキルのある開発者だけがエージェント AI ツールを活用すべき理由

Agentic AIコーディングツールは、ソフトウェア開発の効率、生産性、柔軟性を向上させる機能に加えて、AI支援コーディングの次の進化と見なされています。コンテキストと意図を理解する能力が強化されているため特に便利ですが、攻撃者による即時注入、幻覚、行動操作などの脅威から免れることはできません。

開発者は良いコードコミットと悪いコードコミットの間の防衛線であり、セキュリティと批判的思考の両方のスキルを磨くことは、安全なソフトウェア開発の将来の基本となるでしょう。

AIのアウトプットは、決して盲目的に信頼して実装すべきではありません。このテクノロジーによってもたらされる生産性の向上を安全に活用できるのは、状況に応じた批判的思考を行うセキュリティスキルのある開発者です。それでも、人間の専門家がツールによって生み出された作業を評価、脅威モデル化し、最終的に承認できる、ペアプログラミング環境のような環境でなければなりません。

開発者が AI を使用してスキルを向上させ、生産性を向上させる方法の詳細をご覧ください。 ここに

実践的な緩和手法、および最新の研究論文でさらに詳しく

AIコーディングツールとMCPテクノロジーは、サイバーセキュリティの将来において重要な要素になると思われますが、状況を確認する前に深く掘り下げないことが重要です。

ナラジャラとハブラー 論文 企業レベルでMCPを実施するための包括的な緩和戦略と、そのリスクの継続的な管理について詳しく説明しています。最終的には、多層防御とゼロトラストの原則を中心に、この新しいエコシステムが企業環境にもたらす独自のリスクプロファイルを明確に対象としています。特に開発者にとっては、以下の分野における知識のギャップを埋めることが不可欠です。

  • 認証とアクセス制御: エージェント型AIツールは、人間がエンジニアリングタスクに取り組むのとほぼ同じように、問題を解決し、そのために計画された目標を達成するための自律的な意思決定を行うように機能します。しかし、すでに確立しているように、熟練した人間がこれらのプロセスを監視することは無視できないため、これらのツールをワークフローで使用する開発者は、自分がどのようなアクセス権を持っているか、どのようなデータを取得または公開する可能性があるか、どこで共有されるかを正確に把握する必要があります。
  • 一般的な脅威の検出と軽減: ほとんどの AI プロセスに当てはまることですが、ツールの出力にある潜在的な欠陥や不正確さを見つけるには、ユーザー自身がタスクに習熟している必要があります。開発者は、セキュリティプロセスを効果的に見直すために、継続的なスキルアップとスキルの検証を受ける必要があります。 そして AI が生成したコードを、セキュリティの精度と信頼性をもってレビューできます。
  • セキュリティポリシーと AI ガバナンスとの連携: 開発者は承認されたツールについて周知し、スキルアップやツールへのアクセスを得る機会を与える必要があります。コミットを信頼する前に、開発者とツールの両方がセキュリティベンチマークの対象となるべきです。

最近リリースしました 研究論文 バイブコーディングとAIアシストコーディングの出現と、AIを活用した次世代のソフトウェアエンジニアを育成するために企業が取るべき措置について。今すぐチェックして、開発チームを強化するために連絡を取ってください。

目次

PDF をダウンロード
リソースを表示
もっと興味がありますか?

Chief Executive Officer, Chairman, and Co-Founder

learn more

Secure Code Warriorは、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする文化を築くお手伝いをします。アプリケーションセキュリティマネージャ、開発者、CISO、またはセキュリティ関係者のいずれであっても、安全でないコードに関連するリスクを軽減するお手伝いをします。

デモを予約[ダウンロード]
シェア:
linkedin brandsSocialx logo
リソースハブ

始めるためのリソース

その他の投稿
リソースハブ

始めるためのリソース

その他の投稿