
当好工具变坏时:AI 工具中毒,以及如何阻止你的 AI 充当双重间谍
人工智能辅助开发(或更流行的版本,“氛围编码”)正在对代码创建产生巨大的变革性影响。成熟的开发人员正在成群结队地采用这些工具,而我们当中那些一直想创建自己的软件但缺乏相关经验的人也在利用它们来构建以前成本和时间都过高的资产。尽管这项技术有望开创一个新的创新时代,但它引入了一系列新的漏洞和风险概况,安全领导者正在努力缓解这些漏洞和风险状况。
一个 最近的发现 InvariantLabs在模型上下文协议(MCP)中发现了一个关键漏洞,该协议是一个类似API的框架,允许强大的人工智能工具与其他软件和数据库自主交互,允许进行所谓的 “工具中毒攻击”,这是一个新的漏洞类别,可能对企业造成特别大的损害。主要的人工智能工具,例如Windsurf和Cursor,也无法幸免,对于数百万用户,管理这一新出现的安全问题的意识和技能至关重要。
就目前而言,这些工具的输出是 不 始终足够安全,足以将它们标记为企业就绪,如上所述 最近的研究论文 来自 AWS 和 Intuit 安全研究人员 Vineeth Sai Narajala 和 Idan Habler:”随着人工智能系统变得更加自主并开始通过诸如MCP之类的东西直接与外部工具和实时数据进行交互,确保这些交互的安全变得绝对必不可少。”
代理人工智能系统和模型上下文协议的风险概况
模型上下文协议是一款方便的软件 由 Anthropic 建造 这允许在大型语言模型 (LLM) AI 代理和其他工具之间实现更好、更无缝的集成。这是一个强大的用例,在专有应用程序和GitHub等关键业务SaaS工具之间开辟了一个充满可能性的世界,可与尖端的人工智能解决方案进行交互。只需编写一个 MCP 服务器,然后开始就你希望它如何运行以及达到什么目的制定指导方针。
事实上,MCP 技术对安全的影响大多是积极的。LLM 与安全专业人员使用的技术堆栈之间实现更直接集成的承诺太诱人了,不容忽视,这代表了在以前不可能实现的级别上实现精确安全任务自动化的可能性,至少在没有为每项任务编写和部署自定义代码的情况下是如此。鉴于数据、工具和人员之间的深远可见性和连通性是有效的安全防御和规划的基础,MCP增强了LLM的互操作性,为企业安全带来了令人兴奋的前景。
但是,使用 MCP 可能会引入其他可能的威胁载体,除非谨慎管理,否则会显著扩大企业攻击面。正如所指出的 不变实验室,工具中毒攻击代表了一个新的漏洞类别,它可能导致 AI 模型泄露敏感数据和未经授权的操作,从那以后,安全隐患很快就会变得非常暗淡。
InvariantLabs 指出,当恶意指令嵌入在 MCP 工具描述中时,用户无法看到,但可以完全被 AI 模型读取(和执行),则工具中毒攻击成为可能。这会诱使该工具在用户不知情的情况下执行未经授权的不良操作。问题在于 MCP 的假设,即所有工具描述都值得信赖,这对威胁行为者来说简直是天作之合。
他们注意到受损工具可能产生的以下结果:
- 指示 AI 模型访问敏感文件(如 SSH 密钥、配置文件、数据库等);
- 指示 AI 在对不知情的用户隐瞒这些恶意行为的环境中提取和传输这些数据;
- 通过隐藏在看似简单的工具参数和输出的用户界面表示形式后面,在用户看到的内容与 AI 模型的操作之间建立脱节。
这是一个令人担忧的紧急漏洞类别,随着 MCP 使用量的不可避免地持续增长,我们几乎肯定会更频繁地看到这个漏洞类别。随着企业安全计划的发展,它将采取谨慎的行动来发现和缓解这种威胁,而让开发人员做好充分准备以参与解决方案是关键。
为什么只有具备安全技能的开发人员才能利用代理人工智能工具
Agentic AI 编码工具被认为是人工智能辅助编码的下一次演变,增加了它们在软件开发中提高效率、生产力和灵活性的能力。它们理解背景和意图的能力得到增强,因此特别有用,但它们无法免受攻击者的即时注入、幻觉或行为操纵等威胁。
开发人员是代码提交好坏之间的防线,保持敏锐的安全和批判性思维能力将是未来安全软件开发的基础。
决不能盲目信任地实现人工智能输出,只有具备安全技能的开发人员运用情境的批判性思维,才能安全地利用这项技术带来的生产力提高。尽管如此,它必须处于配对编程环境中,人类专家能够评估、威胁建模并最终批准该工具所做的工作。
详细了解开发人员如何通过 AI 提高技能和提高工作效率 这里。
实用的缓解技术,以及我们最新的研究论文中的更多内容
人工智能编码工具和 MCP 技术必将成为未来网络安全的重要因素,但至关重要的是,我们在检查水域之前不要潜水。
Narajala 和 Habler's 纸 详细说明了在企业层面实施MCP的全面缓解策略及其风险的持续管理。最终,它以深度防御和零信任原则为中心,明确针对这一新生态系统为企业环境带来的独特风险状况。特别是对于开发人员而言,填补以下领域的知识空白至关重要:
- 身份验证和访问控制:Agentic AI 工具的功能是解决问题并做出自主决策,以实现为他们制定的目标,这与人类处理工程任务的方式大致相同。但是,正如我们已经确定的那样,对这些流程进行熟练的人工监督不容忽视,在工作流程中使用这些工具的开发人员必须确切地了解他们拥有哪些访问权限、他们检索或可能暴露的数据,以及可以在哪里共享这些数据。
- 一般威胁检测和缓解:与大多数人工智能流程一样,要发现工具输出中的潜在缺陷和不准确之处,用户必须自己精通任务。开发人员必须接受持续的技能提升和对这些技能的验证,才能有效地审查安全流程 和 以安全精度和权威性审查 AI 生成的代码。
- 与安全政策和 AI 治理保持一致:应让开发人员了解经批准的工具,并有机会提高技能并获得使用权限。在信任提交之前,开发人员和工具都应接受安全基准测试。
我们最近发布了一个 研究论文 关于氛围编码和人工智能辅助编码的出现,以及企业为提升下一代人工智能驱动的软件工程师而必须采取的措施。立即查看并联系我们,强化您的开发队伍。
Chief Executive Officer, Chairman, and Co-Founder

Secure Code Warrior可以帮助您的组织在整个软件开发生命周期中保护代码,并营造一种将网络安全放在首位的文化。无论您是 AppSec 经理、开发人员、首席信息安全官还是任何与安全相关的人,我们都可以帮助您的组织降低与不安全代码相关的风险。
预订演示Chief Executive Officer, Chairman, and Co-Founder
Pieter Danhieux is a globally recognized security expert, with over 12 years experience as a security consultant and 8 years as a Principal Instructor for SANS teaching offensive techniques on how to target and assess organizations, systems and individuals for security weaknesses. In 2016, he was recognized as one of the Coolest Tech people in Australia (Business Insider), awarded Cyber Security Professional of the Year (AISA - Australian Information Security Association) and holds GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA certifications.


人工智能辅助开发(或更流行的版本,“氛围编码”)正在对代码创建产生巨大的变革性影响。成熟的开发人员正在成群结队地采用这些工具,而我们当中那些一直想创建自己的软件但缺乏相关经验的人也在利用它们来构建以前成本和时间都过高的资产。尽管这项技术有望开创一个新的创新时代,但它引入了一系列新的漏洞和风险概况,安全领导者正在努力缓解这些漏洞和风险状况。
一个 最近的发现 InvariantLabs在模型上下文协议(MCP)中发现了一个关键漏洞,该协议是一个类似API的框架,允许强大的人工智能工具与其他软件和数据库自主交互,允许进行所谓的 “工具中毒攻击”,这是一个新的漏洞类别,可能对企业造成特别大的损害。主要的人工智能工具,例如Windsurf和Cursor,也无法幸免,对于数百万用户,管理这一新出现的安全问题的意识和技能至关重要。
就目前而言,这些工具的输出是 不 始终足够安全,足以将它们标记为企业就绪,如上所述 最近的研究论文 来自 AWS 和 Intuit 安全研究人员 Vineeth Sai Narajala 和 Idan Habler:”随着人工智能系统变得更加自主并开始通过诸如MCP之类的东西直接与外部工具和实时数据进行交互,确保这些交互的安全变得绝对必不可少。”
代理人工智能系统和模型上下文协议的风险概况
模型上下文协议是一款方便的软件 由 Anthropic 建造 这允许在大型语言模型 (LLM) AI 代理和其他工具之间实现更好、更无缝的集成。这是一个强大的用例,在专有应用程序和GitHub等关键业务SaaS工具之间开辟了一个充满可能性的世界,可与尖端的人工智能解决方案进行交互。只需编写一个 MCP 服务器,然后开始就你希望它如何运行以及达到什么目的制定指导方针。
事实上,MCP 技术对安全的影响大多是积极的。LLM 与安全专业人员使用的技术堆栈之间实现更直接集成的承诺太诱人了,不容忽视,这代表了在以前不可能实现的级别上实现精确安全任务自动化的可能性,至少在没有为每项任务编写和部署自定义代码的情况下是如此。鉴于数据、工具和人员之间的深远可见性和连通性是有效的安全防御和规划的基础,MCP增强了LLM的互操作性,为企业安全带来了令人兴奋的前景。
但是,使用 MCP 可能会引入其他可能的威胁载体,除非谨慎管理,否则会显著扩大企业攻击面。正如所指出的 不变实验室,工具中毒攻击代表了一个新的漏洞类别,它可能导致 AI 模型泄露敏感数据和未经授权的操作,从那以后,安全隐患很快就会变得非常暗淡。
InvariantLabs 指出,当恶意指令嵌入在 MCP 工具描述中时,用户无法看到,但可以完全被 AI 模型读取(和执行),则工具中毒攻击成为可能。这会诱使该工具在用户不知情的情况下执行未经授权的不良操作。问题在于 MCP 的假设,即所有工具描述都值得信赖,这对威胁行为者来说简直是天作之合。
他们注意到受损工具可能产生的以下结果:
- 指示 AI 模型访问敏感文件(如 SSH 密钥、配置文件、数据库等);
- 指示 AI 在对不知情的用户隐瞒这些恶意行为的环境中提取和传输这些数据;
- 通过隐藏在看似简单的工具参数和输出的用户界面表示形式后面,在用户看到的内容与 AI 模型的操作之间建立脱节。
这是一个令人担忧的紧急漏洞类别,随着 MCP 使用量的不可避免地持续增长,我们几乎肯定会更频繁地看到这个漏洞类别。随着企业安全计划的发展,它将采取谨慎的行动来发现和缓解这种威胁,而让开发人员做好充分准备以参与解决方案是关键。
为什么只有具备安全技能的开发人员才能利用代理人工智能工具
Agentic AI 编码工具被认为是人工智能辅助编码的下一次演变,增加了它们在软件开发中提高效率、生产力和灵活性的能力。它们理解背景和意图的能力得到增强,因此特别有用,但它们无法免受攻击者的即时注入、幻觉或行为操纵等威胁。
开发人员是代码提交好坏之间的防线,保持敏锐的安全和批判性思维能力将是未来安全软件开发的基础。
决不能盲目信任地实现人工智能输出,只有具备安全技能的开发人员运用情境的批判性思维,才能安全地利用这项技术带来的生产力提高。尽管如此,它必须处于配对编程环境中,人类专家能够评估、威胁建模并最终批准该工具所做的工作。
详细了解开发人员如何通过 AI 提高技能和提高工作效率 这里。
实用的缓解技术,以及我们最新的研究论文中的更多内容
人工智能编码工具和 MCP 技术必将成为未来网络安全的重要因素,但至关重要的是,我们在检查水域之前不要潜水。
Narajala 和 Habler's 纸 详细说明了在企业层面实施MCP的全面缓解策略及其风险的持续管理。最终,它以深度防御和零信任原则为中心,明确针对这一新生态系统为企业环境带来的独特风险状况。特别是对于开发人员而言,填补以下领域的知识空白至关重要:
- 身份验证和访问控制:Agentic AI 工具的功能是解决问题并做出自主决策,以实现为他们制定的目标,这与人类处理工程任务的方式大致相同。但是,正如我们已经确定的那样,对这些流程进行熟练的人工监督不容忽视,在工作流程中使用这些工具的开发人员必须确切地了解他们拥有哪些访问权限、他们检索或可能暴露的数据,以及可以在哪里共享这些数据。
- 一般威胁检测和缓解:与大多数人工智能流程一样,要发现工具输出中的潜在缺陷和不准确之处,用户必须自己精通任务。开发人员必须接受持续的技能提升和对这些技能的验证,才能有效地审查安全流程 和 以安全精度和权威性审查 AI 生成的代码。
- 与安全政策和 AI 治理保持一致:应让开发人员了解经批准的工具,并有机会提高技能并获得使用权限。在信任提交之前,开发人员和工具都应接受安全基准测试。
我们最近发布了一个 研究论文 关于氛围编码和人工智能辅助编码的出现,以及企业为提升下一代人工智能驱动的软件工程师而必须采取的措施。立即查看并联系我们,强化您的开发队伍。

人工智能辅助开发(或更流行的版本,“氛围编码”)正在对代码创建产生巨大的变革性影响。成熟的开发人员正在成群结队地采用这些工具,而我们当中那些一直想创建自己的软件但缺乏相关经验的人也在利用它们来构建以前成本和时间都过高的资产。尽管这项技术有望开创一个新的创新时代,但它引入了一系列新的漏洞和风险概况,安全领导者正在努力缓解这些漏洞和风险状况。
一个 最近的发现 InvariantLabs在模型上下文协议(MCP)中发现了一个关键漏洞,该协议是一个类似API的框架,允许强大的人工智能工具与其他软件和数据库自主交互,允许进行所谓的 “工具中毒攻击”,这是一个新的漏洞类别,可能对企业造成特别大的损害。主要的人工智能工具,例如Windsurf和Cursor,也无法幸免,对于数百万用户,管理这一新出现的安全问题的意识和技能至关重要。
就目前而言,这些工具的输出是 不 始终足够安全,足以将它们标记为企业就绪,如上所述 最近的研究论文 来自 AWS 和 Intuit 安全研究人员 Vineeth Sai Narajala 和 Idan Habler:”随着人工智能系统变得更加自主并开始通过诸如MCP之类的东西直接与外部工具和实时数据进行交互,确保这些交互的安全变得绝对必不可少。”
代理人工智能系统和模型上下文协议的风险概况
模型上下文协议是一款方便的软件 由 Anthropic 建造 这允许在大型语言模型 (LLM) AI 代理和其他工具之间实现更好、更无缝的集成。这是一个强大的用例,在专有应用程序和GitHub等关键业务SaaS工具之间开辟了一个充满可能性的世界,可与尖端的人工智能解决方案进行交互。只需编写一个 MCP 服务器,然后开始就你希望它如何运行以及达到什么目的制定指导方针。
事实上,MCP 技术对安全的影响大多是积极的。LLM 与安全专业人员使用的技术堆栈之间实现更直接集成的承诺太诱人了,不容忽视,这代表了在以前不可能实现的级别上实现精确安全任务自动化的可能性,至少在没有为每项任务编写和部署自定义代码的情况下是如此。鉴于数据、工具和人员之间的深远可见性和连通性是有效的安全防御和规划的基础,MCP增强了LLM的互操作性,为企业安全带来了令人兴奋的前景。
但是,使用 MCP 可能会引入其他可能的威胁载体,除非谨慎管理,否则会显著扩大企业攻击面。正如所指出的 不变实验室,工具中毒攻击代表了一个新的漏洞类别,它可能导致 AI 模型泄露敏感数据和未经授权的操作,从那以后,安全隐患很快就会变得非常暗淡。
InvariantLabs 指出,当恶意指令嵌入在 MCP 工具描述中时,用户无法看到,但可以完全被 AI 模型读取(和执行),则工具中毒攻击成为可能。这会诱使该工具在用户不知情的情况下执行未经授权的不良操作。问题在于 MCP 的假设,即所有工具描述都值得信赖,这对威胁行为者来说简直是天作之合。
他们注意到受损工具可能产生的以下结果:
- 指示 AI 模型访问敏感文件(如 SSH 密钥、配置文件、数据库等);
- 指示 AI 在对不知情的用户隐瞒这些恶意行为的环境中提取和传输这些数据;
- 通过隐藏在看似简单的工具参数和输出的用户界面表示形式后面,在用户看到的内容与 AI 模型的操作之间建立脱节。
这是一个令人担忧的紧急漏洞类别,随着 MCP 使用量的不可避免地持续增长,我们几乎肯定会更频繁地看到这个漏洞类别。随着企业安全计划的发展,它将采取谨慎的行动来发现和缓解这种威胁,而让开发人员做好充分准备以参与解决方案是关键。
为什么只有具备安全技能的开发人员才能利用代理人工智能工具
Agentic AI 编码工具被认为是人工智能辅助编码的下一次演变,增加了它们在软件开发中提高效率、生产力和灵活性的能力。它们理解背景和意图的能力得到增强,因此特别有用,但它们无法免受攻击者的即时注入、幻觉或行为操纵等威胁。
开发人员是代码提交好坏之间的防线,保持敏锐的安全和批判性思维能力将是未来安全软件开发的基础。
决不能盲目信任地实现人工智能输出,只有具备安全技能的开发人员运用情境的批判性思维,才能安全地利用这项技术带来的生产力提高。尽管如此,它必须处于配对编程环境中,人类专家能够评估、威胁建模并最终批准该工具所做的工作。
详细了解开发人员如何通过 AI 提高技能和提高工作效率 这里。
实用的缓解技术,以及我们最新的研究论文中的更多内容
人工智能编码工具和 MCP 技术必将成为未来网络安全的重要因素,但至关重要的是,我们在检查水域之前不要潜水。
Narajala 和 Habler's 纸 详细说明了在企业层面实施MCP的全面缓解策略及其风险的持续管理。最终,它以深度防御和零信任原则为中心,明确针对这一新生态系统为企业环境带来的独特风险状况。特别是对于开发人员而言,填补以下领域的知识空白至关重要:
- 身份验证和访问控制:Agentic AI 工具的功能是解决问题并做出自主决策,以实现为他们制定的目标,这与人类处理工程任务的方式大致相同。但是,正如我们已经确定的那样,对这些流程进行熟练的人工监督不容忽视,在工作流程中使用这些工具的开发人员必须确切地了解他们拥有哪些访问权限、他们检索或可能暴露的数据,以及可以在哪里共享这些数据。
- 一般威胁检测和缓解:与大多数人工智能流程一样,要发现工具输出中的潜在缺陷和不准确之处,用户必须自己精通任务。开发人员必须接受持续的技能提升和对这些技能的验证,才能有效地审查安全流程 和 以安全精度和权威性审查 AI 生成的代码。
- 与安全政策和 AI 治理保持一致:应让开发人员了解经批准的工具,并有机会提高技能并获得使用权限。在信任提交之前,开发人员和工具都应接受安全基准测试。
我们最近发布了一个 研究论文 关于氛围编码和人工智能辅助编码的出现,以及企业为提升下一代人工智能驱动的软件工程师而必须采取的措施。立即查看并联系我们,强化您的开发队伍。

点击下面的链接并下载此资源的PDF。
Secure Code Warrior可以帮助您的组织在整个软件开发生命周期中保护代码,并营造一种将网络安全放在首位的文化。无论您是 AppSec 经理、开发人员、首席信息安全官还是任何与安全相关的人,我们都可以帮助您的组织降低与不安全代码相关的风险。
查看报告预订演示Chief Executive Officer, Chairman, and Co-Founder
Pieter Danhieux is a globally recognized security expert, with over 12 years experience as a security consultant and 8 years as a Principal Instructor for SANS teaching offensive techniques on how to target and assess organizations, systems and individuals for security weaknesses. In 2016, he was recognized as one of the Coolest Tech people in Australia (Business Insider), awarded Cyber Security Professional of the Year (AISA - Australian Information Security Association) and holds GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA certifications.
人工智能辅助开发(或更流行的版本,“氛围编码”)正在对代码创建产生巨大的变革性影响。成熟的开发人员正在成群结队地采用这些工具,而我们当中那些一直想创建自己的软件但缺乏相关经验的人也在利用它们来构建以前成本和时间都过高的资产。尽管这项技术有望开创一个新的创新时代,但它引入了一系列新的漏洞和风险概况,安全领导者正在努力缓解这些漏洞和风险状况。
一个 最近的发现 InvariantLabs在模型上下文协议(MCP)中发现了一个关键漏洞,该协议是一个类似API的框架,允许强大的人工智能工具与其他软件和数据库自主交互,允许进行所谓的 “工具中毒攻击”,这是一个新的漏洞类别,可能对企业造成特别大的损害。主要的人工智能工具,例如Windsurf和Cursor,也无法幸免,对于数百万用户,管理这一新出现的安全问题的意识和技能至关重要。
就目前而言,这些工具的输出是 不 始终足够安全,足以将它们标记为企业就绪,如上所述 最近的研究论文 来自 AWS 和 Intuit 安全研究人员 Vineeth Sai Narajala 和 Idan Habler:”随着人工智能系统变得更加自主并开始通过诸如MCP之类的东西直接与外部工具和实时数据进行交互,确保这些交互的安全变得绝对必不可少。”
代理人工智能系统和模型上下文协议的风险概况
模型上下文协议是一款方便的软件 由 Anthropic 建造 这允许在大型语言模型 (LLM) AI 代理和其他工具之间实现更好、更无缝的集成。这是一个强大的用例,在专有应用程序和GitHub等关键业务SaaS工具之间开辟了一个充满可能性的世界,可与尖端的人工智能解决方案进行交互。只需编写一个 MCP 服务器,然后开始就你希望它如何运行以及达到什么目的制定指导方针。
事实上,MCP 技术对安全的影响大多是积极的。LLM 与安全专业人员使用的技术堆栈之间实现更直接集成的承诺太诱人了,不容忽视,这代表了在以前不可能实现的级别上实现精确安全任务自动化的可能性,至少在没有为每项任务编写和部署自定义代码的情况下是如此。鉴于数据、工具和人员之间的深远可见性和连通性是有效的安全防御和规划的基础,MCP增强了LLM的互操作性,为企业安全带来了令人兴奋的前景。
但是,使用 MCP 可能会引入其他可能的威胁载体,除非谨慎管理,否则会显著扩大企业攻击面。正如所指出的 不变实验室,工具中毒攻击代表了一个新的漏洞类别,它可能导致 AI 模型泄露敏感数据和未经授权的操作,从那以后,安全隐患很快就会变得非常暗淡。
InvariantLabs 指出,当恶意指令嵌入在 MCP 工具描述中时,用户无法看到,但可以完全被 AI 模型读取(和执行),则工具中毒攻击成为可能。这会诱使该工具在用户不知情的情况下执行未经授权的不良操作。问题在于 MCP 的假设,即所有工具描述都值得信赖,这对威胁行为者来说简直是天作之合。
他们注意到受损工具可能产生的以下结果:
- 指示 AI 模型访问敏感文件(如 SSH 密钥、配置文件、数据库等);
- 指示 AI 在对不知情的用户隐瞒这些恶意行为的环境中提取和传输这些数据;
- 通过隐藏在看似简单的工具参数和输出的用户界面表示形式后面,在用户看到的内容与 AI 模型的操作之间建立脱节。
这是一个令人担忧的紧急漏洞类别,随着 MCP 使用量的不可避免地持续增长,我们几乎肯定会更频繁地看到这个漏洞类别。随着企业安全计划的发展,它将采取谨慎的行动来发现和缓解这种威胁,而让开发人员做好充分准备以参与解决方案是关键。
为什么只有具备安全技能的开发人员才能利用代理人工智能工具
Agentic AI 编码工具被认为是人工智能辅助编码的下一次演变,增加了它们在软件开发中提高效率、生产力和灵活性的能力。它们理解背景和意图的能力得到增强,因此特别有用,但它们无法免受攻击者的即时注入、幻觉或行为操纵等威胁。
开发人员是代码提交好坏之间的防线,保持敏锐的安全和批判性思维能力将是未来安全软件开发的基础。
决不能盲目信任地实现人工智能输出,只有具备安全技能的开发人员运用情境的批判性思维,才能安全地利用这项技术带来的生产力提高。尽管如此,它必须处于配对编程环境中,人类专家能够评估、威胁建模并最终批准该工具所做的工作。
详细了解开发人员如何通过 AI 提高技能和提高工作效率 这里。
实用的缓解技术,以及我们最新的研究论文中的更多内容
人工智能编码工具和 MCP 技术必将成为未来网络安全的重要因素,但至关重要的是,我们在检查水域之前不要潜水。
Narajala 和 Habler's 纸 详细说明了在企业层面实施MCP的全面缓解策略及其风险的持续管理。最终,它以深度防御和零信任原则为中心,明确针对这一新生态系统为企业环境带来的独特风险状况。特别是对于开发人员而言,填补以下领域的知识空白至关重要:
- 身份验证和访问控制:Agentic AI 工具的功能是解决问题并做出自主决策,以实现为他们制定的目标,这与人类处理工程任务的方式大致相同。但是,正如我们已经确定的那样,对这些流程进行熟练的人工监督不容忽视,在工作流程中使用这些工具的开发人员必须确切地了解他们拥有哪些访问权限、他们检索或可能暴露的数据,以及可以在哪里共享这些数据。
- 一般威胁检测和缓解:与大多数人工智能流程一样,要发现工具输出中的潜在缺陷和不准确之处,用户必须自己精通任务。开发人员必须接受持续的技能提升和对这些技能的验证,才能有效地审查安全流程 和 以安全精度和权威性审查 AI 生成的代码。
- 与安全政策和 AI 治理保持一致:应让开发人员了解经批准的工具,并有机会提高技能并获得使用权限。在信任提交之前,开发人员和工具都应接受安全基准测试。
我们最近发布了一个 研究论文 关于氛围编码和人工智能辅助编码的出现,以及企业为提升下一代人工智能驱动的软件工程师而必须采取的措施。立即查看并联系我们,强化您的开发队伍。
帮助您入门的资源
Threat Modeling with AI: Turning Every Developer into a Threat Modeler
Walk away better equipped to help developers combine threat modeling ideas and techniques with the AI tools they're already using to strengthen security, improve collaboration, and build more resilient software from the start.




%20(1).avif)
.avif)
