
Quand les bons outils tournent mal : empoisonnement des outils d'IA et comment empêcher votre IA d'agir en tant qu'agent double
Le développement assisté par l'IA (ou, dans sa version la plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leurs propres logiciels mais qui n'ont pas l'expérience requise en tirent également parti pour créer des actifs qui, auparavant, auraient été prohibitifs en termes de coûts et de temps. Bien que cette technologie promet d'inaugurer une nouvelle ère d'innovation, elle introduit toute une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.
UNE découverte récente by InvariantLabs a découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un framework de type API permettant à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a surnommé les « attaques par empoisonnement des outils », une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement dommageable pour les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences nécessaires pour gérer ce problème de sécurité émergent sont primordiales.
Dans l'état actuel des choses, le résultat de ces outils est pas suffisamment sécurisés pour les étiqueter comme étant prêts à être utilisés en entreprise, comme indiqué dans un article de recherche récent de Vineeth Sai Narajala et Idan Habler, chercheurs en sécurité chez AWS et Intuit : »À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel via des outils tels que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »
Les systèmes d'IA agentic et le profil de risque du Model Context Protocol
Le Model Context Protocol est un logiciel pratique. construit par Anthropic qui permet une intégration meilleure et plus fluide entre les agents IA LLM (Large Language Model) et les autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise tels que GitHub, en interaction avec des solutions d'IA de pointe. Écrivez simplement un serveur MCP et commencez à définir les directives concernant la façon dont vous souhaitez qu'il fonctionne et dans quel but.
Les implications de la technologie MCP en matière de sécurité sont en fait essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la technologie utilisée par les professionnels de la sécurité est trop alléchante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par MCP représente une perspective intéressante pour la sécurité des entreprises, étant donné qu'une visibilité et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces de la sécurité.
Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces possibles, élargissant considérablement la surface d'attaque des entreprises à moins d'être gérée avec soin. Comme l'a noté Laboratoires invariants, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilité qui peut entraîner l'exfiltration de données sensibles et des actions non autorisées de la part de modèles d'IA. À partir de là, les implications en matière de sécurité s'estompent très rapidement.
InvariantLabs note qu'une attaque par empoisonnement d'outils est rendue possible lorsque des instructions malveillantes sont intégrées dans les descriptions des outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer de mauvaises actions non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui est de la musique pour les acteurs de la menace.
Ils notent les conséquences possibles d'un outil compromis :
- Diriger les modèles d'IA pour accéder à des fichiers sensibles (tels que des clés SSH, des fichiers de configuration, des bases de données, etc.) ;
- Demander à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement cachées à l'utilisateur non averti ;
- Créez un décalage entre ce que l'utilisateur voit et ce que fait le modèle d'IA en vous cachant derrière des représentations d'interface utilisateur d'une simplicité trompeuse des arguments et des sorties des outils.
Il s'agit d'une catégorie de vulnérabilité émergente préoccupante, que nous verrons certainement de plus en plus fréquemment à mesure que la croissance inévitable de l'utilisation des MCP se poursuit. Il faudra prendre des mesures minutieuses pour détecter et atténuer cette menace au fur et à mesure de l'évolution des programmes de sécurité de l'entreprise, et il est essentiel de préparer correctement les développeurs à participer à la solution.
Pourquoi seuls les développeurs compétents en matière de sécurité devraient tirer parti des outils d'IA agentiques
Les outils de codage Agentic AI sont considérés comme la prochaine évolution du codage assisté par l'IA, car ils renforcent leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et les intentions les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que les injections rapides, les hallucinations ou la manipulation du comportement de la part des attaquants.
Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera fondamental de maintenir à la fois les compétences en matière de sécurité et de pensée critique à l'avenir du développement de logiciels sécurisés.
Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs expérimentés en matière de sécurité qui appliquent une pensée contextuelle et critique qui peuvent tirer parti en toute sécurité des gains de productivité offerts par cette technologie. Néanmoins, il doit s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est capable d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil.
Découvrez comment les développeurs peuvent améliorer leurs compétences et augmenter leur productivité grâce à l'IA ici.
Techniques d'atténuation pratiques et lectures complémentaires dans notre dernier article de recherche
Les outils de codage basés sur l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas nous y plonger avant de vérifier le terrain.
Narajala et Habler papier détaille les stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il est centré sur les principes de défense en profondeur et de confiance zéro, ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à un environnement d'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :
- Authentification et contrôle d'accès: Les outils d'IA agentic permettent de résoudre des problèmes et de prendre des décisions autonomes pour atteindre les objectifs qui leur ont été fixés, de la même manière qu'un humain aborderait les tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine qualifiée de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels accès ils ont, quelles données ils récupèrent ou sont susceptibles d'exposer, et où elles peuvent être partagées.
- Détection et atténuation générales des menaces: Comme c'est le cas pour la plupart des processus d'IA, pour détecter les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit maîtriser lui-même la tâche. Les développeurs doivent bénéficier d'une mise à niveau et d'une vérification continues de ces compétences afin de revoir efficacement les processus de sécurité et examinez le code généré par l'IA avec précision et autorité en matière de sécurité.
- Harmonisation avec la politique de sécurité et la gouvernance de l'IA: Les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'y accéder. Le développeur et l'outil doivent tous deux être soumis à une analyse comparative de sécurité avant que les commits ne soient approuvés.
Nous avons récemment publié un document de recherche sur l'émergence du codage par vibration et du codage assisté par l'IA, et sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels alimentés par l'IA. Découvrez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.
Chief Executive Officer, Chairman, and Co-Founder

Secure Code Warrior est là pour aider votre organisation à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité informatique ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Réservez une démoChief Executive Officer, Chairman, and Co-Founder
Pieter Danhieux is a globally recognized security expert, with over 12 years experience as a security consultant and 8 years as a Principal Instructor for SANS teaching offensive techniques on how to target and assess organizations, systems and individuals for security weaknesses. In 2016, he was recognized as one of the Coolest Tech people in Australia (Business Insider), awarded Cyber Security Professional of the Year (AISA - Australian Information Security Association) and holds GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA certifications.


Le développement assisté par l'IA (ou, dans sa version la plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leurs propres logiciels mais qui n'ont pas l'expérience requise en tirent également parti pour créer des actifs qui, auparavant, auraient été prohibitifs en termes de coûts et de temps. Bien que cette technologie promet d'inaugurer une nouvelle ère d'innovation, elle introduit toute une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.
UNE découverte récente by InvariantLabs a découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un framework de type API permettant à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a surnommé les « attaques par empoisonnement des outils », une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement dommageable pour les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences nécessaires pour gérer ce problème de sécurité émergent sont primordiales.
Dans l'état actuel des choses, le résultat de ces outils est pas suffisamment sécurisés pour les étiqueter comme étant prêts à être utilisés en entreprise, comme indiqué dans un article de recherche récent de Vineeth Sai Narajala et Idan Habler, chercheurs en sécurité chez AWS et Intuit : »À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel via des outils tels que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »
Les systèmes d'IA agentic et le profil de risque du Model Context Protocol
Le Model Context Protocol est un logiciel pratique. construit par Anthropic qui permet une intégration meilleure et plus fluide entre les agents IA LLM (Large Language Model) et les autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise tels que GitHub, en interaction avec des solutions d'IA de pointe. Écrivez simplement un serveur MCP et commencez à définir les directives concernant la façon dont vous souhaitez qu'il fonctionne et dans quel but.
Les implications de la technologie MCP en matière de sécurité sont en fait essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la technologie utilisée par les professionnels de la sécurité est trop alléchante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par MCP représente une perspective intéressante pour la sécurité des entreprises, étant donné qu'une visibilité et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces de la sécurité.
Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces possibles, élargissant considérablement la surface d'attaque des entreprises à moins d'être gérée avec soin. Comme l'a noté Laboratoires invariants, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilité qui peut entraîner l'exfiltration de données sensibles et des actions non autorisées de la part de modèles d'IA. À partir de là, les implications en matière de sécurité s'estompent très rapidement.
InvariantLabs note qu'une attaque par empoisonnement d'outils est rendue possible lorsque des instructions malveillantes sont intégrées dans les descriptions des outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer de mauvaises actions non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui est de la musique pour les acteurs de la menace.
Ils notent les conséquences possibles d'un outil compromis :
- Diriger les modèles d'IA pour accéder à des fichiers sensibles (tels que des clés SSH, des fichiers de configuration, des bases de données, etc.) ;
- Demander à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement cachées à l'utilisateur non averti ;
- Créez un décalage entre ce que l'utilisateur voit et ce que fait le modèle d'IA en vous cachant derrière des représentations d'interface utilisateur d'une simplicité trompeuse des arguments et des sorties des outils.
Il s'agit d'une catégorie de vulnérabilité émergente préoccupante, que nous verrons certainement de plus en plus fréquemment à mesure que la croissance inévitable de l'utilisation des MCP se poursuit. Il faudra prendre des mesures minutieuses pour détecter et atténuer cette menace au fur et à mesure de l'évolution des programmes de sécurité de l'entreprise, et il est essentiel de préparer correctement les développeurs à participer à la solution.
Pourquoi seuls les développeurs compétents en matière de sécurité devraient tirer parti des outils d'IA agentiques
Les outils de codage Agentic AI sont considérés comme la prochaine évolution du codage assisté par l'IA, car ils renforcent leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et les intentions les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que les injections rapides, les hallucinations ou la manipulation du comportement de la part des attaquants.
Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera fondamental de maintenir à la fois les compétences en matière de sécurité et de pensée critique à l'avenir du développement de logiciels sécurisés.
Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs expérimentés en matière de sécurité qui appliquent une pensée contextuelle et critique qui peuvent tirer parti en toute sécurité des gains de productivité offerts par cette technologie. Néanmoins, il doit s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est capable d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil.
Découvrez comment les développeurs peuvent améliorer leurs compétences et augmenter leur productivité grâce à l'IA ici.
Techniques d'atténuation pratiques et lectures complémentaires dans notre dernier article de recherche
Les outils de codage basés sur l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas nous y plonger avant de vérifier le terrain.
Narajala et Habler papier détaille les stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il est centré sur les principes de défense en profondeur et de confiance zéro, ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à un environnement d'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :
- Authentification et contrôle d'accès: Les outils d'IA agentic permettent de résoudre des problèmes et de prendre des décisions autonomes pour atteindre les objectifs qui leur ont été fixés, de la même manière qu'un humain aborderait les tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine qualifiée de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels accès ils ont, quelles données ils récupèrent ou sont susceptibles d'exposer, et où elles peuvent être partagées.
- Détection et atténuation générales des menaces: Comme c'est le cas pour la plupart des processus d'IA, pour détecter les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit maîtriser lui-même la tâche. Les développeurs doivent bénéficier d'une mise à niveau et d'une vérification continues de ces compétences afin de revoir efficacement les processus de sécurité et examinez le code généré par l'IA avec précision et autorité en matière de sécurité.
- Harmonisation avec la politique de sécurité et la gouvernance de l'IA: Les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'y accéder. Le développeur et l'outil doivent tous deux être soumis à une analyse comparative de sécurité avant que les commits ne soient approuvés.
Nous avons récemment publié un document de recherche sur l'émergence du codage par vibration et du codage assisté par l'IA, et sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels alimentés par l'IA. Découvrez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.

Le développement assisté par l'IA (ou, dans sa version la plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leurs propres logiciels mais qui n'ont pas l'expérience requise en tirent également parti pour créer des actifs qui, auparavant, auraient été prohibitifs en termes de coûts et de temps. Bien que cette technologie promet d'inaugurer une nouvelle ère d'innovation, elle introduit toute une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.
UNE découverte récente by InvariantLabs a découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un framework de type API permettant à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a surnommé les « attaques par empoisonnement des outils », une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement dommageable pour les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences nécessaires pour gérer ce problème de sécurité émergent sont primordiales.
Dans l'état actuel des choses, le résultat de ces outils est pas suffisamment sécurisés pour les étiqueter comme étant prêts à être utilisés en entreprise, comme indiqué dans un article de recherche récent de Vineeth Sai Narajala et Idan Habler, chercheurs en sécurité chez AWS et Intuit : »À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel via des outils tels que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »
Les systèmes d'IA agentic et le profil de risque du Model Context Protocol
Le Model Context Protocol est un logiciel pratique. construit par Anthropic qui permet une intégration meilleure et plus fluide entre les agents IA LLM (Large Language Model) et les autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise tels que GitHub, en interaction avec des solutions d'IA de pointe. Écrivez simplement un serveur MCP et commencez à définir les directives concernant la façon dont vous souhaitez qu'il fonctionne et dans quel but.
Les implications de la technologie MCP en matière de sécurité sont en fait essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la technologie utilisée par les professionnels de la sécurité est trop alléchante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par MCP représente une perspective intéressante pour la sécurité des entreprises, étant donné qu'une visibilité et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces de la sécurité.
Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces possibles, élargissant considérablement la surface d'attaque des entreprises à moins d'être gérée avec soin. Comme l'a noté Laboratoires invariants, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilité qui peut entraîner l'exfiltration de données sensibles et des actions non autorisées de la part de modèles d'IA. À partir de là, les implications en matière de sécurité s'estompent très rapidement.
InvariantLabs note qu'une attaque par empoisonnement d'outils est rendue possible lorsque des instructions malveillantes sont intégrées dans les descriptions des outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer de mauvaises actions non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui est de la musique pour les acteurs de la menace.
Ils notent les conséquences possibles d'un outil compromis :
- Diriger les modèles d'IA pour accéder à des fichiers sensibles (tels que des clés SSH, des fichiers de configuration, des bases de données, etc.) ;
- Demander à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement cachées à l'utilisateur non averti ;
- Créez un décalage entre ce que l'utilisateur voit et ce que fait le modèle d'IA en vous cachant derrière des représentations d'interface utilisateur d'une simplicité trompeuse des arguments et des sorties des outils.
Il s'agit d'une catégorie de vulnérabilité émergente préoccupante, que nous verrons certainement de plus en plus fréquemment à mesure que la croissance inévitable de l'utilisation des MCP se poursuit. Il faudra prendre des mesures minutieuses pour détecter et atténuer cette menace au fur et à mesure de l'évolution des programmes de sécurité de l'entreprise, et il est essentiel de préparer correctement les développeurs à participer à la solution.
Pourquoi seuls les développeurs compétents en matière de sécurité devraient tirer parti des outils d'IA agentiques
Les outils de codage Agentic AI sont considérés comme la prochaine évolution du codage assisté par l'IA, car ils renforcent leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et les intentions les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que les injections rapides, les hallucinations ou la manipulation du comportement de la part des attaquants.
Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera fondamental de maintenir à la fois les compétences en matière de sécurité et de pensée critique à l'avenir du développement de logiciels sécurisés.
Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs expérimentés en matière de sécurité qui appliquent une pensée contextuelle et critique qui peuvent tirer parti en toute sécurité des gains de productivité offerts par cette technologie. Néanmoins, il doit s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est capable d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil.
Découvrez comment les développeurs peuvent améliorer leurs compétences et augmenter leur productivité grâce à l'IA ici.
Techniques d'atténuation pratiques et lectures complémentaires dans notre dernier article de recherche
Les outils de codage basés sur l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas nous y plonger avant de vérifier le terrain.
Narajala et Habler papier détaille les stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il est centré sur les principes de défense en profondeur et de confiance zéro, ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à un environnement d'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :
- Authentification et contrôle d'accès: Les outils d'IA agentic permettent de résoudre des problèmes et de prendre des décisions autonomes pour atteindre les objectifs qui leur ont été fixés, de la même manière qu'un humain aborderait les tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine qualifiée de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels accès ils ont, quelles données ils récupèrent ou sont susceptibles d'exposer, et où elles peuvent être partagées.
- Détection et atténuation générales des menaces: Comme c'est le cas pour la plupart des processus d'IA, pour détecter les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit maîtriser lui-même la tâche. Les développeurs doivent bénéficier d'une mise à niveau et d'une vérification continues de ces compétences afin de revoir efficacement les processus de sécurité et examinez le code généré par l'IA avec précision et autorité en matière de sécurité.
- Harmonisation avec la politique de sécurité et la gouvernance de l'IA: Les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'y accéder. Le développeur et l'outil doivent tous deux être soumis à une analyse comparative de sécurité avant que les commits ne soient approuvés.
Nous avons récemment publié un document de recherche sur l'émergence du codage par vibration et du codage assisté par l'IA, et sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels alimentés par l'IA. Découvrez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.

Cliquez sur le lien ci-dessous et téléchargez le PDF de cette ressource.
Secure Code Warrior est là pour aider votre organisation à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité informatique ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Afficher le rapportRéservez une démoChief Executive Officer, Chairman, and Co-Founder
Pieter Danhieux is a globally recognized security expert, with over 12 years experience as a security consultant and 8 years as a Principal Instructor for SANS teaching offensive techniques on how to target and assess organizations, systems and individuals for security weaknesses. In 2016, he was recognized as one of the Coolest Tech people in Australia (Business Insider), awarded Cyber Security Professional of the Year (AISA - Australian Information Security Association) and holds GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA certifications.
Le développement assisté par l'IA (ou, dans sa version la plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leurs propres logiciels mais qui n'ont pas l'expérience requise en tirent également parti pour créer des actifs qui, auparavant, auraient été prohibitifs en termes de coûts et de temps. Bien que cette technologie promet d'inaugurer une nouvelle ère d'innovation, elle introduit toute une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.
UNE découverte récente by InvariantLabs a découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un framework de type API permettant à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a surnommé les « attaques par empoisonnement des outils », une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement dommageable pour les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences nécessaires pour gérer ce problème de sécurité émergent sont primordiales.
Dans l'état actuel des choses, le résultat de ces outils est pas suffisamment sécurisés pour les étiqueter comme étant prêts à être utilisés en entreprise, comme indiqué dans un article de recherche récent de Vineeth Sai Narajala et Idan Habler, chercheurs en sécurité chez AWS et Intuit : »À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel via des outils tels que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »
Les systèmes d'IA agentic et le profil de risque du Model Context Protocol
Le Model Context Protocol est un logiciel pratique. construit par Anthropic qui permet une intégration meilleure et plus fluide entre les agents IA LLM (Large Language Model) et les autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise tels que GitHub, en interaction avec des solutions d'IA de pointe. Écrivez simplement un serveur MCP et commencez à définir les directives concernant la façon dont vous souhaitez qu'il fonctionne et dans quel but.
Les implications de la technologie MCP en matière de sécurité sont en fait essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la technologie utilisée par les professionnels de la sécurité est trop alléchante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par MCP représente une perspective intéressante pour la sécurité des entreprises, étant donné qu'une visibilité et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces de la sécurité.
Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces possibles, élargissant considérablement la surface d'attaque des entreprises à moins d'être gérée avec soin. Comme l'a noté Laboratoires invariants, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilité qui peut entraîner l'exfiltration de données sensibles et des actions non autorisées de la part de modèles d'IA. À partir de là, les implications en matière de sécurité s'estompent très rapidement.
InvariantLabs note qu'une attaque par empoisonnement d'outils est rendue possible lorsque des instructions malveillantes sont intégrées dans les descriptions des outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer de mauvaises actions non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui est de la musique pour les acteurs de la menace.
Ils notent les conséquences possibles d'un outil compromis :
- Diriger les modèles d'IA pour accéder à des fichiers sensibles (tels que des clés SSH, des fichiers de configuration, des bases de données, etc.) ;
- Demander à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement cachées à l'utilisateur non averti ;
- Créez un décalage entre ce que l'utilisateur voit et ce que fait le modèle d'IA en vous cachant derrière des représentations d'interface utilisateur d'une simplicité trompeuse des arguments et des sorties des outils.
Il s'agit d'une catégorie de vulnérabilité émergente préoccupante, que nous verrons certainement de plus en plus fréquemment à mesure que la croissance inévitable de l'utilisation des MCP se poursuit. Il faudra prendre des mesures minutieuses pour détecter et atténuer cette menace au fur et à mesure de l'évolution des programmes de sécurité de l'entreprise, et il est essentiel de préparer correctement les développeurs à participer à la solution.
Pourquoi seuls les développeurs compétents en matière de sécurité devraient tirer parti des outils d'IA agentiques
Les outils de codage Agentic AI sont considérés comme la prochaine évolution du codage assisté par l'IA, car ils renforcent leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et les intentions les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que les injections rapides, les hallucinations ou la manipulation du comportement de la part des attaquants.
Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera fondamental de maintenir à la fois les compétences en matière de sécurité et de pensée critique à l'avenir du développement de logiciels sécurisés.
Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs expérimentés en matière de sécurité qui appliquent une pensée contextuelle et critique qui peuvent tirer parti en toute sécurité des gains de productivité offerts par cette technologie. Néanmoins, il doit s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est capable d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil.
Découvrez comment les développeurs peuvent améliorer leurs compétences et augmenter leur productivité grâce à l'IA ici.
Techniques d'atténuation pratiques et lectures complémentaires dans notre dernier article de recherche
Les outils de codage basés sur l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas nous y plonger avant de vérifier le terrain.
Narajala et Habler papier détaille les stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il est centré sur les principes de défense en profondeur et de confiance zéro, ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à un environnement d'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :
- Authentification et contrôle d'accès: Les outils d'IA agentic permettent de résoudre des problèmes et de prendre des décisions autonomes pour atteindre les objectifs qui leur ont été fixés, de la même manière qu'un humain aborderait les tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine qualifiée de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels accès ils ont, quelles données ils récupèrent ou sont susceptibles d'exposer, et où elles peuvent être partagées.
- Détection et atténuation générales des menaces: Comme c'est le cas pour la plupart des processus d'IA, pour détecter les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit maîtriser lui-même la tâche. Les développeurs doivent bénéficier d'une mise à niveau et d'une vérification continues de ces compétences afin de revoir efficacement les processus de sécurité et examinez le code généré par l'IA avec précision et autorité en matière de sécurité.
- Harmonisation avec la politique de sécurité et la gouvernance de l'IA: Les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'y accéder. Le développeur et l'outil doivent tous deux être soumis à une analyse comparative de sécurité avant que les commits ne soient approuvés.
Nous avons récemment publié un document de recherche sur l'émergence du codage par vibration et du codage assisté par l'IA, et sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels alimentés par l'IA. Découvrez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.
Table des matières
Chief Executive Officer, Chairman, and Co-Founder

Secure Code Warrior est là pour aider votre organisation à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité informatique ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Réservez une démoTéléchargerRessources pour vous aider à démarrer
Sujets et contenus de formation sur le code sécurisé
Notre contenu de pointe évolue constamment pour s'adapter à l'évolution constante du paysage du développement de logiciels tout en tenant compte de votre rôle. Des sujets couvrant tout, de l'IA à l'injection XQuery, proposés pour une variété de postes, allant des architectes aux ingénieurs en passant par les chefs de produit et l'assurance qualité. Découvrez un aperçu de ce que notre catalogue de contenu a à offrir par sujet et par rôle.
Threat Modeling with AI: Turning Every Developer into a Threat Modeler
Walk away better equipped to help developers combine threat modeling ideas and techniques with the AI tools they're already using to strengthen security, improve collaboration, and build more resilient software from the start.
Ressources pour vous aider à démarrer
Cybermon est de retour : les missions d'IA Beat the Boss sont désormais disponibles à la demande
Cybermon 2025 Beat the Boss est désormais disponible toute l'année dans SCW. Déployez des défis de sécurité avancés liés à l'IA et au LLM pour renforcer le développement sécurisé de l'IA à grande échelle.
Explication de la loi sur la cyberrésilience : ce que cela signifie pour le développement de logiciels sécurisés dès la conception
Découvrez ce que la loi européenne sur la cyberrésilience (CRA) exige, à qui elle s'applique et comment les équipes d'ingénieurs peuvent se préparer grâce à des pratiques de sécurité dès la conception, à la prévention des vulnérabilités et au renforcement des capacités des développeurs.
Facilitateur 1 : Critères de réussite définis et mesurables
Enabler 1 donne le coup d'envoi de notre série en 10 parties intitulée Enablers of Success en montrant comment associer le codage sécurisé à des résultats commerciaux tels que la réduction des risques et la rapidité pour assurer la maturité à long terme des programmes.




%20(1).avif)
.avif)
