Dans une expérience surprenante, des chercheurs en cybersécurité ont démontré la vulnérabilité d’un agent IA créé via Microsoft Copilot Studio. En quelques minutes seulement, ils ont réussi à pirater cet agent et à accéder à des données sensibles, révélant ainsi une faille majeure dans un système prometteur mais dangereux.
L’essentiel à retenir
Microsoft Copilot Studio offre la possibilité de créer des agents IA sans nécessiter de compétences en programmation. Cette accessibilité attire les entreprises désireuses de simplifier le développement d’outils numériques. Cependant, l’absence de véritables barrières techniques peut transformer ces créations en menaces pour la sécurité des données.
Le cas étudié par les chercheurs de Tenable Research démontre comment un simple agent de réservation de voyages peut devenir une passerelle pour accéder à des informations confidentielles, en raison de la nature textuelle des garde-fous implémentés.
Les chercheurs ont utilisé une méthode baptisée « injection de prompt » pour exploiter l’agent IA. En intégrant des instructions cachées dans des requêtes apparemment innocentes, ils ont réussi à contourner les restrictions de l’agent. Cette technique a permis de dévoiler l’ensemble des capacités de l’agent et d’accéder à des données sensibles, comme les numéros de cartes bancaires des clients.
La manipulation des fonctionnalités de l’agent, telles que la modification des réservations, a permis de tromper le système sans déclencher aucune alerte, soulignant l’importance de barrières techniques robustes plutôt que de simples instructions textuelles.
Pour renforcer la sécurité des agents IA créés avec des plateformes no-code, Tenable Research propose plusieurs mesures. Il est crucial de vérifier les accès de l’agent aux systèmes, d’isoler les informations sensibles et de bloquer toute modification non autorisée des données critiques, comme les prix et les informations bancaires.
En outre, la surveillance continue des activités de l’agent et l’enregistrement de toutes les requêtes peuvent aider à identifier les tentatives d’intrusion, telles que celles utilisant l’injection de prompt. Ces précautions sont essentielles pour prévenir les fuites de données et garantir la conformité aux normes de sécurité.
Microsoft Copilot Studio représente une avancée dans le développement d’agents conversationnels IA, rendant la création de tels outils accessible à un plus grand nombre. Cependant, cette simplicité d’utilisation s’accompagne de risques, notamment en matière de sécurité des données.
En permettant à des utilisateurs sans formation technique de créer des agents puissants, Microsoft ouvre la porte à des vulnérabilités potentielles. Les entreprises doivent être conscientes de ces dangers et prendre les mesures nécessaires pour protéger leurs informations sensibles et celles de leurs clients.