Questions fréquentes
Les interrogations les plus courantes en comité de direction et en comité sécurité.
Qu'est-ce qu'une attaque par prompt injection ?
Une prompt injection consiste à insérer des instructions malveillantes dans les données que l'agent va traiter (email entrant, document uploadé, page web scrapée, ticket CRM). L'agent les interprète comme des instructions légitimes de son propriétaire, et exécute des actions non autorisées : exfiltration de données, envoi d'emails, modification de tickets. C'est l'équivalent pour les LLM de ce que SQL injection est aux bases de données.
Les serveurs MCP sont-ils dangereux par nature ?
Non, mais ils démultiplient le périmètre d'un agent compromis. Un serveur MCP donne au LLM l'accès à vos outils internes (GitHub, base PostgreSQL, Slack, systèmes métier). Une prompt injection réussie sur un agent connecté à 8 serveurs MCP = 8 portes ouvertes simultanément. Il faut auditer chaque connecteur, isoler les permissions (principe du moindre privilège), journaliser les requêtes, et appliquer un Zero Trust adapté aux agents.
Que dit concrètement l'EU AI Act sur la sécurité ?
L'AI Act (Règlement UE 2024/1689) classe les systèmes IA par niveau de risque. Pour les systèmes à haut risque (RH, crédit, éducation, infrastructure critique, etc.), il impose : système de gestion des risques (art. 9), cybersécurité appropriée (art. 15), journalisation automatique des événements (art. 12), robustesse contre les attaques adverses, supervision humaine (art. 14). Les sanctions vont jusqu'à 35 M€ ou 7 % du CA mondial. Obligations échelonnées entre 2025 et 2027.
Notre IA est hébergée chez OpenAI / Anthropic — est-ce plus sûr ?
Héberger le modèle chez un fournisseur cloud réputé couvre la sécurité du modèle, pas celle de votre usage. Vos prompts système, vos serveurs MCP, vos connecteurs, vos données RAG, votre chaîne d'intégration et vos permissions applicatives restent votre responsabilité — et constituent 90 % de la surface d'attaque réelle. Un audit reste indispensable, même sur LLM managé.
Combien de temps dure une mission de sécurisation IA ?
Cartographie + évaluation des risques : 2 à 3 semaines. Red team IA complète : 3 à 5 semaines. Hardening et mise en place du monitoring : 4 à 8 semaines. Une mission de bout en bout se déroule sur 2 à 4 mois selon le périmètre. Nous pouvons également intervenir en urgence (incident, suspicion de prompt injection exploitée, audit pré-production) sous 72 h.
Faites-vous aussi la création d'agents IA ?
Oui, via notre expertise croisée : My Trust Partner sécurise, et nous concevons avec des agents IA pour la cybersécurité (SOC, pentest, compliance), ainsi que des dashboards de pilotage orchestrant vos outils via MCP. Pour les agents métiers hors cyber, nous travaillons avec notre partenaire My IA Partner.