Skip to content
Cybersécurité

GenAI et Shadow IT : la nouvelle menace pour votre surface d'attaque externe

ChatGPT, Copilot, Gemini… Vos collaborateurs utilisent des outils GenAI sans validation IT. Chaque outil non référencé est un actif exposé que les attaquants peuvent exploiter. Découvrez comment l'EASM détecte ces nouvelles zones d'ombre.

Sarah Mansouri
Sarah Mansouri
3 février 20256 min
GenAI et Shadow IT : la nouvelle menace pour votre surface d'attaque externe

GenAI et Shadow IT : la nouvelle menace invisible pour votre surface d'attaque

Depuis 2023, l'adoption des outils d'intelligence artificielle générative (GenAI) en entreprise a explosé. ChatGPT, GitHub Copilot, Gemini, Mistral, Claude… Ces outils transforment la productivité — mais ils créent aussi une nouvelle catégorie de Shadow IT que les équipes sécurité peinent à cartographier.

Qu'est-ce que le Shadow IT GenAI ?

Le Shadow IT GenAI désigne l'ensemble des outils d'IA générative utilisés par les employés sans validation, sans inventaire et sans encadrement de la DSI. Contrairement au Shadow IT traditionnel (applications SaaS non référencées), le Shadow IT GenAI présente des risques supplémentaires :

  • Exfiltration de données sensibles : des prompts contenant des données clients, du code propriétaire ou des informations financières sont envoyés à des serveurs tiers
  • Surface d'attaque élargie : chaque compte créé sur une plateforme externe est un actif exposé avec des credentials potentiellement compromettables
  • Conformité RGPD : les données traitées hors UE peuvent violer les obligations réglementaires

Les chiffres qui alertent

  • 65 % des employés utilisent des outils GenAI non approuvés au travail (source : Gartner 2024)
  • 38 % des entreprises ont constaté des fuites de données liées à l'usage non contrôlé de LLMs
  • Le nombre d'outils GenAI disponibles a dépassé 1 000 applications en 2024

Comment les attaquants exploitent le Shadow IT GenAI

1. Compromission de comptes sur des plateformes tierces

Un employé crée un compte ChatGPT avec son adresse email professionnelle et un mot de passe réutilisé. Si cette plateforme subit une fuite de données, les credentials peuvent être utilisés pour attaquer l'entreprise.

2. Plugins et intégrations non sécurisées

De nombreux outils GenAI proposent des plugins qui se connectent directement à vos systèmes : Google Drive, Slack, Notion, GitHub. Une mauvaise configuration peut exposer des données internes.

3. Modèles fine-tunés sur des données sensibles

Certaines équipes uploadent des datasets propriétaires pour fine-tuner des modèles. Ces datasets peuvent être stockés sur des serveurs tiers sans chiffrement adéquat.

Comment l'EASM détecte le Shadow IT GenAI

Une solution EASM moderne comme Breach Atlas peut :

  1. Découvrir les sous-domaines et applications GenAI reliés à votre domaine principal via les enregistrements DNS et les certificats SSL
  2. Identifier les intégrations OAuth non autorisées qui connectent des outils IA à vos systèmes
  3. Surveiller les fuites de credentials sur les bases de données publiques liées aux plateformes GenAI
  4. Cartographier les APIs exposées utilisées par des agents IA tiers

Bonnes pratiques pour maîtriser le risque GenAI

ActionPrioritéImpact
Inventorier tous les outils GenAI utilisés🔴 CritiqueVisibilité complète
Définir une politique d'usage acceptable🔴 CritiqueConformité
Mettre en place un portail IA approuvé🟠 HauteRéduction Shadow IT
Scanner les intégrations OAuth régulièrement🟠 HauteRéduction surface
Former les équipes aux risques GenAI🟡 MoyenneSensibilisation

Conclusion

Le Shadow IT GenAI est la prochaine frontière de la gestion de la surface d'attaque externe. Les organisations qui n'intègrent pas cette dimension dans leur programme EASM dès 2025 s'exposent à des risques croissants de fuite de données et de compromission. L'EASM n'est plus seulement une question d'infrastructure — c'est aussi une question d'usages.

Mots-clés associés : EASM GenAI, Shadow IT intelligence artificielle, sécurité ChatGPT entreprise, surface d'attaque IA, gestion risques GenAI