● Numerama 📅 01/04/2026 à 09:07

"Si la DSI bloque tout, ça va être pire" : comment le Shadow AI menace nos entreprises

Cybersécurité 👤 Amine Baba Aissa
Illustration
Lecture Zen Résumer l'article Le « Shadow AI », usage d'outils d'IA non approuvés par les entreprises, représente un défi croissant dans l'écosystème cyber, nécessitant une stratégie d'intégration réfléchie. Interdire les outils IA pousse les employés vers la clandestinité, dégradant la visibilité et augmentant les risques de sécurité, selon Ivan Rogissat de Zscaler. La responsabilité en cas de fuite de données dépend de l'usage et de l'autorisation des outils IA, l'entreprise devant concilier performance et sécurité des flux. Le « Shadow AI », usage d'outils d'IA non approuvés par les entreprises, représente un défi croissant dans l'écosystème cyber, nécessitant une stratégie d'intégration réfléchie. Interdire les outils IA pousse les employés vers la clandestinité, dégradant la visibilité et augmentant les risques de sécurité, selon Ivan Rogissat de Zscaler. La responsabilité en cas de fuite de données dépend de l'usage et de l'autorisation des outils IA, l'entreprise devant concilier performance et sécurité des flux. Recevez tous les soirs un résumé de l’actu importante avec Le Récap’ À l’occasion du Forum InCyber, Numerama a souhaité approfondir les discussions autour des menaces grandissantes pour les entreprises. Parmi elles, le « Shadow AI », et deux questions centrales face à ce défi : quelle stratégie adopter, et quelles responsabilités en cas de fuite de données internes ? C’est le nouveau cauchemar des DSI. Il suffit d’ailleurs de faire un tour dans les stands du Forum InCyber, qui se tient du 31 mars au 2 avril 2026 au Grand Palais à Lille, pour mesurer la place qu’a prise l’équation du Shadow AI dans l’écosystème cyber. Pour rappel, le Shadow AI est le petit frère 2.0 du Shadow IT : il désigne l’utilisation par les employés d’outils d’intelligence artificielle non approuvés par leur entreprise. Et alors que les capacités de ces solutions ne cessent de croître, que l’IA agentique se démocratise à grande vitesse, portée par des outils toujours plus accessibles au grand public, les entreprises font encore face à la question de leur bonne intégration. Comment contrôler leur usage en interne sans freiner l’appétit des employés pour des outils toujours plus prometteurs en termes de productivité ? Si le Shadow AI inquiète autant, c’est que le contexte technologique joue en sa faveur. L’IA devient omniprésente et s’intègre dans plus en plus d’outils et donc d’usages. // Source : Numerama Interdire pousse à la clandestinité Pour analyser ce phénomène, nous avons échangé avec Ivan Rogissat, expert des questions liées à la cyber-résilience chez Zscaler en France. L’objectif : appréhender la vision d’un acteur amené à structurer la cybersécurité d’une organisation. Quelle stratégie adopter ? Et où se situe la véritable responsabilité face à cette vague technologique ? Face au risque de voir des données confidentielles aspirées par des modèles grand public, la réaction instinctive de nombreuses entreprises a été, dans un premier temps, de concevoir leurs propres solutions ou, plus radical, de bloquer radicalement l’accès aux IA. Pourtant, selon l’expert, la deuxième option constitue une erreur stratégique majeure, la solution se situerait quelque part entre les deux. Faux SMS, mails frauduleux… Ne tombez plus dans le piège ! Gardez toujours une longueur d’avance sur les fraudeurs. Bitdefender Scam Protection analyse, détecte et neutralise instantanément les escroqueries qui visent votre argent. Une protection invisible mais redoutable, intégrée à Bitdefender Premium Security. Sponsorisé Je me protège contre les arnaques. « Il va falloir que les DSI s’approprient les ‘policies’ et les règles qu’elles veulent autoriser, parce que si elles bloquent tout, ça va être pire. » En effet, interdire l’outil ne fait pas disparaître le besoin : cela pousse les salariés vers la clandestinité. « Tout va partir de côté, les gens vont utiliser leurs outils à la maison, et là la visibilité sera de zéro. » La performance n’est plus négociable Mais voilà, aujourd’hui, pour bon nombre d’employés, la quête de productivité, ou la simple curiosité face à ces nouvelles technologies, prime souvent sur les règles strictes. Une effervescence qui impacte directement le choix de la solution à intégrer. Ivan Rogissat souligne que la performance est devenue non négociable : « S’il n’y a pas de performance, l’utilisateur trouvera rapidement une backdoor, c’est-à-dire une voie non officielle. » Le véritable défi cyber n’est donc pas la censure, mais la capacité à combiner maîtrise des flux et performance. À ce jeu d’équilibriste, une priorité se distingue : identifier les informations sensibles, car « malheureusement, il y a beaucoup de données qui sont aujourd’hui encore non classifiées. » Laisser ce travail de tri aux seuls salariés est toutefois trop risqué, l’utilisateur restant « malheureusement le maillon faible ». Paradoxalement, la solution pourrait résider dans l’IA elle-même pour pallier ce manque de visibilité. « Le LLM, c’est du langage, (…) donc on a l’opportunité de pouvoir auto-préclassifier un document et de flaguer les zones où il y a des risques. » Une responsabilité en fonction de l’usage Si l’interdiction est une impasse et que l’entreprise doit accepter d’encadrer l’IA, qui porte le chapeau en cas de compromission des données ? Ivan Rogissat apporte une réponse nuancée, et il convient de souligner qu’il s’agit ici d’une lecture opérationnelle, celle d’un éditeur, et non d’une analyse juridique. Si une fuite survient via une intelligence artificielle validée et déployée en interne, comme un Microsoft Copilot intégré à la suite bureautique, la faute incombe à la direction informatique. « Si j’active Copilot, j’ai la responsabilité de le sécuriser. (…) Donc c’est la DSI qui est responsable. » C’est donc à la direction d’assumer la configuration des politiques nécessaires pour empêcher l’exfiltration de données sensibles. Le constat s’inverse totalement si l’employé sort des clous. Dans un cas de Shadow AI pur, où le salarié a délibérément utilisé un outil non autorisé, la responsabilité de la fuite revient à « l’utilisateur qui a contourné les mesures de sécurité en place. » Pour la DSI, le plus dur commence : « embrasser la sécurisation de la donnée » sans renoncer à « la performance et la simplification pour l’utilisateur ». Quel est le meilleur Gestionnaire de mots de passe ? Quel gestionnaire de mots de passe est le meilleur en 2026 ? Le comparatif complet Retrouvez nos tests complets Toute l'actu tech en un clin d'œil Ajoutez Numerama à votre écran d'accueil et restez connectés au futur ! Installer Numerama Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer ! Crédit photo de la une : montage Numerama Signaler une erreur dans le texte Ne plus voir cette pub Ne plus voir cette pub cybersécurité Intelligence artificielle Numerama Plus shadow AI Entreprise Sécurité informatique B2B Intelligence artificielle Tech
← Retour