Les entreprises AI-First font face à des incidents de cybersécurité plus coûteux et plus longs à résoudre. Une étude de Fastly révèle que l’adoption rapide de l’intelligence artificielle complique la défense des infrastructures et alourdit l’impact des failles.
🔥 Nous recommandons McAfee
McAfee est le meilleur logiciel de protection grâce à sa défense proactive, son pare-feu intelligent, son VPN intégré et sa détection instantanée des menaces. Sécurité totale, performance préservée, tranquillité assurée.
J'en profiteL’essor des entreprises AI-First transforme la gestion des systèmes informatiques, mais introduit aussi de nouveaux risques de cybersécurité. Une étude publiée par Fastly montre que ces organisations subissent des incidents plus coûteux et plus longs à résoudre. L’intégration massive de l’intelligence artificielle multiplie les points d’exposition et complique la supervision des infrastructures. Les équipes de sécurité doivent désormais protéger des environnements beaucoup plus complexes.
Des délais de rétablissement nettement plus longs
Le rapport Global Security Research Report révèle que les entreprises dites « AI-First » mettent en moyenne près de sept mois pour se remettre totalement d’un incident de sécurité. Ce délai dépasse d’environ 80 jours celui observé dans les organisations qui utilisent l’intelligence artificielle de manière plus limitée.
Dans un environnement numérique très dépendant de la disponibilité des services, une interruption prolongée peut rapidement provoquer des pertes financières importantes. Le coût d’un incident de cybersécurité pour ces structures dépasse celui des autres organisations de plus de 135 %. Cette différence s’explique par des interruptions plus longues, mais aussi par un volume plus élevé d’attaques via les systèmes liés à l’IA.
L’étude indique que 44 % des entreprises AI-First ont vu l’intelligence artificielle utilisée lors de leur dernier incident de sécurité. Dans les entreprises moins dépendantes de cette technologie, ce chiffre tombe à 6 %. Les systèmes d’IA introduisent en effet de nouveaux points d’entrée, notamment avec les agents automatisés et les flux de données répartis sur plusieurs environnements.
Les zones d’ombre liées au « Shadow AI »
L’intégration rapide de l’IA dans les opérations crée aussi des difficultés de supervision pour les équipes de sécurité. Plus d’un tiers des organisations AI-First interrogées déclarent que l’usage de l’intelligence artificielle a généré un angle mort dans leurs dispositifs de contrôle lors de leur dernier incident.
Ces difficultés de visibilité alimentent un phénomène souvent décrit sous le terme de « Shadow AI ». Des outils ou agents automatisés apparaissent dans les infrastructures sans suivi clair des équipes de sécurité. Dans ce cadre, il devient plus complexe d’identifier la source d’une attaque ou de comprendre l’impact réel d’un incident.
Autre sujet de préoccupation : le scraping automatisé par des robots d’IA. Cette collecte massive de données exerce une pression croissante sur les infrastructures. Selon l’étude, 64 % des entreprises interrogées considèrent désormais cette activité comme un poste de coût significatif. L’impact annuel moyen dépasse 348 000 dollars.
Des effets visibles jusque chez les utilisateurs
La pression technique liée aux usages d’IA ne reste pas confinée aux équipes informatiques. Elle se répercute aussi sur l’exploitation quotidienne des plateformes numériques.
Parmi les entreprises interrogées, 43 % signalent une hausse des dépenses d’infrastructure directement liée à l’activité IA. Près de 40 % évoquent des perturbations opérationnelles. 29 % observent des effets visibles pour les utilisateurs : ralentissements, fonctionnalités indisponibles ou expérience en ligne dégradée.
Face à ces risques, les entreprises renforcent progressivement leurs outils de défense. Les priorités identifiées incluent la visibilité sur les agents automatisés, la protection des API et le renforcement des pare-feu applicatifs. Malgré ces investissements, l’inquiétude reste élevée. Trois quarts des organisations redoutent désormais des attaques DDoS visant directement des agents d’intelligence artificielle.
Article basé sur un communiqué de presse reçu par la rédaction.