2026

L'état de l'IA dans la sécurité et le développement

Notre nouveau rapport recueille les voix de 450 responsables de la sécurité (RSSI ou équivalent), développeurs et ingénieurs AppSec à travers l'Europe et les États-Unis. Ensemble, ils révèlent comment l'IA dans la cybersécurité et le développement de logiciels est déjà en train de tout casser, comment la prolifération des outils aggrave la sécurité et comment l'expérience des développeurs est directement liée aux taux d'incidents. C'est là que la vitesse et la sécurité entrent en collision en 2026.

Principaux résultats

01

Adoption de l'IA

1 sur 5 a subi un incident grave lié au code IA

"Alors que les organisations se battent pour tirer parti des avantages de l'IA, il y a souvent une bataille associée cachée qui se déroule, et c'est de garder leur organisation à l'abri d'une augmentation du risque cybernétique que l'IA présente. Le rôle du RSSI est de s'assurer que la posture de sécurité évolue aussi rapidement que la technologie."

Christelle Heikkilä
Ancien CIO/CISO, Arsenal FC

53% blâment l'équipe de sécurité pour les incidents liés au code de l'IA

Q. Si une vulnérabilité introduite par un code GenAI provoquait ultérieurement un incident de sécurité, qui en serait tenu pour responsable au sein de votre organisation ? Sélectionnez toutes les réponses qui s'appliquent

"Il y a clairement un manque de clarté parmi les personnes interrogées en ce qui concerne la responsabilité d'une bonne gestion des risques.

Andy Boura
CISO, Rothesay
02

Expérience des développeurs

15 %
du temps des ingénieurs est perdu à trier les alertes

Cela représente 20 millions de dollars par an pour une organisation de 1000 développeurs.

$ gaspillés en faux positifs
Le reste est gaspillé en triage

Estimation du coût annuel du temps consacré par les développeurs au triage

$720k
$3.6m
$14.4m

2/3 des personnes interrogées contournent les mesures de sécurité, rejettent les conclusions ou retardent les corrections.

44%
37%
35%
34%
32%
22%
Q : Comment le traitement des faux positifs par les outils de sécurité a-t-il affecté vos pratiques de développement ? Sélectionnez toutes les réponses qui s'appliquent.

"Lorsque les outils de sécurité submergent les développeurs de bruits, ils s'orientent vers des solutions de contournement risquées. Nous visons à rétablir l'équilibre en supprimant les faux positifs, en renforçant les garde-fous et en améliorant l'expérience des développeurs, afin que les équipes puissent se concentrer sur ce qui compte vraiment"

Darshit Pandya
Ingénieur principal senior - Plateforme, Serko

Les outils conçus pour les équipes de développement et de sécurité ont enregistré beaucoup moins d'incidents.

Les équipes utilisant des outils conçus à la fois pour les développeurs et les équipes de sécurité étaient plus de deux fois plus susceptibles de signaler zéro incident que celles utilisant des outils conçus pour un seul groupe.

"Donner aux développeurs le bon outil de sécurité qui fonctionne avec les outils et les flux de travail existants permet aux équipes de mettre en œuvre les meilleures pratiques de sécurité et d'améliorer leur position.

Walid Mahmoud
Responsable DevSecOps, Bureau du Cabinet britannique

La réalité de la sécurité

03

"Il est un peu ironique que l'industrie parle tant du remplacement des personnes par l'IA, mais dans le domaine de la sécurité, nous nous inquiétons beaucoup plus de ne pas avoir suffisamment de personnes chargées de la sécurité"

Igor Andriushchenko,
RSSI, Lovable

Les équipes qui utilisent des outils AppSec et CloudSec distincts sont 50 % plus susceptibles de faire face à des incidents.

"Il est clair que nous devons combiner nos programmes AppSec et Cloud Security en une seule équipe de sécurité des produits. Pour les entreprises où l'infrastructure est définie comme du code, la sécurité du cloud est fondamentalement la sécurité du code, et elle permet d'obtenir de meilleurs résultats."

James Berthoty
Fondateur, Latio Tech

L'avenir de l'IA

96% pensent que l'IA écrira un code sûr et fiable

Dans un délai de 1 à 2 ans
20%
3-5 ans
44%
24%
6-10 ans
+10 ans
8%
4%
jamais
Mais seulement 21 % pensent qu'il n'y aura pas de contrôle humain.

9 organisations sur 10 s'attendent à ce que l'IA prenne le relais des tests de pénétration, avec un délai moyen de 5,5 ans.

Organisations 9/10

Si vous travaillez dans le domaine de la sécurité des logiciels, vous devez lire ce document.