Depuis le début des années 2000, l’intelligence artificielle est entrée progressivement dans les dispositifs de cybersécurité. Mais l’arrivée massive de l’IA générative en 2022, popularisée par des modèles tels que GPT-3.5, a profondément bouleversé ce secteur. Un article récemment publié sur le portail de l’IE, fait le point sur les forces et les faiblesses de cette petite révolution.
Des capacités de détection renforcées
Aujourd’hui, grâce au machine learning et plus particulièrement à l’analyse comportementale (UEBA), il est devenu possible de détecter des anomalies et des menaces avant même qu’une attaque ne soit déclenchée. Résultat : des délais d’intervention raccourcis, une gestion optimisée des alertes, et surtout moins de faux positifs, libérant ainsi les analystes de tâches répétitives et chronophages. Certaines IA avancées, comme Big Sleep, sont même capables de repérer de façon autonome des vulnérabilités techniques complexes, renforçant encore leur rôle clé face à la forte augmentation des risques (+30 % de vulnérabilités répertoriées entre 2023 et mi-2024).
Une technologie puissante, mais vulnérable
Toutefois, l’article met en garde : l’IA reste vulnérable aux biais algorithmiques, aux erreurs (« hallucinations ») et aux attaques détournant ses capacités : génération de malwares via des outils comme WormGPT, hameçonnage personnalisé à grande échelle, création de deepfakes vocaux ou visuels… Des groupes nord-coréens, iraniens ou chinois ont utilisé ces techniques pour infiltrer des entreprises ou voler des données, parfois via des faux profils LinkedIn ou des sites frauduleux indétectables. Face à cette menace hybride, seule l’IA semble capable de détecter des attaques elles-mêmes générées par IA. Des systèmes de détection comportementale ou d’analyse contextuelle sont désormais capables d’identifier des virus polymorphes, deepfakes, ou tentatives de fraude grâce à des anomalies invisibles à l’œil nu.
Lire aussi sur L’Essor de la Sécurité : Microsoft mise sur l’IA pour pallier la pénurie de talents en cybersécurité
La maîtrise de ces outils pose toutefois une question géopolitique, souligne le portail de l’IE. De fait, de nombreux modèles d’IA sont hébergés à l’étranger et soumis à des lois comme le Cloud Act américain ou aux lois de censure chinoise. La France tente de se démarquer grâce à des acteurs nationaux tels que Gatewatcher, Tehtris ou encore Mistral AI, cette dernière offrant un modèle souverain compatible avec le RGPD européen. Une stratégie locale et autonome jugée essentielle pour préserver la sécurité et l’indépendance technologique de l’Europe.