La DGSI alerte sur les dérives de l’IA

13 janvier 2026 | À la une, Renseignement

Temps de lecture : 2 minutes

Photo : La DGSI alerte les entreprises sur les risques liés à l’IA (intelligence artificielle).

La DGSI alerte sur les dérives de l’IA

par | À la une, Renseignement

A l’occasion d’un récent « Flash ingérence », la Direction générale de la Sécurité intérieure (DGSI) a décidé de révéler plusieurs cas réels vécus par des entreprises françaises au sujet des risques liés à l’IA (Intelligence artificielle).

La DGSI alerte sur les données confidentielles

La DGSI cite un premier cas de figure assez parlant : l’utilisation des outils de traduction en ligne. Dans une entreprise, des salariés avaient pris le réflexe d’y copier-coller des contrats, des notes internes. Le tout est souvent réalité sans en parler à leur direction. Ce geste semble anodin, mais, en réalité, il a suffi à exposer des données sensibles à l’extérieur de l’entreprise.

La DGSI met en garde : la plupart de ces outils, OpenAI en tête, se nourrissent des informations que leur fournissent les utilisateurs pour entraîner leurs algorithmes. Les données peuvent donc se retrouver sur des serveurs basés à l’étranger, soumis à d’autres lois. Le problème : le mal est souvent déjà fait. Même si une direction réagit vite en mettant en place des règles internes, il est déjà trop tard pour effacer les informations qui ont été partagées.

Des probabilités et pas d’informations fiables

Dans le second cas, la DGSI cite le cas d’une entreprise française en pleine expansion. Cette société s’est appuyée sur une IA pour évaluer ses partenaires commerciaux. L’outil se chargeait d’analyser des points essentiels comme leur solvabilité, leur réputation et les éventuels risques juridiques. Pris par le temps et ne comprenant pas bien les limites de l’outil, personne n’a rien vérifié. Les décisions ont été prises en se fiant aveuglément aux recommandations de l’IA.

Pour la DGSI, une telle dépendance est un problème : elle fait baisser la garde et perdre la main sur des choix stratégiques. Surtout que les IA ne se basent que sur des probabilités.

Deepfakes et escroqueries

Enfin, la DGSI évoque une tentative d’escroquerie qui fait froid dans le dos. Le directeur d’un site industriel a reçu un appel en visio de celui qu’il pensait être son PDG. Tout y était : le visage, la voix, l’intonation… l’illusion était parfaite. Heureusement, quand on lui a demandé de faire un virement en urgence, il a commencé à avoir des doutes. Après une rapide vérification, l’escroquerie a été découverte : c’était bien un deepfake créé par une IA.

Auteur / autrice

Voir aussi