L’intelligence artificielle, pour le meilleur et pour le pire

17 mai 2024 | Cybersécurité

Temps de lecture : 2 minutes

Photo : Flickr

L’intelligence artificielle, pour le meilleur et pour le pire

par | Cybersécurité

L’intelligence artificielle promet une révolution dans la manière dont nous travaillons, interagissons et prenons des décisions. Mais elle ouvre aussi un vaste champ de possibilités aux cybercriminels.

Un rapport réalisé par BioCatch, spécialiste de la détection de la fraude numérique et de la prévention de la criminalité financière, décrit une tendance en plein essor : de plus en plus de cybercriminels utilisent l’intelligence artificielle (IA) pour améliorer la qualité, la complexité, la portée et le succès de leurs escroqueries bancaires en ligne.

Une menace évolutive et opportuniste

Ainsi, près de 70 % des 600 responsables internationaux de la gestion des fraudes, de la lutte contre le blanchiment d’argent, du risque et de la conformité interrogés dans le cadre de ce rapport constatent que les cybercriminels maîtrisent mieux l’IA pour commettre des actes délictueux que les banques pour les détecter et y mettre fin. Près de la moitié d’entre eux observent par ailleurs une augmentation de l’activité criminelle financière en 2023 et anticipent une poursuite de cette tendance en 2024.

Rien qu’en France, le coût de la cybercriminalité atteindra 120 milliards d’euros en 2024, contre 87 milliards l’an dernier (les chiffres sont de la base de données Statista). Face à une menace notoirement évolutive et opportuniste, chaque bond technologique représente donc un risque de sécurité accru. Or, la vague actuelle de l’IA conduit à une industrialisation des attaques et constitue l’une des principales préoccupations des responsables de sécurité informatique.

Des attaques perfectionnées et décuplées grâce à l’intelligence artificielle

Des vecteurs d’attaque déjà répandus sont perfectionnés grâce à l’IA générative, tels que le hameçonnage ou « phishing » et ses différentes déclinaisons (« vishing » en format vocal, « smishing » en format SMS, « qishing » en format QR Code).

L’IA permet également de décupler la puissance de frappe des cybercriminels grâce à des assauts automatisés. Par exemple, dans le cas d’une attaque de type « ransomware », la vitesse de calcul des technologies d’IA permet d’analyser en un temps record un maximum de données brutes pour viser précisément tel poste de travail ou tel utilisateur.

Mais la sophistication des attaques change aussi la donne. En 2021, une vidéo de Tom Cruise faisant disparaître une pièce de monnaie devenait virale. C’était l’un des premiers « buzz » autour d’un deepfake, cette technique de synthèse multimédia pouvant servir à superposer des fichiers vidéo ou audio existants sur d’autres fichiers vidéo ou audio. Des vidéos et des audios plus vrais que nature. En atteste cette récente fraude au président dans une entreprise de Hong Kong. Selon l’AFP, un employé a reçu « des appels par vidéoconférence de quelqu’un se faisant passer pour le directeur financier de son entreprise lui demandant de transférer de l’argent vers des comptes bancaires désignés ». Quelque 200 millions de dollars de Hong Kong (26 millions de dollars américains) ont ainsi été détournés.

Registre :

Auteur / autrice

La Lettre Conflits

La newsletter de l’Essor de la Sécurité

Voir aussi