Salon Milipol 2025 : quelles responsabilités en cas d’erreurs commises par des systèmes IA ?

31 octobre 2025 | À la une

Temps de lecture : 2 minutes

Photo : Le problème de la responsabilité peut se poser lors d'un accident avec une Tesla (photo pixabay)

Salon Milipol 2025 : quelles responsabilités en cas d’erreurs commises par des systèmes IA ?

par | À la une

Salon Milipol 2025 : quelles responsabilités en cas d’erreurs commises par des systèmes IA ?
Il est essentiel de définir les responsabilités quand des erreurs sont commises par des systèmes IA. Aujourd’hui, trouver des responsables reste un défi complexe.

La question se pose souvent au sujet de la responsabilité suite à des erreurs commises par un système d’IA. Trois types d’acteurs humains peuvent être tenus responsables en cas de dysfonctionnement :

  • les développeurs, qui conçoivent le système
  • les fabricants, qui produisent les technologies basées sur l’IA
  • les utilisateurs, qui exploitent ces systèmes.

Lire aussi : Votre interview dans l’Essor au Salon Milipol 2025

Les acteurs peuvent être responsables

Autrement dit, si un problème lié à l’IA survient, ces acteurs humains peuvent être considérés comme responsables. Prenons l’exemple d’une voiture autonome Tesla impliquée et responsable dans un accident. Qui est alors responsable ? Est-ce le développeur de l’IA intégrée à la voiture, le fabricant (ici Tesla), ou bien l’utilisateur de cette voiture autonome ?  Dans ce genre de situation, plusieurs acteurs peuvent effectivement être impliqués.

Ces questions de responsabilité en cas d’erreurs causées par des systèmes d’IA posent un défi juridique et éthique important. L’Union européenne a instauré un cadre réglementaire avec un Règlement sur l’IA et deux directives complémentaires. Le Règlement sur l’intelligence artificielle met en place un ambitieux mécanisme de régulation. Les sanctions peuvent aller jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial pour les entreprises qui ne respecteraient pas les nouvelles règles. Cette approche a pour objectif de responsabiliser les acteurs du secteur et garantir un développement éthique des technologies d’IA. Les nouvelles directives européennes présentent des mécanismes juridiques innovants. Avec la révision de la Directive sur la responsabilité des produits défectueux, les fabricants peuvent maintenant être tenus responsables même sans faute. Quant à la Directive sur la responsabilité en matière d’IA, elle facilite l’accès aux preuves et introduit une présomption de causalité.

Lire aussi : Salon Milipol 2025 : comment l’IA dope l’efficacité du secteur de la sécurité privée

Un chantier encore important

Définir des responsabilités en cas d’erreurs de systèmes d’IA est un défi complexe. Les initiatives récentes en Europe sont une avancée importante dans la réglementation de l’IA. Néanmoins, leur application pratique pose encore de nombreuses questions, surtout en raison de la nature changeante et complexe de ces systèmes. Ce domaine nécessitera une mise à jour constante des lois, une collaboration étroite entre tous les acteurs impliqués. Enfin, une réflexion éthique approfondie sera menée pour assurer un développement responsable de l’IA dans notre société.

Lire aussi :  Votre venue au Salon Milipol 2025

Auteur / autrice

Voir aussi