La CNIL, l’Arcom et la DGCCRF arrivent en première ligne afin de faire face aux défis que pose l’intelligence artificielle.
L’Europe vient enfin de franchir le pas en matière d’encadrement de l’IA, avec l’entrée en vigueur récente de son nouveau règlement. En France, le dispositif administratif reste, sans surprise, un véritable casse-tête. Le texte, dévoilé au public le 9 septembre 2025, révèle un découpage des compétences entre douze autorités différentes. Les intentions sont claires : surveiller de près les systèmes d’IA considérés comme à haut risque, tout en mettant un coup d’arrêt aux usages les plus problématiques.
Lire aussi : Cybersécurité : les réponses de l’Union Européenne face à ses failles
L’IA pose des questions éthiques
Pour encadrer les usages les plus risqués de l’IA, les autorités françaises montent au créneau. D’un côté, la DGCCRF et l’Arcom unissent leurs forces pour chasser les systèmes qui cherchent à manipuler les utilisateurs, que ce soit par des techniques subliminales ou des pratiques trompeuses. Ces deux gendarmes veillent particulièrement sur les personnes vulnérables, comme celles touchées par des difficultés financières ou en situation de handicap. De l’autre côté, la CNIL exerce une mission délicate : surveiller les systèmes de notation sociale et de police prédictive, des technologies qui posent de vraies questions éthiques. Elle doit aussi garder l’œil sur les bases de données de reconnaissance faciale créées sans autorisation. Un vrai défi à l’heure où l’utilisation de nos données biométriques suscite de plus en plus d’inquiétudes.
L’analyse des émotions à l’école et au travail est désormais encadrée par la CNIL. En effet, le fait d’essayer de détecter ce que ressentent les employés ou les élèves est considéré comme une pratique interdite. Cette position illustre bien que la CNIL cherche à protéger la vie privée, que ce soit au bureau ou en classe.