Et si la sécurité était une question de mémoire ? la Société et les solutions de sécurité algorithmiques un équilibre précaire (V)

25 avril 2024 | Métiers

Temps de lecture : 4 minutes

Photo : PxHere

Et si la sécurité était une question de mémoire ? la Société et les solutions de sécurité algorithmiques un équilibre précaire (V)

par | Métiers

La sécurité est une donnée à multiples facettes. Elle concerne les personnes, les villes, les entreprises ou Etat. Elle repose sur des technologies, l’époque actuelle tend à privilégier celles-ci, mais aussi et principalement sur des personnes. Ces dernières imaginent des solutions, mettent en place celles-ci, mais surtout ont de la mémoire. Cette mémoire permet d’anticiper les risques, de maitriser des situations et de prévoir la survenance d’un risque que celui-ci soit naturel (inondation, avalanche, tremblement de terre…) ou artificiel (émeutes, accidents, conflits…). Cette question de la mémoire dans une optique sécuritaire est importante et justifie d’être traitée sous différents angles.

Dans un précédent article, nous avions abordé la relation entre l’humain et la technologie, l’un devant être en mesure d’exercer un contrôle sur des outils dont les programmes, de plus en plus sophistiqués, pouvaient lui échapper. La question posée ici est celle du rapport que la Société doit être en mesure de nouer avec des technologies qui peuvent directement participer à son organisation et à son fonctionnement. Si la technologie prend le pas sur l’Homme nous entrons dans une Metropolis ou l’homme est réduit à une fonction subalterne.

Ce n’est pas une perspective inenvisageable, à notre insu nous sommes de plus en plus soumis aux aléas d’une technologie qui guide nos faits et gestes. Nos téléphones sont devenus de réelles extensions de nos membres et nous permettent de payer, de franchir des portillons d’accès et sans eux nous nous rendons compte de notre difficulté à nous insérer dans le monde réel. Ils contiennent toute votre vie de votre identité numérique aux applications bancaires, fiscales, professionnelles sans oublier les traces de vos fréquentations des réseaux sociaux qui en disent plus que de longs discours.

Un des promoteurs de la société Cambridge Analytica (dans les années 2018) reconnaissait ainsi, grâce à l’analyse de vos données de recherche Internet, savoir presque avant l’internaute que celui-ci allait tromper son conjoint alors savoir comment orienter un vote relevait du jeu d’enfant…cela a donné le Brexit. Les craintes exprimées par le gouvernement français quant aux attaques qui pourraient avoir lieu lors de prochains scrutins ne sont pas vaines et méritent d’être prises au sérieux, car il y a de la pérennité d’un système démocratique.

Le vote électronique qui a ses adeptes ne doit pas faire oublier que toute technologie est faillible, piratable et qu’il suffit de peu de choses, des changements de résultats opérés aux bons endroits et moments, pour renverser le résultat d’un scrutin. Le vote humain n’est pas exempt lui aussi de fraudes et de manipulations de listes électorales ou de décomptes tronqués, mais dans tous les cas cela est beaucoup plus visible que des codes électroniques disséminés et effaçables. En somme, notre Société, par là entendons le modèle social dans lequel nous souhaitons évoluer et vivre, est en permanence dans un état d’équilibre précaire, tiraillé entre des ambitions, des idéologies, des absences de scrupules qui peuvent à tout moment la faire basculer. À la fin du XIXe c’est le développement de la presse qui a permis de formater des mouvements sociaux et des révolutions.

En 1933 la propagande de Goebbels n’aurait jamais eu le même impact sans le recours aux technologies existantes, la radio, le cinéma, l’automobile ou l’avion. Aujourd’hui nous sommes dans une dimension où le vrai et le faux (« fake ») se mélangent et permettent le développement du complotisme favorisant un extrémisme politique bousculant une organisation sociétale. Et cette tendance n’est pas prête de s’arrêter suivant en cela le progrès technologique.

Les films 2001 Odyssée de l’Espace, Matrix ou Terminator explorent cette dimension de façon très profonde en posant des univers dans lesquels les humains n’ont plus leur place ayant été dépassés par les technologies qu’ils ont eux-mêmes créées et qui leur ont échappé. Dire que nous n’en sommes pas encore là ne signifie pas que nous n’en prenons pas le chemin.

La surveillance algorithmique, qui n’en est qu’à ses débuts, trace justement un chemin qui doit être balisé à peine de nous entrainer dans une perte de contrôle.
Nous avons évoqué le rôle de l’humain derrière son écran pour autoriser ou corriger une intervention.

Il faut aussi qu’au-delà du programmeur informatique des IA intégrées dans ces solutions, il y ait un programmeur politique qui assure autant l’intérêt particulier – le respect de la vie privée par exemple – que l’intérêt général – le maintien d’une société démocratique respectueuse des libertés.

C’est un enjeu majeur et qui, pour le moment, n’est traité que par le petit bout de la lorgnette à savoir du déclaratif, de la prise de position martiale, de l’expression de grands principes, mais au fond rien de réellement concret. Il est vrai qu’il est difficile d’aller plus vite que le progrès qui échappe aux politiques dont le temps est plus lent. En conséquence il appartient aux entreprises développant ou utilisant ces technologies de prendre leurs responsabilités et d’introduire dans leur fonctionnement des notions d’éthique pour ne pas dire de rationalité sociétale qui ne sont pas, par essence, dans leurs ADN.

Nous savons, depuis l’expérience de Milgram, qui date de 1963, que l’obéissance aux ordres, dès lors que l’autorité semble à la fois légitime et de nature à endosser une responsabilité supplante, chez les cobayes de l’époque, les considérations morales ou les cas de conscience. Et que l’ordre d’appliquer une torture est exécuté dès lors qu’on est rassuré sur l’absence d’implication personnelle et le caractère justifié du traitement infligé. Ce qui était valable en 1963 l’est toujours en 2024.

On conviendra que l’équation posée est complexe. Nous savons que la technologie est faillible et peut entrainer des dérives, mais que celles-ci sont jugées marginales au regard de l’efficacité d’un système. Nous savons aussi que cette technologie est le paravent idéal, les techniques de frappe israélienne à Gaza commandées par un logiciel d’IA l’ont démontré, derrière lequel la composante humaine peut se retrancher pour justifier, se disculper, de son (in)action et des conséquences de celle-ci.

En somme nous marchons sur une route très étroite, bordée de deux précipices qui peuvent faire sombrer nos idéaux démocratiques, et qui mène dans une direction pour laquelle nous sommes dépourvus de certitudes.

Comme tout organisme nos sociétés ont de la mémoire, celle de leur Histoire, il serait bon de s’y référer. Elle est là pour nous rappeler que « science sans conscience n’est que ruine de l’âme » (Rabelais) et que si nous n’y prenons collectivement pas garde notre Société pourrait emprunter un chemin de traverse, légitimé par des considérations sécuritaires, qui pourrait se révéler en rupture avec le pacte social dont nous sommes les bénéficiaires aujourd’hui et rompre durablement un équilibre si précaire.

Registre :

Auteur / autrice

  • Nicolas Lerègle

    Nicolas Lerègle, avocat au barreau de Paris, ancien auditeur de l’INHES (19e section), conférencier en sécurité économique labélisé Euclès et certifié en management du risque criminel et terroriste en entreprise (INHESJ/EDHEC). Ancien directeur des affaires immobilières et de la protection du patrimoine de groupes internationaux, il est l’auteur de plusieurs ouvrages sur l’immobilier publiés chez Economica.

La Lettre Conflits

La newsletter de l’Essor de la Sécurité

Voir aussi