IHEMI

Fil d'Ariane

Protection et surveillance augmentées : le nouveau paradigme sécurité et liberté

Le contenu de cette page a été écrit et publié sous la direction de l'Institut national des hautes études de la sécurité et de la justice (INHESJ) qui a rejoint l'Institut des hautes études du ministère de l'Intérieur (IHEMI) le 1er janvier 2021. Il était important pour la direction de l'IHEMI de conserver l'ensemble du contenu de l'INHESJ, qui constitue désormais la mémoire de l'institut.

Protection et surveillance augmentées  : le nouveau paradigme sécurité et liberté
20mar.20

Prédictif, IA, surveillance : panorama complet de l'impact du numérique dans les champs de la sécurité et de la justice signé Manuel Palacio, rédacteur en chef des Cahiers de la sécurité et de la justice.

Le monde moderne connaît une accélération sans précédent des mutations liées aux découvertes scientifiques et aux innovations techniques. Il a fallu plus de 4 000 ans pour passer de l’invention de la roue à l’invention de la machine à vapeur, et moins d’un siècle pour passer de celle-ci à l’invention du moteur à explosion. Un millénaire et demi sépare Ptolémée de Newton et moins de trois siècles séparent celui-ci d’Einstein. Le XIXe siècle est le siècle charnière, celui des basculements. Un bouleversement majeur se produit, l’avènement de la révolution industrielle rendue possible par de nouveaux savoirs qui génèrent de nouveaux outils. Ce phénomène change radicalement les structures économiques, sociales et politiques des sociétés où il se développe ainsi que les modes de vie de leurs citoyens. Les nouveaux outils, les nouveaux modes de production, les nouveaux produits impactent tous les domaines de la vie quotidienne, santé, transports, alimentation, habitat… Siècle de transition, le XXe siècle est également un siècle d’accélération. Soixante-dix-sept années seulement séparent la création de la première voiture à essence du voyage du premier homme sur la lune. La découverte de la pénicilline en 1928 sauve la vie de millions d’êtres humains et le développement des antibiotiques permet l’éradication d’épidémies infectieuses séculaires. Cette énumération pourrait être poursuivie avec d’innombrables dates et exemples.

Révolutions

Le XXIe siècle est celui de la révolution numérique. Le terme est d’ailleurs problématique tant il peine (au-delà de la métaphore) à cerner une réalité d’une extrême complexité. Si les décennies précédentes sont celles des machines pensées et réalisées par les cerveaux et le travail humains, la nouvelle révolution est celle des réseaux, de la vitesse et de l’étendue des communications, de l’appréhension du réel (matériel ou virtuel) à travers les données, les fameuses data ! Pas un domaine de la vie quotidienne, des organisations sociales, de l’économie, de la géopolitique, qui ne soit impacté par cette révolution. Celle-ci a, dans une première étape, été définie et pensée à partir de l’essor des nouvelles technologies de communication, Internet et téléphonie mobile, qui ont mis les hommes en réseau, individus et populations, au sein de leurs communautés de vie et de travail, mais aussi dans des échanges à l’échelle mondiale. De ce point de vue, la révolution numérique a poursuivi le mouvement de la mondialisation initié aux siècles précédents et qui a conduit à un accroissement substantiel de la circulation des personnes, des objets, des capitaux, des informations et des connaissances. La deuxième étape qui constitue le "moment actuel" de cette révolution numérique, est celle de l’essor de l’intelligence artificielle (IA).

Le terme n’a pas encore trouvé de définition à même de cerner dans toute sa complexité le phénomène qu’elle désigne, mais il s’est répandu dans l’usage courant, bien au-delà des milieux scientifiques, pour désigner un ensemble de réalités hétérogènes et souvent mélangées dans une confusion quasi mythologique et alimentée par un marketing efficace. Il est utilisé pour parler aussi bien, parmi tant d’autres exemples, de programmes de géolocalisation, de diagnostic médical ou d’aide à la conduite automobile que d’un futur où les machines seront capables de penser comme l’être humain. Dans sa version prophétique, l’IA ne désignerait rien moins que la capacité de programmes informatiques à se substituer aux compétences humaines en matière de création et d’action. Dans sa réalité et son actualité, elle désigne surtout l’usage de programmes permettant à des machines de réaliser de manière autonome et plus rapidement et plus efficacement que les humains des tâches bien précises qui leur étaient préalablement dévolues. L’utilisation de la terminologie de l’IA (et de ses multiples extensions et manifestations) doit être l’objet d’une rigueur extrême rendue difficile par l’étendue de ses domaines d’existence et l’ampleur des possibles qu’elle ouvre et des questions qu’elle soulève. L’IA est avant tout une métaphore qui permet à la fois la représentation d’une nouvelle étape dans la révolution scientifique et technique et la projection d’une possible révolution anthropologique aujourd’hui en gestation.

Parmi tout ce qui fait débat dans cet essor (réel et fantasmé) de l’IA, il y a, d’un côté, la promesse d’un avenir meilleur fait, au minimum, d’améliorations conséquentes de la vie quotidienne et, au maximum, de l’avènement d’un nouvel homme augmenté et, de l’autre, la peur d’une disparition de l’humanité face à sa dernière et majeure création qui l’aurait rendue définitivement obsolète. Pour rentrer sérieusement dans ce débat, il y a au préalable deux questions à poser distinctement.

Nouveaux outils, vieux débat

La première question se pose dès lors que l’on prend en compte la réalité des usages concrets que l’IA a créés et permis, à savoir le développement substantiel d’un certain nombre d’outils qui augmentent et améliorent la capacité d’action humaine dans les domaines les plus variés. Qu’ils soient générés par des programmes informatiques n’en fait pas moins des outils et il ne s’agit alors que d’une progression quantitative et qualitative du processus d’automatisation initié au cours de la révolution industrielle. L’accroissement de la puissance de calcul à l’origine des nouveaux algorithmes augmente en proportion la capacité des nouvelles machines à assumer des tâches de plus en plus complexes et "délivrer" les humains de leur exécution. Le progrès est avéré mais la promesse de délivrance ouvre des interrogations, sinon des inquiétudes, sur l’avenir qu’un tel progrès pourrait annoncer.

Nous sommes dès lors dans le débat philosophique et politique traditionnel sur "la technique", mais posé dans un contexte nouveau et il s’agit seulement de le reprendre là où l’avaient laissé Heidegger et après lui, parmi d’autres, Jacques Ellul.

Pour le premier, la technique ne se réduit pas à sa signification première forgée avant l’avènement de la science, c’est-à-dire à la conception des moyens adéquats pour l’exécution d’une tâche qui aboutit à la production d’un objet ou service. Pour Heidegger, la science a changé la donne dès lors qu’en parvenant à mesurer le réel, elle en vient à l’objectiver totalement. La science moderne n’est pas uniquement la connaissance du réel, elle en est un formatage qui conduit à le soumettre. La nature devient un objet à maîtriser dans l’absolu et l’homme lui-même n’est plus qu’un élément calculable dans ce processus de maîtrise, voire de soumission.

Pour le deuxième, la technique est un système en soi qui s’autonomise et tend à réaliser ses propres fins au détriment de celles des hommes, ceux-ci devenant non pas les maîtres mais les objets dudit système. L’efficacité qui est la condition première de la technique dans la production des objets devient une fin en soi. Jacques Ellul s’inscrit en l’approfondissant dans un courant de pensée de critique de la technique qui dénonce le fait que le développement de celle-ci annihile toute autre finalité humaine que celle du profit incessamment renouvelé, ce qui présente le double danger de restreindre la dimension de la liberté humaine et de réduire la nature à un pur objet manufacturable, au risque de l’épuiser définitivement.

Si l’on estime que la révolution numérique ne fait qu’amener des outils nouveaux plus performants, elle relève alors de la même grille de pensée forgée précédemment dans le débat sur les rapports de l’homme à la technique. Objets connectés, programmes d’aide à la décision et au diagnostic, algorithmes de prévision améliorent significativement les conditions de vie au sein des sociétés humaines, mais s’inscrivent dans le prolongement des outils forgés dans la période précédente suscitant par conséquent le même type d’interrogations. Le saut réalisé correspond seulement à un degré supérieur dans l’efficacité des outils. Le risque qui peut être pointé est alors celui du rétrécissement de l’aire de la responsabilité humaine. Jusqu’à quel point nous défaussons-nous de notre responsabilité, de notre faculté de création parce que nous transférons une grande part de celles-ci à des programmes plus efficaces que nous ? Jusqu’à quel point acceptons-nous de limiter notre liberté en nous reposant sur des programmes parce qu’ils assurent efficacement notre protection et notre bien-être ? L’exemple de la voiture autonome est de ce point de vue tout à fait significatif. Les débats sur ce projet portent essentiellement soit sur des questions techniques (faisabilité et fiabilité), soit sur des questions morales autour de la responsabilité (qui prend la décision en cas d’accident inéluctable – question éthique – et qui est au final responsable – question juridique ?). Mais un questionnement plus global demeure au second plan qui porte sur ce que devient l’être humain dès lors qu’il se repose entièrement sur une machine sur laquelle il n’a plus, en tant qu’individu, aucune maîtrise. Il est alors le simple objet d’un service. Il n’est plus conducteur, il est transporté. Ce questionnement qui vaut ici pour le transport peut être étendu à d’autres innombrables dimensions de la vie quotidienne.

Le concept d'IA

Parmi les multiples définitions que l’on donne de l’IA, la plus simple est : « capacité des machines à prendre des décisions et à adopter des comportements attribués généralement à des humains ou à des animaux, mais avec un moindre niveau de performance ».

L’évolution technologique que nous connaissons depuis ces dix dernières années repose en grande partie sur le machine learning, à savoir, l’apprentissage automatique des machines.

Le deep learning, sous domaine du machine learning, s’est, quant à lui, révélé particulièrement efficace et gagne en notoriété depuis ces quatre dernières années, si bien que les médias y font systématiquement référence lorsqu’ils parlent d’IA. Toute une industrie s’est créée autour de cette technologie.

Pour construire une machine intelligente les principales méthodes sont les suivantes :

Il s’agit d’abord d’écrire des algorithmes qui se comportent de manière intelligente pour résoudre un problème particulier.

À ce stade les machines sont entraînées de manière totalement supervisée. Elles peuvent ainsi, par exemple, devenir un adversaire de taille dans une partie d’échecs. Nous retrouvons ces mêmes algorithmes dans les GPS ou Google Map pour planifier une trajectoire entre deux points. Mais, à ce stade, nous ne pouvons encore parler d’apprentissage.

Ensuite, le machine learning classique. Il nécessite une part importante de programmation directe (conception à la main) de manière à transformer le signal original (par exemple, une image) en un format traitable par le système d’apprentissage simple. Cela implique également de collecter de grandes bases de données qui sont étiquetées à la main et d’assigner à la machine une tâche bien définie (entrée/sortie). La partie apprentissage est encore relativement mineure. Le machine learning représente plus de 95 % des succès de l’IA. Il est utilisé pour la reconnaissance d’images, la classification de textes ou encore pour la traduction automatique, notamment par Facebook, Google, Microsoft, IBM et beaucoup de start-up.

Enfin, le deep learning, apprentissage profond ou par renforcement, repose sur l’utilisation de multiples couches d’unités de traitement de données composant un système. Il permet à ce dernier d’être entièrement entraînable (sans conception à la main) et d’apprendre de manière automatique.

Extrait d'un article de Yann LECUN, professeur à l’Université de New York, directeur de Facebook AI Research (fair), dans Défis n°8, "L’entreprise à l’heure de l’intelligence artificielle. Entre promesses et nouveaux défis".

Un au-delà de l’outil, un nouveau débat

La deuxième question se pose si l’on estime que la révolution numérique représente une étape nouvelle dans l’évolution de l’humanité et que nous nous trouvons en face d’une authentique rupture avec les périodes précédentes, une rupture anthropologique. Cette vision de la révolution numérique présuppose l’IA comme entité potentiellement substituable à l’humain. Elle n’est plus un simple outil au service de l’Homme à travers la traditionnelle automatisation des tâches humaines, mais une nouvelle réalité qui non seulement fait à la place de l’humain mais fait comme lui dans un saut qualitatif qui passe de l’exécution à la conception et la création. Pour évaluer le degré de crédibilité de cette vision, l’enjeu de la définition de l’IA, de sa réalité dans son actualité, mais aussi de son devenir possible à l’échelle de quelques décennies, est essentiel mais difficile à tenir. Le problème réside déjà dans la multiplicité des définitions possibles de l’intelligence en tant qu’attribut humain et même de la simple connaissance du fonctionnement du cerveau humain. Siège de l’organisation de la perception, de sa traduction en représentations, de l’élaboration des décisions, bref, parmi tant d’autres fonctions, siège de la pensée, ce dernier est-il seulement un vaste système neuronal fondé sur des connexions et des combinatoires de données ? Dans cette hypothèse, l’IA serait alors un programme mathématique éminemment sophistiqué, construit sur le même modèle que le système neuronal et capable de réaliser les mêmes performances, bien au-delà de l’exécution de tâches partielles répétitives. Dans une version modeste, ce programme serait capable de reproduire des fonctions cognitives humaines. Dans une version ambitieuse, il serait capable de surpasser les performances humaines de par une plus grande puissance de calcul et donc de maniement d’un plus grand nombre de combinatoires.

Le débat n’est plus alors de savoir jusqu’à quel point l’usage de l’outil performant limite le champ de la créativité, de la responsabilité et, au final, de la liberté humaine, mais bien de savoir si le développement de l’outil est parvenu à modifier l’essence même de l’humain. Pour l’exprimer à travers les images aujourd’hui en vogue dans l’opinion commune, la question est de savoir si nous en sommes au stade de "l’homme augmenté" et, surtout, de savoir ce que ce terme recouvre. S’agit-il de l’homme aidé, de l’homme assisté par des techniques nouvelles sans cesse plus efficaces pour réaliser ce qu’il conçoit et projette ? Dans ce cas "l’homme augmenté" n’est rien d’autre qu’un homme mieux armé que ses prédécesseurs dans l’exécution de ses multiples tâches. S’agit-il plutôt d’un processus en cours annonçant l’hybridation entre l’homme et la machine ? Dans ce cas nous assistons à l’émergence d’une entité nouvelle ne marquant rien moins qu’une nouvelle ère de l’histoire de l’humanité !

Ces questions sont posées dans le cadre d’un débat dont les termes oscillent entre la parabole de Deep Blue battant le Grand Maître aux échecs et l'exemple du programme de reconnaissance faciale qui a besoin d’intégrer des dizaines de milliers de données (images) pour reconnaître un chat avec plus de 90 % de taux de réussite là où une ou deux images suffiront à un enfant pour parvenir au même résultat sans le moindre pourcentage d’erreur. Sans trancher ici un tel débat (à supposer qu’il puisse être tranché), un retour au présent s’avère nécessaire qui est aussi un retour sur terre.

À strictement parler l’IA désigne aujourd’hui, d’une part, des programmes de traitement d’ensembles de données numériques dont le volume, la diversité des origines et la vitesse nécessaire à leur collecte et analyse sont au-delà de la capacité humaine de réalisation performante et, d’autre part, la possibilité pour ces programmes de tirer un certain nombre de leçons de leur propre processus d’exécution et d’intégrer une démarche d’apprentissage.

L’IA dans le champ sécurité-justice

Quelles sont les manifestations et les conséquences de l’introduction de l’IA dans les secteurs en charge de la sécurité et de la justice ? Les domaines où les outils numériques commencent à trouver un début d’application sont aussi hétérogènes que les outils eux-mêmes. Il s’agit aujourd’hui, pour l’essentiel, de conception, d’expérimentation ou d’exécution de programmes qui facilitent l’action des institutions policières et judiciaires dans leurs missions traditionnelles comme l’enquête, le renseignement, la prévention, la détection, la police scientifique, etc. Globalement, ces outils permettent de réaliser des tâches existantes avec un taux de rapidité supérieur qui libère d’autant de l’énergie et du temps humain augmentant par là même l’efficacité et le potentiel d’action des acteurs et des services. Dans le champ judiciaire, l’IA commence à être utilisée en France comme outil de simplification du travail judiciaire par l’automatisation des procédures les plus lourdes. De manière expérimentale, la Lettonie projette d’utiliser un programme d’IA permettant de rendre des décisions de justice en matière de délits mineurs. L’apport de l’IA réside dans sa capacité à générer des programmes à même d’affronter le volume et la complexité des dossiers à traiter comme autant de vastes systèmes de données. Elle n’est alors ni plus ni moins qu’un outil d’assistance limité au calcul et à l’analyse qui facilite l’action des services en augmentant leur potentiel de détection et d’intervention.

Toutefois, un usage de certains de ces algorithmes, basés sur une analyse de données et un calcul de probabilités appliqués à des domaines jusque-là dévolus à la conception et la décision humaines, a conduit à populariser l’idée d’une capacité à prévoir qui, très vite, s’est transformée en une capacité à prédire. C’est ainsi que l’on a pu parler, en reprenant plus que hâtivement un registre lexical importé des États-Unis, de l’avènement d’une police et d’une justice "prédictives".

Cette expression désigne la faculté à prévoir des événements susceptibles de se produire ou de se répéter, qu’il s’agisse, par exemple, de lieux où vont se dérouler des actes de délinquance, de récidives de la part de certains sujets délinquants, ou encore des décisions de justice susceptibles d’être rendues pour certains contentieux. Le terme de police prédictive nous vient des États-Unis (predictive policing) où dans plusieurs grandes villes (New York, Chicago, Los Angeles…) les services de police utilisent des programmes informatiques élaborés par des entreprises privées dans le but de cerner au plus près la réalité locale de la délinquance pour pouvoir la prévenir au mieux. Ces programmes intègrent une cartographie et une analyse statistique des faits de délinquance visant à déterminer les lieux où ces faits sont susceptibles de se produire. Il s’agit donc essentiellement d’outils de prévention et le terme de prédictif désigne ici la prévision des risques.

La justice prédictive permet, par exemple, de prendre des décisions en matière de libérations conditionnelles (aux États-Unis) ou, au niveau de la justice civile en France, de prévoir la décision la plus à même d’être rendue dans un contentieux donné.

En réalité, le terme de prédictif mélange deux significations. La signification première qui est celle du verbe prédire, annoncer un événement à venir, et la deuxième qui en est l’extension abusive, annoncer un événement probable. C’est cette dernière signification, utilisée à la fois dans un usage courant, mais surtout en référence à l’analyse statistique qui extrait un certain nombre de données pour établir des tendances et des lignes d’évolution possibles, qui est la seule appropriée. Qu’il s’agisse de la police ou de la justice, leur nouvelle capacité prédictive relève du jeu de mots. Dans les différents usages, judiciaires et sécuritaires, l’algorithme est un outil de calcul de probabilités. Il permet de manipuler un très grand nombre de données en diminuant considérablement le temps de ce calcul pour parvenir à une estimation de probabilité. Pour ce qui concerne la justice civile, les outils algorithmiques permettent de traiter les données concernant les décisions rendues pour les différents types de conflits afin de produire une échelle de probabilités permettant de désigner la décision de justice qui aura le plus de "chances" d’être rendue.

Quant aux outils de police prédictive, ils consistent essentiellement à analyser des données qui concernent, sur un territoire particulier, l’organisation de l’espace et les statistiques de telle ou telle délinquance pour déterminer en fonction des moyens disponibles l’action de prévention ou de répression à mener. Il s’agit donc de mettre en lumière des tendances fortes sur les lieux où tel ou tel type de délinquance a le plus de probabilité de se produire pour avoir un temps d’avance sur les interventions.

Il n’y a donc pas de justice ni de police "prédictives" mais de nouveaux outils qui permettent un traitement d’informations aboutissant (sur la base d’une échelle de probabilités) à la production de nouveaux outils d’aide à la décision (pour la justice) et aux interventions (pour les forces de sécurité).

Exit les Précogs de Minority Report, nous avons simplement affaire à des logiciels qui extraient, trient et recoupent… Justice et police ne prédisent rien, mais calculent de plus en plus. Dès lors le véritable enjeu autour du prédictif n’est pas celui du libre arbitre face à un avenir définitivement établi, mais celui de la transparence et de la maîtrise. Sur quoi portent ces calculs ? Qui les manie ? Qui les contrôle ?

Même remis à sa juste place, le terme de prédictif soulève un certain nombre de questions d’ordre éthique.

  • la question de l’encadrement par la loi et du contrôle démocratique en particulier dans un contexte d’émergence d’un marché privé. Dans la production des outils "prédictifs" basés sur les algorithmes, qui produit les codes et sur quelles bases ? Quel est le statut juridique de l’algorithme ? Quelle est sa place en procédure ? Comment encadre-t-on son usage ? Qui construit l’équation ? Qui agrège les données ? Qui opère des audits ?
  • la question, à partir de l’existant en matière de justice civile et commerciale, d’une extension possible au champ de la justice pénale. Si la justice pénale n’est pas aujourd’hui en France directement concernée par le recours aux algorithmes, les bouleversements à l’œuvre dans le champ de la justice civile et les enseignements à tirer des expériences en cours aux États-Unis imposent d’ouvrir une réflexion prospective en identifiant un certain nombre de problèmes spécifiques qui vont se poser. Ainsi, l’effet performatif qui peut conduire à figer le présent sur la base de données du passé. Appliqué à la justice pénale, le risque est réel d’une soumission des décisions de justice (la jurisprudence), sous couvert d’efficacité managériale et d’harmonisation, à une norme médiane érigée en vérité quasi scientifique, alors qu’elle n’est que le simple résultat d’un calcul probabiliste ;
  • la question pour la justice pénale de la place laissée à l’interprétation de la complexité liée à la question de la preuve lorsque le calcul du "probable" prend la place du débat judiciaire. Les données traitées par les algorithmes doivent clairement avoir le statut de simple expertise soumise au débat judiciaire comme tout élément de preuve sur lequel le juge se fonde pour condamner.

Dans le champ sécurité-justice, l’IA s’inscrit dans le prolongement du mouvement d’automatisation qui permet la simplification des tâches les plus complexes et allège le travail judiciaire et policier augmentant d’autant son efficacité. Néanmoins, ces nouveaux outils algorithmiques n’en posent pas moins des problèmes nouveaux.

Aux questions déjà soulevées dans le cas de la police et de la justice prédictives et qui concernent essentiellement les domaines de la responsabilité morale et juridique, il faut en ajouter une dernière, majeure, qui s’inscrit dans le débat traditionnel sur la technique mais le pose en des termes renouvelés. Ces nouveaux outils marquent-ils une nouvelle étape dans la réduction de l’aire de liberté humaine ? En matière de sécurité et de justice, cette question se pose plus concrètement en termes de libertés individuelles et publiques.

Le nouveau paradigme sécurité-liberté

On ne peut dissocier les problèmes spécifiques posés par l’usage de la numérisation d’une partie du travail de la police et de la justice, la dimension technique, des tendances à l’œuvre dans les sociétés dites "développées" en matière de représentations de la sécurité, la dimension politique. Nous assistons au croisement d’un double phénomène. D’un côté, une demande croissante de sécurité de la part des populations, demande qui excède le domaine de la délinquance pour investir tous les aspects de la vie quotidienne, santé, environnement, travail, déplacements… De l’autre côté, la possibilité de répondre de plus en plus et de mieux en mieux à cette demande devenue globale grâce aux performances des nouvelles "machines" numériques. Plus cette demande se généralise et s’étend, plus elle trouve en effet de réponses dans les moyens que le développement technologique dégage mais plus ces moyens dessinent également un nouveau cadre politique et sociétal. Celui-ci se caractérise par une situation où l’accroissement de la protection des citoyens engendre simultanément un accroissement du contrôle de leurs actes et de leur vie.

Cette question est devenue symboliquement visible lors du déploiement des caméras de vidéo comme moyen de gestion de la délinquance de voie publique. Les hésitations sur la terminologie, vidéoprotection ou vidéosurveillance, étaient symptomatiques de deux visions politiques de l’usage d’une même technologie. Le débat se pose de nouveau aujourd’hui avec la reconnaissance faciale, laquelle devrait, entre autres, améliorer l’identification de personnes recherchées et faciliter la résolution de certaines enquêtes. Les deux technologies reposent sur les mêmes objectifs et le même principe de fonctionnement : améliorer la prévention et la lutte contre la délinquance à l’aide de programmes qui supposent d’extraire (au sein de la population générale) un nombre substantiel de données pour isoler un nombre limité de résultats (sur une infime partie de cette population générale). Pour protéger l’innocent du coupable, il faut recueillir un maximum d’informations sur l’innocent au risque que ces informations soient utilisées dans d’autres occasions contre l’innocent.

Il existe un débat traditionnel et récurrent sur la relation entre sécurité et liberté comme il existe un débat sur la relation entre technique et liberté. L’extension des nouveaux outils numériques conduit à un croisement de ces deux débats qui se posent dès lors dans des termes renouvelés. Là où le débat sécurité et liberté mettait traditionnellement en jeu une tension entre les nécessités de la répression de la délinquance et celles de la garantie des droits individuels, il est question aujourd’hui sous la pression de la demande de sécurité des populations de faire reculer toujours plus les limites au contrôle de tous au bénéfice de la capture de quelques-uns. Nous assistons ainsi à la naissance d’une "société de surveillance" qui tend à faire disparaître la notion même d’espace privé à travers l’articulation entre l’objectif de la sécurité des populations et la capacité d’intrusion permise par les nouvelles technologies. Face à l’idéal de la sécurité totale, le développement de la société de surveillance. La sécurité totale est un service, la société de surveillance le moyen et la condition de ce service. Encore ce service n’est-il plus un service public au sens antérieur du terme, c’est-à-dire exercé par l’État avec un certain nombre de garanties.

Le débat ancien sécurité et liberté opposait une vision fondée sur le conflit entre l’un et l’autre terme. Pour les uns, assurer la sécurité est une mission première de l’État qui est dès lors légitimé à employer les moyens nécessaires pour y parvenir, y compris la restriction de certaines libertés. Pour les autres, la notion de libertés individuelles est première et tout empiétement sur celles-ci au nom des impératifs de sécurité masque un autre objectif qui est celui d’assurer un ordre reposant sur les intérêts d’une fraction de la population minoritaire mais détentrice du pouvoir. Dans un État de droit la question constante concerne la position du curseur entre l’impératif de sécurité et l’idéal de liberté. Ce curseur varie selon les options politiques des pouvoirs en place et selon les évolutions de la société et de l’opinion publique en matière d’exigence de sécurité ou en fonction de l’irruption d’événements traumatiques comme les attentats terroristes. Aujourd’hui, la relation sécurité-liberté ne peut plus être appréhendée à partir du seul conflit entre ces deux termes. La révolution numérique, en ce qu’elle répond aux attentes de la société de surveillance, est venue introduire deux nouvelles dimensions et nécessite par conséquent une nouvelle grille de lecture.

Premièrement, la question de la position du curseur se pose différemment dans la mesure où la demande de sécurité devient exponentielle et s’étend à des domaines de plus en plus vastes de la vie quotidienne. Dès lors que se répand l’idée d’une possible sécurité totale, l’augmentation du prix à payer en matière de restrictions des libertés sera jugée comme inévitable, comme un moindre mal. S’il est possible d’échapper à toutes les menaces potentielles et si cette possibilité est donnée par la technique, dite neutre par essence, pourquoi en effet s’en priver. À l’origine du déplacement du curseur vers le pôle sécurité totale, il y aura une demande massive venue de la population, ce qui ne pourra être ignoré dans une société démocratique où le pouvoir est issu du vote de cette population.

Deuxièmement, la question de l’entité garante à la fois de l’obligation de sécurité et du respect des libertés se pose également d’une manière nouvelle. Dans la grille de lecture précédente, cette entité est représentée par l’État dont différentes instances d’administration et d’exécution réalisent les missions. La révolution numérique n’a pas seulement permis l’émergence de nouveaux outils qui changent les modes de vie et les relations entre les hommes, elle est également le fruit de l’autre grand événement de ce siècle tout comme elle constitue l’un des moteurs de son développement, à savoir la mondialisation. Celle-ci a bouleversé les conditions de production des objets comme des savoirs, les structures économiques comme les rapports de force géopolitiques. La "traversée des frontières" qu’elle a rendue possible a mis en cause des structures antérieures constitutives de l’organisation des peuples, comme les nations et les États. Dans le cadre de ce mouvement, la révolution numérique a introduit de nouveaux acteurs qui exercent des missions antérieurement dévolues en exclusivité aux États-nations à travers la création, la maîtrise, la propriété et la diffusion des nouveaux outils. Ces acteurs constituent des entités qui, si elles ne se sont pas substituées entièrement aux États, les concurrencent et leur contestent au minimum l’exclusivité de certaines missions, dites antérieurement "régaliennes", et au maximum la maîtrise mondiale de l’exercice de ces missions. Il s’agit des fameux "Gafam" dont le modèle économique repose sur la gratuité des services en échange de la cession d’informations sur la vie personnelle. La vision d’une révolution numérique comme simple technique neutre de mise en réseau d’individus libres s’est vite délitée devant la réalité d’organisations économiques, opaques et monopolistiques, en charge d’aspects de plus en plus nombreux de la vie humaine à travers le monde et exerçant par conséquent une fonction éminemment politique. D’évidence, un tel bouleversement change la donne en ce qui concerne la relation sécurité-justice. Là où les États de droit avaient la double mission d’assurer la sécurité et de garantir la liberté, avec selon les circonstances des variations dans l’équilibre entre l’un et l’autre, les nouveaux acteurs créateurs et diffuseurs des outils numériques au service de la sécurité, "hors sol", possèdent une réelle capacité à s’affranchir des contrôles et de la nécessité de rendre compte. Les citoyens protégés par l’État sont maintenant des utilisateurs dans le cadre d’un "contrat" où ils fournissent des informations sur eux-mêmes en échange de cette protection. Qu’en est-il du stockage et de l’utilisation de ces informations ? La contrepartie de la protection est la dépendance à ceux qui en fournissent les moyens et la société de surveillance se met en place sous la direction de puissances hors sol, hors législations nationales.

Le nouveau paradigme sécurité versus liberté repose ainsi sur une nouvelle relation entre les populations et les instances en charge de leur protection différente de l’ancienne relation des citoyens avec leur État-nation ; les Gafam sont, en effet, venus changer la structure de cette relation, au risque de faire disparaître les citoyens derrière les utilisateurs. Ceux-ci ont aujourd’hui affaire à une nouvelle cartographie d’"économies-monde", telles que les définissait Fernand Braudel, où se croisent et se confrontent des États (nations et/ou empires) classiques et des empires nouveaux (extra-territoriaux). Dès lors, le débat sur l’équilibre entre sécurité et liberté ne consiste donc plus seulement à mettre des limites (politiques, juridiques) au pouvoir d’une instance chargée de la mission de sécurité, mais aussi et surtout à maîtriser le développement d’une capacité de surveillance exponentielle au bénéfice d’intérêts de structures dont la forme et la légitimité n’ont plus rien à voir avec l’exercice du monopole de la violence légitime de Max Weber. Ce n’est plus (seulement) un État Léviathan sécuritaire qui est à redouter mais un réseau aussi étendu que complexe, dépourvu de la moindre "volonté" centralisée et dont la sophistication même permet l’invisibilité. C’est le Big Brother d’Orwell sans dictateur ni parti. Si les outils nouveaux posent et poseront toujours des questions, la question première reste celle de leur finalité et de leur contrôle.

La révolution numérique reprend et prolonge les interrogations plus traditionnelles sur le contrôle démocratique et la protection des libertés, mais exige une vigilance permanente sur le risque d’installation d’une "vision du monde" fondée sur la réduction de l’humain et des relations sociales à un système mathématisé de données. La problématique "justice-police-IA" relève d’un débat global d’ordre philosophique et politique où ce qui est principalement en cause et en jeu est la nature de l’État (démocratie ou non, existence ou absence de contrôle et de contre-pouvoirs). Hors la prophétie transhumaniste qui annonce une tout autre histoire (ou chimère), les débats à poursuivre consistent à laisser les outils à leur place, à s’entendre sur leurs fins et à se doter des moyens de contrôler leur exécution.

Derrière cet article

Manuel Palacio En savoir plus

Manuel Palacio

Fonction Rédacteur en chef des Cahiers de la sécurité et de la justice