Nouvelles disruptions privacitaires

par Lucas Bogaert-Rossi

La privacité est un terme très peu utilisé dans la langue française. Alors que son équivalent anglophone suscite de nombreuses recherches universitaires, ce terme français est délaissé au profit d’une autre locution : la vie privée. Mais celle-ci n’est malheureusement pas adéquate pour désigner l’ensemble des pratiques privacitaires, ne possède qu’une petite extension conceptuelle, et sa dimension normative n’est pas claire. En francisant le terme de privacy – dont nous pensons qu’il suscite intuitivement aux personnes non-averties une signification dont le contenu est un minimum partagé avec notre définition – nous voulons conceptualiser de manière claire et précise une pratique sociale de la plus haute importance pour nos sociétés actuelles. Plus qu’un simple problème linguistique, la recherche universitaire française sur les problèmes liés à la privacité, ou à la vie privée, sont quasi-inexistantes. Alors que paradoxalement, la législation européenne et française sur la protection des données personnelles, quoique complexe, est beaucoup plus développée qu’aux États Unis.

La privacité peut s’entendre premièrement comme relative à la vie privée des individus. C’est ce que l’on pourrait appeler son sens minimal. Si la privacité ne désigne que cela, l’existence de la protection légale de la vie privée afin de compenser ou punir les invasions et violations de la vie privée serait suffisante. Cependant, cette acception minimale n’est pas adéquate pour comprendre la privacité dans sa totalité, et surtout pour construire des solutions légales liées aux problèmes qu’elle soulève. En effet, ce terme est d’abord utile car il ne réfère pas seulement à une dimension passive de ce qui est privatif – se basant sur les torts – mais au contraire permet de développer en profondeur une dimension positive d’une pratique sociale humaine. La privacité doit en effet se comprendre comme une valeur humaine fondamentale, intrinsèquement reliée au statut moral et légal de personne. Qui plus est, la privacité publique, qui est fondamentalement reliée aux nouveautés technologiques, est difficilement compréhensible par la seule locution de « vie privée ». Et enfin, il est difficile de développer les éléments de la privacité partagée, car en n’utilisant que cette locution, une certaine prédominance sémantique pour le secret, la solitude et la séclusion est présente. Ce qui n’est pas le cas avec le concept plus général de privacité.

Nous définissons la privacité comme une pratique sociale ayant une valeur morale et une application légale justifiée. Dimension pouvant là aussi ne pas s’inscrire dans la locution « vie privée », qui ne décrit qu’un état de fait sans réelle consonance normative. Le véritable intérêt qu’il y a à entamer une recherche philosophique sur le concept de privacité n’est pas uniquement celui de lui donner une meilleure cohérence théorique. La privacité est aujourd’hui un concept dont on se doit d’explorer les implications car un sentiment général d’inquiétude la concernant est présent au sein de nos sociétés technologiques contemporaines. En effet, par l’essor des nouveaux dispositifs et outils technologiques, la privacité des individus est constamment menacée. L’essor des technologies de l’information, menant à l’amélioration de son agrégation et de son traitement, nous contraint à changer notre perspective sur la puissance que leur détention et utilisation fournissent. A chaque fois qu’une de ces nouvelles technologies émerge et s’intègre dans l’univers social et intime des individus, la question de son respect pour la privacité, ou pour la vie privée, sera nécessairement posée. L’un des changements majeurs apporté par ces technologies est l’agrégation accrue d’informations, possible grâce aux nouveaux procédés d’acquisition créant de plus en plus de données informatiques et par la grande facilité de stockage des systèmes informatiques. Mais aussi et surtout par les nouvelles pratiques concrètes des individus. Les nouvelles disruptions de la privacité contemporaine des individus sont essentiellement liées aux disruptions technologiques affectant nos modes de vie.

Prenons l’exemple des achats de commodités. Lorsque nous allons dans un centre commercial pour l’achat d’une nouvelle paire de chaussures, nous livrons beaucoup d’informations sur nous-mêmes à différents types de récepteurs. Des individus feront l’expérience de notre corps, c’est-à-dire acquerrons des informations sur notre visage, notre habillement, notre démarche, ou même sur notre façon de parler – en somme notre manière d’être au sein d’une situation sociale particulière. Des dispositifs artificiels feront aussi l’acquisition de certaines de nos informations, les caméras de surveillance (enregistrant les mêmes informations que les individus pouvant par la suite être analysées par un agent humain ou par un logiciel de reconnaissance faciale), le système informatique du parking dans lequel nous sommes stationnés (date et heure de la localisation de notre véhicule personnel) ou encore le terminal de paiement bancaire (prix, heure, date et description de la commodité) si nous achetons avec notre carte de crédit. L’on voit donc que même si notre expérience est enregistrée dans une certaine mesure, nous restons libres d’une trop grande agrégation de nos données personnelles. Qui plus est, l’acquisition faite par des individus est intuitivement moins invasive car les procédures de conservation et d’utilisation sont beaucoup moins précises et efficaces que celles informatisées. Au contraire, l’acquisition numérique des informations se caractérise par une si grande capacité de mémoire et de duplication des informations qu’une comparaison avec le système cognitif humain est incohérente.

D’autres dispositifs informatiques peuvent aussi étoffer cet exemple. Notre téléphone portable peut en effet transmettre notre localisation grâce au GPS et enregistrer les temps de trajet que nous effectuons. Aussi innocentes que ces informations puissent paraître, le fait que notre vitesse moyenne de déplacement soit enregistrée peut être vu comme invasif et n’étant l’affaire de personnes d’autre que nous-mêmes. Devrait-il être interdit aux entreprises possédant des moyens de traitement de l’information de s’en servir à des fins autres que celles ayant été à la base de la fabrication du produit ou du logiciel ? Un système GPS sert à aller d’un point A à un point B, ne serait-il donc pas logique de considérer toutes les autres utilisations possibles de celui-ci comme injustifiées ? En plus de cela, les nouveaux outils d’identification par radio fréquence comme les puces RFID sont des outils enregistrant nos mouvements par la transmission de données à des bornes fixes, qu’elles activent par proximité physique, et qui stockent et traitent les données reçues. Lorsqu’une puce microscopique implantée dans un objet, une bouteille de lait ou une carte d’identification par exemple, active une borne, soit l’information est juste transmise sans action immédiate, l’information est ainsi incorporée dans une base de données pouvant ensuite produire des constances (pattern) par leur traitement (data mining par exemple), soit celle-ci permet l’accès à des espaces physiques après traitement des données par l’ouverture d’une porte par exemple. Certains biens de consommation peuvent donc (souvent dans l’ignorance des consommateurs) servir de relais de données pour des entreprises commerciales. Des organismes ou des individus peuvent à notre insu placer des outils d’agrégation et de partage d’informations personnelles sans notre consentement préalable. Ainsi se dévoilent deux processus de ce que l’on peut appeler la dataveillance : l’acquisition et le traitement, qui peuvent se comprendre au sein des catégories privacitaires de l’accès et de l’usage. Les données peuvent servir à des fins différentes de celles définies lors de la mise en place des dispositifs technologiques d’acquisition. Mais l’on notera que le but général est généralement l’efficacité des structures sociales auxquelles ils sont intégrés. Ce qui inquiète le plus c’est bien évidemment l’usage, et ainsi l’agrégation et l’accès peuvent apparaître somme toute inoffensifs. Mais ce serait oublier qu’une fois des bases de données créées, des risques réels le sont aussi. De toute évidence, il est certain que chaque dispositif possède un but déterminant sa création, et que donc il serait incohérent d’affirmer qu’une base de données puisse être détachée de toute usage présent ou futur.

Ces usages des bases de données acquises plus ou moins avec le consentement des individus auxquelles elles sont attachées sont divers. Ainsi, l’on peut par l’utilisation de puces RFID informer le système informatique d’un supermarché que certains produits ont atteint la data limite de consommation, permettre les entrées et sorties des individus autorisés dans un espace physique de manière fluide, ou encore avoir un meilleur contrôle de la population animale par l’implantation sous-cutanée de ces puces. Elles peuvent aussi, comme c’est le cas des passeports européens, permettre une meilleure sécurité de certaines structures sociales. L’utilisation de cookies par les sites internet est aussi un aspect important de l’inquiétude privacitaire d’aujourd’hui. Ceux-ci permettent par le placement de fichier sur les systèmes informatiques des utilisateurs un envoi des données de navigation vers le site internet les ayant placés. Comme par exemple le temps de consultation d’une page, les pages consultées ou les occurrences. Et cela dans le but de fournir une navigation plus adaptée à chaque individu, notamment par le placement de publicités ou de suggestions correspondantes aux préférences d’un individu déduites de son comportement en ligne. Le problème est que par des méthodes simples ce n’est pas seulement le site sur lequel on navigue qui aura accès à ces fichiers, mais aussi des entreprises tierces. Les bases de données, grâce au computer merging, peuvent être combinées afin que de nouvelles corrélations émergent, changeant ainsi la qualité et l’utilité des informations présentes. De plus, ces possibilités d’acquisition nous font aussi voir que notre présence (ou téléprésence) en ligne est totalement informatisable, c’est-à-dire que toutes les informations créées par celle-ci sont stockables et analysables. Notre vie en ligne est totalement traçable. Cela marque une différence fondamentale avec notre premier exemple d’achat physique. Le fait que nous ayons hésité entre une paire de chaussures brunes ou noires est automatiquement et facilement informatisé. Alors que dans le cas d’une présence physique, seule une surveillance coûteuse par caméra donnerait le même résultat.

Tous ces dispositifs permettent donc la création de profils numérique qui peuvent notamment menacer la privacité des individus par leur classification dans des groupes auxquelles ils n’ont jamais voulu s’affilier. Le profilage numérique crée une identité indépendante du choix de l’individu – même si ce profil émerge d’activités librement choisies. Les technologies nous classifient et nous associent à des groupes sociaux, culturels et politiques par l’ensemble des données récoltées par notre présence physique dans un lieu public ou dans le cyberespace. Ces classifications serviront ensuite d’outils décisionnels pour les institutions ou les entreprises privées. Les assurances n’assureront pas de la même manière un individu dont on sait qu’il mange sainement et un autre dont les habitudes alimentaires sont plus qu’inquiétantes. La privacité des individus fait ici problème car un nombre important d’informations constituant nos activités, et donc notre présence au monde, sont stockées sur des bases de données sur lesquelles nous n’avons aucun contrôle. De plus, le droit à l’oubli est aussi frottement menacé par ces nouveaux procédés numériques. Nos informations personnelles sont stockées et nous suivent pour des durées potentiellement infinies. Et pire encore, notre profil numérique peut aussi précéder nos interactions réelles avec des structures et organisations sociales.

L’on voit donc par cette exposition au combien les nouvelles technologies peuvent être invasives pour notre privacité à cause de leurs capacités d’acquisition et de traitement de l’information. Les nouvelles technologies ont apporté de plus grandes capacités de stockage, une plus grande rapidité d’analyse et de plus grandes possibilités de captation de l’information 1. L’ensemble de nos interactions avec les entreprises privées, les institutions et dans une certaine mesure nos relations sociales privées sont désormais informatisées. Notre présence au monde se révèle de plus en plus sujette à des intégrations dans des systèmes dont nous ne faisons pas nous-mêmes l’expérience. Le sentiment général qui émerge est un manque de contrôle et de traçabilité sur ce que des tiers possèdent de nous et la manière dont ils utilisent ces informations personnelles. Ces données deviennent si dispersées qu’il est désormais impossible de les comprendre comme ayant une localisation numérique fixe. Une régulation légale de la privacité des individus devient donc une entreprise essentielle de nos sociétés technologiques contemporaines. Ce sont effectivement les inquiétudes issues des nouveaux procédés technologiques qui sont au fondement des recherches sur la privacité 2

Ces nouveaux problèmes ne peuvent être résolus sans que l’on détermine précisément pourquoi la privacité doit être protégée. Si la privacité doit être protégée, il est nécessaire que cette pratique soit une valeur morale et qu’elle soit un bien dont les hommes doivent avoir la possibilité de jouir. Cette classification permettra ensuite la création d’un droit légal la protégeant, car étant une valeur, les individus possèderont un intérêt justifié dans leurs revendications privacitaires. De ce fait, ce droit à la privacité permettra la mise en place de devoirs légaux régulant la pratique de la privacité, mais aussi de compenser et punir sa violation. Ces courts exemples sont suffisants pour illustrer à quel point une compréhension de la complexité des connexions entre nos données privées issues de nos pratiques quotidiennes et leur traitement est aujourd’hui plus que nécessaire.

Notes:

  1. Pour une analyse détaillée des procédés technologiques menaçant la privacité des individus voir TAVANI Herman T. (2011 [2004]1), Ethics and Technology, Hoboken, Wiley Publishing, p. 141 – 156.
  2. WARREN Samuel D. and BRANDEIS Louis D. (1890), « The Right to Privacy », Harvard Law Review, Vol. 4, No. 5, pp. 193 – 220.