Panoptique global contre réseaux communautaires. Quelques notes à propos de Permanent Record, d’Edward Snowden

Daniel Viñar

Lorsque Marie-Claire Caloz-Tschopp m’a proposé d’écrire quelques pages à propos de Permanent Record, d’Edward Snowden, je n’ai vu qu’un rapport lointain avec ce travail de « Praxis-Mémoires-Archives ». 

Il y a pourtant une dialectique évidente si l’on prend le sens littéral des mots: un « registre permanent » n’est-ce pas le rêve ultime de l’Archiviste, son outil parfait face aux défaillances de la mémoire, si malléable ou inaccessible, ou aux limites de la durabilité et de la gestion des supports traditionnels, comme l’argile, le papier, le vinyle ou le magnétique primitif ? Rêve de tout spécialiste, d’un monde idéal où il dispose de toutes les ressources et la technologie nécessaires pour l’exercice de sa discipline, son métier ou son art, sans autre limite que sa propre capacité conceptuelle.

De telles utopies sont sans aucun doute moteurs d’émulation et de créativité et il est évident qu’elles peuvent apporter beaucoup de bien – en particulier en sciences et technologie – mais nous sommes tous aussi plus ou moins conscients qu’elles peuvent conduire à diverses dérives totalitaires, voir aux plus sombres dystopies deshumanisantes. La science fiction, qui a si souvent su être visionnaire, ne manque pas d’exemples.

Cette contradiction, ce trade off dirait-on en anglais, n’a pourtant jamais trop inquiété l’humanité. Nous avons confiance que les limites du techniquement possible et la diversité d’intérêts en jeu nous mettent plus ou moins à l’abri de tels Golems. Ou du moins, pensons nous, qu’il y a plus urgent à faire avec des nuisances (ou des bienfaits) plus immédiats et avérés de notre civilisation techno-scientifique, comme le progrès, le bien-être, le changement climatique, la contamination ou la trash-food.

Eh bien, peut être nous nous trompons. Car c’est bien de cela qu’il s’agit dans le livre d’Edward Snowden. Si Permanent Record est avant tout une autobiographie – et vaut beaucoup en cela même – son but premier est ce pourquoi Snowden a choisi de risquer et de bouleverser sa vie : nous dévoiler l’avènement, extrêmement discret mais bien réel, d’un tel système totalisant capable de fausser inexorablement « les règles de jeu » en faveur d’une techno-oligarchie globale dominante de facto.

Et c’est un peu d’archives qu’il s’agit, mais il faut penser à celles de la STASI ou du Plan Condor, plutôt qu’aux Archives des Indes à Séville ou à notre contemporain https://archive.org.

Snowden n’a pas été le premier à lancer l’alerte à propos de cette conspiration. Déjà, dans les années 90, il y avait eu des fuites au sujet de l’initiative Echelon[1], premier contexte où est apparue cette idée d’écoute systématique de toutes les télécommunications. (Et nous avons été beaucoup, y compris parmi les spécialistes, à penser que c’était impossible. Nous nous trompions.) Peu après l’attentat des tours jumelles, William Binney et d’autres lanceurs d’alerte whistleblowers dit-on en anglais, « celui qui souffle dans le sifflet » – ont dénoncé les budgets colossaux que les services secrets étasuniens investissaient dans des systèmes de surveillance massive, liberticides et contraires à tous les principes du droit. Dans les années qui suivirent, a été mis en place Wikileaks pour faire face aux difficultés croissantes de la presse d’investigation pour protéger ses sources, en raison des nouveaux canaux technologiques de surveillance. C’est à travers Wikileaks que la soldate Chelsea Manning a rendu publiques des preuves sur des armes technologiques et des crimes de guerre des États Unis au Moyen Orient, lors de la Deuxième Guerre du Golfe.

Edward Snowden connaissait tous ces cas et avait tous les antécédents. Travaillant lui même comme contractuel sous-traitant auprès de la Central Information Agency (CIA) puis de la National Security Agency (NSA)  – carrière dans laquelle il s’est initialement engagé par conviction, à la suite du 11 septembre 2001 – Snowden a choisi, au fur et à mesure de sa prise de conscience, d’investiguer de l’intérieur, compilant méthodologiquement et minutieusement une documentation massives de preuves de ce qu’il allait dénoncer. Pour légitimer au mieux son acte, il n’a pas fait ses révélations à travers Wikileaks, mais a préféré passer par les canaux habituels des média traditionnels. Pour choisir les bons interlocuteurs, il a utilisé les systèmes mêmes de la NSA puis – le plus risqué – il a réussi à contacter confidentiellement les journalistes qui étaient déjà sous filature en raison de leurs investigations sur ces sujets. Il tenait à leur remettre la documentation et que ce soit eux qui décident quoi révéler et comment.

Ainsi, comme le retrace le documentaire « Citizen Four » dans une sorte de make off de ce premier chapitre de « l’affaire Snowden », Laura Poitras et Glenn Greewald rejoignent, début juin 2013, Edward Snowden dans une chambre d’hôtel à Hong Kong où il avait attendu plusieurs jours, se demandant qui des services secrets ou des journalistes frapperaient les premiers à sa porte. Vu l’étendue et la complexité de ses révélations, ceux-ci ont crû bon que Snowden soit son propre porte-parole.

Faisant « la une » partout dans le monde, il a alors dévoilé le système global d’écoute de signaux et de récollection de données qu’a mis en place la « Security Community », réseau d’agences de services secrets étasuniens, dont la CIA et la NSA, avec sa nébuleuse de contractuels et alliés, pour écouter, référencer et stocker la totalité des communications électroniques de l’humanité.

Chaque déclaration de Snowden était corroborée dans les média par l’analyse de l’information qu’il avait filtrée, et chaque analyse menait à de nouvelles conclusions sur l’étendue et la gravité de l’affaire. Lorsque Snowden a dû fuir Hong Kong et qu’il s’est retrouvé sans papiers dans le no man’s land de correspondance de l’aéroport de Cheremetievo, à Moscou, celui-ci s’est transformé pendant de longs jours en salle de presse de cette « une globale », avec chaque jour sa nouvelle fracassante.

Depuis lors, au cours des années, se sont succédés analyses, commentaires, conférences, initiatives activistes, recherches académiques dans diverses disciplines. Régulièrement, l’affaire ressort dans les média, en raison de différents liens avec l’actualité. Rappelons nous seulement lorsque, en juillet 2013, l’avion présidentiel de l’État Plurinational de Bolivie a été, à l’encontre des principes de base de la diplomatie internationale, interdit de vol et perquisitionné en Autriche, les services secrets soupçonnant qu’Evo Morales ait donné asile à Snowden.

Ainsi, ce que nous a révélé Snowden – par le canal le plus légitime qu’il ait pu choisir: la presse libre et indépendante – est bien connu, documenté et analysé. Sans doute toute personne avertie et curieuse de se sa vie de société a quelque connaissance de l’affaire et a plus ou moins compris son illégitimité et son danger pour le monde démocratique. Mais, peut être, affronter cette réalité fait trop peur, à la première stupeur et indignation, fait trop souvent suite, au mieux, une mauvaise compréhension de cette conspiration, au pire, le désintéressement de l’autruche, le défaitisme, voir le renoncement revendiqué à des valeurs essentielles, comme le droit à la privacité ou de libre expression.

Mauvaise compréhension : Lorsqu’on a su que les services secrets pouvaient écouter le portable personnel d’Angela Merkel, voire que Barak Obama l’avait en effet écoutée, ce fut un scandale. Mais le véritable scandale initial est que les services secrets allemands aient pu signer avec leurs homologues étasuniens un accord, probablement asymétrique, d’échange mutuel d’écoute de signaux et collecte de données, probablement sans même qu’Angela Merkel ne le sache ou n’en prenne conscience ; accord qui permet à la NSA d’écouter, non seulement son portable, mais aussi ceux de tous les citoyens allemands.

Autre analyse trop simpliste: « De toute manière, ils ne trouveront rien d’intéressant à m’espionner ». Ce que révèlent Edward Snowden, et avant lui plusieurs autres donneurs d’alerte, est le passage d’une surveillance stratégique à une surveillance tactique.  Dans l’ancien monde des « espions » la capacité des services secrets se mesurait en quantité de cibles qu’ils pouvaient suivre en fonction de leurs moyens. L’écoute de signaux et la collecte de données étaient déjà présentes, mais seulement comme une composante, et de manière ciblée. Mais l’ère des espions est révolue, nous sommes passés à celle des « écoutants » – des listeners, selon la terminologie de Snowden et d’autres auteurs cités ici. Avec l’évolution des technologies de l’information et la généralisation de la digitalisation de l’activité humaine, il devient possible de passer à une écoute de la totalité des signaux et une collecte et enregistrement systématique au moins des metadonnées[2].  Pour une cible donnée, à un moment quelconque, l’exploration de ces données interconnectées fournit à ces « écoutants » des services secrets de bien meilleurs résultats que les filatures à l’ancienne.

Politique de l’autruche ou défaitisme : Combien de fois fermons-nous le débat ou la réflexion avec un « Mais que peut-on faire d’autre ?!? », argumentant nos limitations techniques individuelles, l’impossibilité de faire autrement que de passer par les géants du numérique (qui sont les instruments de la surveillance, nous y viendrons), la commodité et supériorité de leurs outils commerciaux publi-gratuits face aux alternatives communautaires, libres et respectueuses de la privacité ?

Combien d’entre nous, même parmi les activistes, y compris dans les communautés hackers, du logiciel libre ou de défense des nouveaux droits numériques, avons-nous fait quelque chose de concret pour ne plus céder, pour céder le moins possible de données personnelles à Google, à Facebook ou autre GAFAM[3] ?

Il y pourtant des choses à faire à tout niveau et, surtout, des raisons de ne pas perdre espoir – nous y reviendrons.  Dans une de ses dernières interviews avant de faire le choix du suicide face au harcèlement du Département d’État, qui le menaçait de 35 ans de prison et de plusieurs millions de dollars d’amende pour avoir téléchargé de la littérature scientifique, Aaron Swartz nous donne un raison simple et claire pour agir[4]:

Il y a ces deux sortes de perspectives polarisées. Ok, tout est bien, l’Internet crée toute cette Liberté et tout va être fantastique. Ou alors : tout est terrible, l’Internet crée tous ces outils pour craquer, pour épier, contrôler ce que l’on dit. Et ces assertions sont vraies toutes les deux. L’Internet a fait les deux. Et les deux sont impressionnantes et incroyables. Laquelle des deux gagnera sur le long terme ? Cela dépend de nous ! Cela ne fait pas de sens de dire que l’une réussit mieux que l’autre. Les deux sont vraies. Et cela dépend de nous, laquelle on accentue, de laquelle on tire avantage. Car elles sont toutes les deux là et elles seront toujours toutes les deux là.

Mais avant l’action il y a la prise de conscience. Et s’il y a un domaine au delà du technique où l’idéologie conspirative de la surveillance a progressé, c’est à orchestrer une série de concessions éthiques et morales inacceptables qui sont nécessaires à ses desseins : il est aujourd’hui courant, même parmi les « progressistes » de justifier – ou pour le moins de nuancer la critique – de la censure de l’internet pour lutter contre la pédophilie, la contrefaçon ou le négationnisme, et de la surveillance généralisées par les services secrets, voir des assassinats ciblés par drone, en raison de la lutte contre le terrorisme.

Argument charnière pour justifier à titre personnel cette acceptation: « Je n’ai rien à cacher ». On n’a rien à cacher quand on fait partie des « honnêtes gens ». Eric Schmidt, PDG de Google, déclarait[5]: « Si vous faites quelque chose que vous ne voulez que personne ne sache, peut-être est-ce avant tout vous qui ne devriez pas être en train de le faire », assimilant ainsi la revendication de privacité avec la présomption de culpabilité. Dans la chanson/interview de La Parisienne Libérée « Rien à cacher », Jérémie Zimmermann montre comment la privacité est nécessaire à l’exercice de la créativité[6]. Plus encore, si nous considérons que la science progresse, non pas tant dans une recherche continue et neutre de faits, mais plutôt en émettant des hypothèses et en les confrontant à la réalité et à l’expérience, qui osera émettre les nécessaires hypothèses politiquement incorrectes alors qu’il se sait sous une surveillance aux conséquences implacables ? L’abandon de la privacité est ainsi contraire à l’exercice de l’intelligence. Edward Snowden, dans son livre, exprime par une excellente analogie l’aspect fondamental et le caractère collectif du droit à la privacité :

Argumenter que l’on ne se préoccupe pas du droit à la privacité parce que l’on n’a rien à cacher, c’est comme affirmer que l’on ne se préoccupe pas de la liberté d’expression parce que l’on a rien à dire, ou de la liberté de la presse parce que l’on n’a rien à écrire.

Le milieu des affaires n’hésite pourtant pas à revendiquer le droit au secret corporatif, et les gouvernements la raison d’état.

L’affaire est grave. Fin 2013, mon ami Jamie McClelland, hacker en chef de mayfirst.coop considérait : « Même ceux d’entre nous qui étions sensibilisés aux dangers fûmes surpris par les révélations de Snowden – nous avons appris que les choses étaient pires que dans nos cauchemars les plus paranoïaques ».

Mais il y a aussi un revers de la médaille : si l’on connaît assez bien ce que ces « lanceurs d’alerte » ont dénoncé sur ces systèmes de surveillance massive, bien moins connus et pris en compte sont certains faits qui sortent de l’analyse des documents filtrés, dont une partie donne de bonnes raisons d’espérer, mais nous exige aussi d’agir.

Pour les aborder, il est utile de nous attarder quelques linges sur les notions de cryptographie de l’information. Celle-ci se comprend bien à partir d’exemples contemporains – en nous y viendrons – mais d’abord, pour en saisir l’importance et la portée, commençons par quelques références épistémologiques.

La question de savoir « quel est le propre de l’humain » a depuis toujours été centrale pour notre pensée. Au delà de la primauté dans la création divine, on est passé par le déplacement bipède, la maîtrise du feu, le maniement de l’outil, la fabrication d’outils, les soins aux personnes âgées ou le culte des morts. Certes, mais des espèces humaines qui avaient une ou plusieurs de ces caractéristiques (Néandertal par exemple) ont existé pendant deux millions d’années sans se distinguer outre mesure sur cette planète. Mais avant de chercher à en identifier la cause, qu’est-ce qui caractérise en réalité l’hominisation ? Pour l’école de pensée de studieux comme Jared Diamond[7] ou Yuval Noah Harari[8], qui fait une analyse ou lecture neo-darwinienne de l’histoire et de la culture, il  s’agit d’identifier ce qui a permis a homo sapiens de devenir, dans les 70.000 dernières années, l’espèce dominante sur la planète, qui s’est sauvagement approprié l’immense majorité de ses ressources, à commencer par la soumission du reste des règnes animal et végétal.

Leur hypothèse est que la richesse du langage humain est le facteur clé qui a permis à notre espèce de s’organiser en groupes coopératifs (mais hiérarchiques, comme tous les mammifères) de plus en plus grands, jusqu’à arriver aux états-nations et l’ordre international contemporain. Des éthologues comme Franz de Wall, qui a étudié toute sa vie les chimpanzés et d’autres singes, coïncident sur cette hypothèse. Bien qu’il insiste (comme Jared Diamond dans « Le Troisième Chimpanzé ») sur le fait que toutes les caractéristiques humaines (comportement social, langage, agriculture, art, xénophobie, génocides, empathie, moralité, sens de l’équité, de la justice, …) ont des précurseurs, au moins embryonnaires, dans beaucoup de sociétés animales, et qu’il considère que la lecture qui portera des fruits est de reconnaître avant tout la continuité évolutive entre les animaux et les humains, pour y trouver le faisceau de caractéristiques qui font notre humanité spécifique , il identifie clairement dans le langage humain un trait unique en termes de conséquences pour le devenir de l’espèce à l’ère de ce que Harari appelle la révolution cognitive.

Mais que permet le langage ? Lorsqu’il va au delà de quelques cris pour différencier l’alerte en raison de l’attaque d’un aigle ou de la présence d’un serpent[9], émerge ce concept que nous appelons « information ». Il permet d’évoquer et rendre présent et réel ce qui n’est pas là, dans le temps ou l’espace. Et avec cela il permet en particulier de parler des autres membres de la horde et d’intriguer. Tous les mammifères sont des animaux sociaux et tous établissent des hiérarchies. Il y a des comportements sociaux, des règles, de l’empathie, voir une culture, mais les hiérarchies s’établissent comme la moins mauvaise forme de cohésion du groupe. Pour coopérer les individus ont besoin de se connaître. Des animaux de groupes différents, qui ne se connaissent pas, ne peuvent coopérer.  Les liens sociaux se font d’un à un, et prennent du temps. En conséquence la taille des sociétés de mammifères atteignent, au plus, une cinquantaine d’individus.

Le premier bénéfice du langage a peut-être ainsi été le commérage. La possibilité de collecter de l’information des uns à travers les autres parmi les membres de la tribu et de connaître la trame de relations aurait permis a homo sapiens de s’organiser en hordes de probablement 100 ou 150 individus (ce qui est, même aujourd’hui, le nombre maximal de personnes que quelqu’un peut connaître personnellement).

Ainsi, la maîtrise de l’information est rapidement devenue un instrument clé, en plus de l’habileté politique, pour la conquête du pouvoir.

Mais la portée du langage va au-delà des dimensions de temps et d’espace. Il permet d’évoquer tous  les mystères de l’univers et donne lieu à la fiction, conduisant ainsi à construire des cosmologies, territoires où se déploient ces cultures d’un nouveau type, jusque là inconnu. Mais en quoi cela permet-il à homo sapiens de construire des réseaux de coopération d’individus de plus en plus grands dans sa conquête du monde ? Selon Harari, la cohésion d’une société tient dans la croyance et l’acceptation collective d’un « ordre imaginaire » partagé. Il le considère ainsi en englobant, à peu près tout, depuis les mythes primitifs jusqu’à la démocratie et les droits humains[10], en passant par les religions, les idéologies, l’argent, les corporations et autres personnes juridiques, les nationalismes et tous les ‑ismes, ou le code d’Hammurabi. La construction d’un ordre imaginaire, maîtrise de l’information par excellence, est clairement enjeu de pouvoir parmi ces jeunes primates doués de parole. Si l’ordre imaginaire est mis en question, société et pouvoir s’écroulent. Les maintenir en place requiert le contrôle de l’information.

En Octobre 2013, Eben Moglen, Professeur de Droit à l’Université de Columbia, New York, et principal juriste de la Free Software Foundation, a commencé sa série de quatre conférences[11] « Snowden and The Future », par rappeler le contrôle des communications et le niveau personnel d’information de l’Empereur qu’a atteint l’empire Romain sous Auguste, le pouvoir absolu que cela lui conférait, et comment cela a conduit à un nouvel esclavage puis à la décadence. Il note, en particulier, comment a perduré pour les romains le souvenir de se percevoir comme un peuple libre. Ils croyaient en leur « ordre imaginaire ».

Enigma, machine de chiffrement utilisée par les Allemands pendant la Seconde Guerre Mondiale.

L’information est un concept peut-être pas aussi difficile à cerner que la pensée ou la conscience, mais sans doute aussi énigmatique que la non existence de l’éther[12]. Et, au contraire de cette dernière et de même que les deux premières (pensée et conscience), l’information fait partie de nos expériences subjectives les plus évidentes et quotidiennes. Et elle est depuis toujours, l’un des éléments clés de la construction des hiérarchies et des relations de pouvoir humaines, par ses conséquences sur notre comportement.

Dès le départ, l’astuce et la technologie sont intervenues dans cette maîtrise et contrôle de l’information. Depuis tuer le messager pour éviter que la nouvelle ne se sache, jusqu’aux modernes systèmes de cryptage (nous y venons), en passant par les langues et dialectes (en particulier les « javanais »), l’écriture elle-même (qui au départ était secret de palais), les techniques d’encre invisible, les alphabets codés, les sceaux et cachets, les machines cryptographiques que l’on connaît depuis l’ère moderne ou celles plus sophistiquées de la Deuxième Guerre Mondiale, dont la fameuse Enigma de l’armée hitlerienne[13].

Un scytale, dispositif cryptographique utilisé dans la Grèce Antique.

Crypter – l’anglicisme, plus précis, a tendance à s’imposer – ou chiffrer un message d’information c’est, comme faisait Enigma, combiner ce dernier avec une information secrète, la clé, convenue au préalable avec le ou les interlocuteurs, pour qu’il devienne inaccessible à quelqu’un qui l’intercepterait. Le « code de cryptage » est la procédure, le calcul, l’algorithme dit-on en informatique, par lequel on combine la clé et le message. Information et cryptage sont peu à peu devenus mathématiques, aujourd’hui une branche entière des mathématiques discrètes. La notion d’entropie, qui dans plusieurs branches de la physique est une mesure du degré de désordre et qui en théorie de l’information permet de distinguer celle-ci du bruit, a permis de parfaire les codes de cryptage. Les fonctions non réversibles nous ont appris à extraire des « empreintes cryptographiques » d’un message, ou « hash-code », permettant ultérieurement d’en valider l’intégrité. Avec la théorie des nombres premiers, nous avons construit le « cryptage asymétrique », où ce n’est plus une clé mais un jeu de deux clés que l’on utilise : on ne peut déduire l’une de l’autre, mais ce que l’on chiffre avec l’une se déchiffre avec l’autre, et réciproquement. Grâce au cryptage asymétrique et aux hash-codes on sait construire, au-delà de la capacité d’occulter le contenu d’un message, des outils de signature ou de certification cryptographiques. Au lieu d’échanger des clés secrètes entre paires d’interlocuteurs (cryptage symétrique) chaque personne ou entité dispose d’un jeu de clés, une « clé privée » et une « clé publique ». Ma clé privée me sert à signer les messages que je diffuse et à déchiffrer les messages que l’on m’envoie cryptés. Ma clé publique sert à mes interlocuteurs à chiffrer les messages qu’ils veulent me faire parvenir confidentiellement et à vérifier par leur signature les messages qui leur parviennent de ma personne. Et j’invite ici le lecteur ou lectrice à réfléchir sur l’importance de l’authenticité de la clé publique de quelqu’un. Que se passe-t-il si j’arrive à faire passer une clé à moi pour votre clé publique ?

Plutôt que de « maîtrise et contrôle » de l’information, on parlerait techniquement aujourd’hui de sécurité de l’information, sous-discipline dont les quatre volets sont la confidentialité, l’intégrité, la traçabilité ou imputabilité, et la disponibilité de l’information.

Les raisons d’espérer dans le message que nous transmet Snowden, qui sont aussi l’édifice théorique de l’outillage cryptographique que nous venons d’évoquer, tiennent avant tout dans les prédictions de la théorie de l’information élaborée par Claude Shanonn, en bonne partie à partir des travaux d’Alan Turing pendant la Seconde Guerre Mondiale, en décryptant le code d’Enigma. La Wikipedia dit[14]: « C’est une erreur commune de penser que tout code de cryptage peut être cassé. (…) La plupart des codes (…) peut être cassé avec un effort de calcul suffisant[15], mais la puissance nécessaire de la machine croît exponentiellement[16] par rapport à la taille de la clé de cryptage. . » Dans les faits, cela rend les bons codes de cryptage incassables, car, il me faudrait tous les ordinateurs de la planète, pendant des milliers d’années, pour déchiffrer chaque message que j’intercepte. 

C’est pour cette raison que le cryptage a été, dans l’ordre international issu de la deuxième guerre mondiale, une prérogative des États, jalousement défendue. Certes, la jeune Déclaration Universelle des Droits Humains, en son article 12, consacrait que « nul ne sera l’objet d’immixtions arbitraires dans sa vie privée, sa famille, son domicile ou sa correspondance ». Sur ce dernier point, elle ne se basait que sur la déontologie du facteur, sensé ne pas ouvrir ou détourner votre courrier. Mais pour le citoyen lambda, envoyer une lettre cryptée était en soi un acte de sédition.

Puis Internet est arrivé. La timeline, « ligne de temps » de l’Internet que propose l’Internet Society[17] démarre en 1957, avec le lancement de Sputnik par l’Union Soviétique. En effet, nous sommes  certes à l’ère du silicium, mais le processeur électronique, est un produit collatéral de la conquête spatiale. En raison du temps de retard par propagation des ondes électromagnétique, on ne pouvait piloter depuis la terre l’alunissage du module d’Apollo 11. Il a fallu concevoir et construire un calculateur suffisamment léger pour être embarqué et capable de le faire alunir. Ainsi, en plus du stylo bille et de la bande velcro, la conquête de la lune nous a légué la technologie centrale de l’ordinateur et du smartphone tels que nous les connaissons : l’intégration de transistors sur semi-conducteurs.

Et le développement de cette technologie a connu un rythme de progrès jamais vu jusqu’alors dans l’industrie. Habituellement, un projet techno-industriel répond toujours à un compromis entre plusieurs facteurs. Par exemple, si l’on veut construire un avion de passagers super-sonique, il sera très cher et consommera énormément de carburant. Et si l’on fait cela sans avoir prévu un choc pétrolier, comme ce fut le cas pour le Concorde, cela aura beau être une prouesse technologique, ce sera un échec commercial. Avec les technologies des semi-conducteurs, chercheurs et ingénieurs voient tous les paramètres s’améliorer en même temps. Plus les processeurs contiennent de transistors au millimètre carré, plus ils vont vite, moins ils consomment, et moins cher ils coûtent. Pendant plus de trois décennies, les progrès des ordinateurs se sont révélés conformes aux lois de Moore[18], dupliquant leur capacité tous les deux ans. Pour illustrer ce que signifie cette courbe exponentielle, Steve Jobs, dans le documentaire « Histoire de l’Ordinateur » le compare à la voiture : si celles-ci avaient progressé autant que l’ordinateur, elles iraient à plusieurs dizaines de milliers de kilomètres à l’heure, et ce serait plus cher de payer le parking que de jeter sa voiture.

Ce saut quantitatif du numérique a modifié la nature de l’information et des communications. Il nous a permis d’aborder la complexité. Certes, depuis le premier cri, la première modulation de voix, les premiers signes sur les murs ou dans l’argile, les premiers signaux de fumée ou le premier sémaphore, le premier calcul, l’information et la communication ont été essentielles pour l’humanité. Mais elles restaient une représentation bien partielle de la réalité, lointaine et éphémère. Certes, on a appris à mettre à peu près tout en équation. Mais les problèmes mathématiques dont on ne connaît pas de solution sont bien plus nombreux que ceux dont on en connaît une. À l’ère de l’ordinateur, tout problème mathématique et ce qu’il représente peuvent être appréhendés par simulation numérique. Pensons seulement aux modèles de l’atmosphère qui nous donnent les prévisions météorologiques et l’impact du changement climatique, au séquencement du génome humain ou à la conception assistée par ordinateur. Internet se constitue en territoires où se déploient des réalités augmentées. De même que le langage a signifié l’émergence de la fiction par notre cognition, le numérique permet à la fiction de devenir réalité sensorielle.

On retient souvent de l’histoire d’Internet son origine militaire. L’armée étasunienne aurait voulu construire un réseau décentralisé, dont la partie restante continuerait de fonctionner même si un bombardement détruisait n’importe quel sous-ensemble de ses nœuds ou connexions. C’est peut-être un peu tout l’inverse : quelques chercheurs barbus et libertaires auraient réussi à faire financer par l’armée le développement d’un réseau de communications révolutionnaire, conforme leurs idéaux. En tout cas, le processus de conception de réseaux d’ordinateurs à partir des années 60 a vu s’affronter deux grands modèles : d’une part le modèle OSI, proposé par les États, les entreprises de télécommunications et les grands constructeurs informatiques d’alors[19], réunis autour de feu le Comité Consultatif International Télégraphique et Téléphonique (CCITT, devenu l’UIT)[20], modèle complexe, hiérarchique et centralisé, semblable aux réseaux téléphoniques et de télégraphe, et, d’autre part, celui proposé par la communauté Internet, essentiellement depuis les laboratoires de recherche en informatique et réseaux (mais pas seulement). C’est ce dernier, simple, décentralisé, réseau collaboratif de réseaux, qui s’est avéré le meilleur à l’expérience. Dans Internet les propositions de standards naissent comme des RFC, Request For Comments, « appel à commentaires » et sont toujours accompagnés de prototypes fonctionnels. Lorsqu’il n’y a plus de commentaires, la RFC peut devenir un standard. Les règles ne sont pas, comme dans l’OSI, un compromis bancal entre un idéal théorique compliqué et des intérêts corporatifs, mais un minimum nécessaire, consensuel et concret de ce que doivent respecter les systèmes pour interagir. Le réseau lui même est aussi simple que possible, voir stupide. Il se contente uniquement de diriger et transporter l’information, selon une stratégie de « l’effort minimal possible », et non d’un quelconque concept de « garantie de service ». Toute intelligence est repoussée aux marges du réseau. Un paquet de données peut ne pas arriver à destination, peut arriver avec des erreurs ou les paquets peuvent arriver désordonnés ; ce sera le rôle des modules terminaux d’assurer le contrôle de flux et d’erreur, et la cohérence des communications en général.

Telles semblent être les lois de la complexité et du chaos. Un jeu de règles simples, consensuelles et évolutives entre multiples acteurs indépendants réussit mieux qu’une grande planification d’ingénierie pour assumer la croissance et l’innovation vertigineuses d’un système global comme Internet[21]. Si les militaires ou les services secrets avaient dû concevoir à eux seuls le réseau global de communications de leurs rêves, on peut douter que c’eut été l’Internet tel qu’on le connaît qu’ils auraient accouché.

C’est là un point important pour ne pas céder à l’effroi qui conduit au conspirationisme ou complotisme. Il s’agit bien ici de conspiration ou complot, particulièrement puissants et dangereux, et c’est bien de le dénoncer qu’il convient avant tout. Mais il est essentiel d’analyser en quoi ils n’ont aucune suprématie ou prépondérance.

Conséquence pratique de la nature de l’Internet, ce chaos ordonné géré par une myriade d’acteurs hétéroclites : nulle confidentialité, nulle confiance ou garantie transactionnelle entre deux points du réseau. Seule solution pour l’établir – et en premier lieu pour y permettre le commerce électronique[22] : le cryptage.

Ainsi, au tournant du millénaire l’embargo des états sur le cryptage s’est effondré. Celles et ceux qui défendaient le droit à la privacité tel que défini par l’Article 12 de la Déclaration Universelle des Droits Humains, et qui revendiquaient pour cela la libéralisation du cryptage, se sont, avec nous, réjouis de cette convergence entre le libéralisme économique et les aspirations citoyennes, et étaient sûrs que l’usage de la cryptographie allait naturellement se généraliser pour préserver aussi notre intimité, en plus de notre argent et nos achats.

Revenons donc sur les conséquences de cette propriété fondamentale de l’information d’être exponentiellement plus difficile à déchiffrer (sans la clé) qu’à chiffrer, fondement théorique du cryptage moderne. Dans la préface pour l’Amérique Latine du livre « Cryptopunks » (2012) – écrit à quatre voix avec Jérémie Zimmermann, Jacob Appelbaum et Andy Müller-Maghun (et autour d’un bon cognac, lors de son enfermement dans l’Ambassade d’Équateur à Londres) – Julian Assange exprime en quoi ceci est un élément clé pour le droit à la privacité:

Mais nous, nous avons découvert quelque chose. Le seul espoir face à la domination totale, que, avec courage, réflexion et solidarité, nous pouvions utiliser pour résister. Une étrange propriété de l’univers physique que nous habitons.

L’univers croit en la cryptographie.

C’est plus facile d’encrypter, c’est à dire de chiffrer de l’information, que de la désencrypter, la déchiffrer.

Et nous avons observé que nous pouvions utiliser cette étrange propriété pour créer les lois d’un nouveau monde. Pour soustraire notre nouveau royaume platonique [l’internet] des structures physiques des satellites et câbles sous-marins, ainsi que de leurs contrôleurs et intercepteurs.  Pour fortifier notre espace avec un voile cryptographique. Pour créer de nouveaux territoires où sont exclus ceux qui contrôlent la réalité physique,  car pour nous en empêcher requiert d’infinies ressources.

Dans la quatrième et dernière conférence de la série « Snowden and The Future » déjà mentionnée, Eben Moglen résume ce que les documents filtrés par Snowden révèlent des résultats des travaux des services secrets étasuniens dans ce domaine[23]:

Les mauvaises nouvelles, c’est qu’ils ont fait différentes sortes de progrès : en premier lieu, ils ont corrompu la science. Ils ont secrètement affecté la conception de standards techniques de manière fondamentale, affaiblissant la sécurité de tout un chacun, en tout lieu, de manière à rendre leur travail plus facile (…)

Deuxièmement, ils se sont engagés dans le vol de clés à un degré que l’on ne peut atteindre que lorsque l’on est les voleurs les mieux fiancés du monde. Les clés de cryptage étaient ainsi inscrites déjà dans le hardware car ils étaient présents à la fabrication de ce dernier. Ils ont collecté des piles de clés qu’ils conservent avec, leurs équipes superbement entraînées à les voler.

Mais le fait même de privilégier la récollection de clés par le vol systématique de celles-ci et la documentation correspondante acquise en pénétrant les infrastructures de Google, Facebook et autres lieux, plutôt que de casser le cryptage SSL entre le monde extérieur et le business, tend a confirmer le fait le plus important que M. Snowden a essayé de nous transmettre en utilisant les documents de l’Agence elle-même : ils préfèrent, ou ils ont choisi par nécessité, comme c’est peut-être le cas, de voler des clés plutôt que de casser la cryptographie fondamentale qui sécurise l’économie globale, qui est essentiellement conçue dans le secteur coopératif par ses clients.

Ceci est le fait primordial et incendiaire des révélations de M. Snowden, vu de la perspective de la NSA: les écoutants préféreraient mourir plutôt que de dire ce qu’ils peuvent lire et ce qu’ils ne peuvent pas lire. Parce que tant que personne ne sait ce que vous pouvez lire vous avez un aura d’omniscience, mais si quelqu’un sait ce que vous ne pouvez par lire, alors bientôt vous ne pourrez plus lire quoi que ce soit.

Ainsi, si l’on s’en tient à l’immatériel de l’information, si l’on divise schématiquement nos positions idéologiques humaines entre ceux et celles qui mettons par dessus tout le droit à la libre détermination des personnes et des peuples, et ceux qui considèrent qu’il est plus sensé que certains, plus ou moins légitimes et éclairés, décident « pour le bien de tous », la théorie de l’information est du côté de la libre détermination.

Cela rend inopérant un pan complet de la surveillance : l’interception des communications « sur les fils ». En video-conférence depuis son exil à Moscou, Snowden a remercié les entrepreneurs de la Silicon Valley d’avoir pris plusieurs mesures techniques contre la surveillance massive : l’accès à Google et Wikipedia, pour ne citer qu’eux, se fait maintenant en https et non plus en http[24], préservant ainsi la confidentialité de l’information circulant sur Internet entre le navigateur de la personne et le serveur.  Intéressante leçon pour nous autres anti-capitalises : les entreprises de services en ligne, y compris les géants du numérique, craignent aussi les excès de l’Empire.

Et cela va jusqu’au partage : depuis lors s’est mis en place le service Letsencrypt[25], qui permet d’établir un service internet crypté en https par le simple fait d’être titulaire d’un domaine, alors qu’auparavant il fallait souscrire à des services professionnels complexes et coûteux.

Mais un moment, direz-vous : Moglen vient de dire que le cryptage robuste ssl/https est conçu par « le secteur coopératif », c’est-à-dire les communautés du logiciel et de la connaissance libres. Comment se fait-il qu’il faille des « services professionnels complexes et coûteux » pour avoir un malheureux site web basiquement protégé en https: ?

C’est qu’en termes de sécurité des communications à distance, on a toujours un problème de « l’oeuf et la poule », car pour échanger des messages de manière confidentielle grâce au cryptage, il nous faut au préalable accorder, de manière confidentielle quelles clés on va utiliser. Comment faire cela à travers internet, alors que c’est justement le canal que l’on cherche à sécuriser ? Et si je reçois la clé de mon interlocuteur, je dois être sûr qu’il s’agit bien du bon et que je ne suis pas en train de me faire leurrer par un usurpateur cybercrimminel. À notre problématique de confidentialité, s’ajoute une  problématique d’authentification, d’imputabilité de l’information. 

Dans le cas que nous prenions en exemple, un site web en https, ce dernier peut bien être public, comme Wikipedia, l’accès confidentiel (https) étant là afin de garantir la privacité de la navigation des visiteurs. (Car ce sont en effet des méta-données sensibles : « montre-moi ta bibliothèque, je te dirai qui tu es ».) Si ce n’est pas à Wikipedia mais aux services de votre banque que vous accédez, il vous paraîtra évident qu’il est plus qu’utile que votre navigateur sache authentifier la légitimité du site web auquel vous accédez avant d’y saisir l’identifiant et le mot de passe qui donnent accès à votre compte[26]. Mais si on y réfléchit, c’est aussi tout à fait pertinent que vous ayez la certitude cryptographique que vous accédez bien la Wikipedia et que vous n’avez pas été malicieusement redirigé vers un faux[27].

On a parlé du cryptage asymétrique qui facilitait les choses, mais il nous restait justement le problème de l’authenticité de la clé publique de notre interlocuteur. La réponse technologique la plus commune actuellement sur Internet est ce que l’on appelle des « Infrastructures de Clés Publiques » (PKI), qui  reposent chacune sur son « Autorité de Certification » (CA).

L’architecture est finalement assez basique : les sites webs sollicitent à ces CA un « certificat ssl » de leur PKI. Nous autres internautes disposons tout(e)s à l’avance des « certificats racines » de quelques autorités de certification[28] (CAs), clés publiques qui nous permettent de vérifier quoi que ce soit signé cryptographiquement par elles, et par conséquent de nous assurer de l’authenticité de l’identité d’un site web, comme dans notre exemple, ou aussi bien l’identité d’une personne dans un autre cas. Authentifiée ainsi une clé publique de notre interlocuteur, par cryptographie asymétrique grâce à son certificat, émis par une CA, que nous vérifions grâce à ce certificat racine, nous avons un canal pour lui proposer une clé secrète et initier en toute confiance une communication cryptée confidentielle[29].

Il y a environ 250 autorités de certification dans ce monde (beaucoup inactives), dont les certificats racines sont préchargés dans tous les navigateurs internet, lesquels sont moins d’une trentaine (et moins de cinq couvrent la quasi totalité du marché). Notons bien que la confiance en ces certificats est fort déficiente : ils viennent inclus dans le système d’exploitation que vous installez sur votre ordinateur ou avec votre navigateur préféré, que vous téléchargez d’on ne sait où. Mais il en est ainsi lorsqu’une majorité accepte un « ordre imaginaire ».

Il y a d’autres manières de construire l’authenticité, et à travers elle la confiance,  d’avoir recours à un schéma hiérarchique comme celui des PKI et des CA. PGP, et sa version libre GPG, système qui nous permet le cryptage et la signature du courrier électronique traditionnel[30], est basé sur des relations entre pairs : les personnes peuvent se signer mutuellement leur clé, et l’on publie les clés signées dans des annuaires ouverts. Chacun peut indiquer la confiance qu’il fait aux clés qu’il collecte dans son carnet d’adresses, et les relations de signatures mutuelles permettent à son gestionnaire de clés d’évaluer automatiquement la confiance qu’il peut avoir en une clé qu’il télécharge ou qui lui parvient. Pour l’authentification et la confiance des sites web, il y a aussi une solution entre pairs : le web of trust[31]. Nous, les informaticiens libres et plusieurs communautés d’activistes, trouvons cela beaucoup mieux que les PKI et les CA, mais ce n’est pas un « ordre imaginaire » qui semble prendre, au-delà de ce petit cercle. Est-ce parce qu’il n’est pas hiérarchique… ?

Mais revenons à Letsencrypt et pour cela à l’authentification d’un site web à travers son certificat dans la PKI d’une CA, qui est la seule que saura faire l’ordinateur du grand public. Jusqu’il y a peu, jusqu’à avant Snowden, la barre était haut pour une nouvelle CA pour avoir son certificat racine inclus dans certains des principaux navigateur. Cela peut se comprendre, c’est une responsabilité d’authentifier une identité. Mais concrètement cela avait pour conséquence que la « certification ssl » était au niveau global un business oligopolistique assez juteux, hors de la portée du grand public.

Avoir un site web s’est amplement démocratisé dès les débuts du web, y compris pour le grand public avant le tournant du millénaire, mais que ce site soit sûr et confidentiel n’était accessible qu’à une minorité.

Après Snowden, c’est devenu urgent de généraliser le cryptage, en particulier du web. Certes, Letsencrypt a eu le bon sens d’une idée qui était dans l’air – une certification du simple et seul fait que l’on soit titulaire d’un domaine internet[32] – et l’intelligence d’automatiser l’approvisionnement à grande échelle, mais, bien qu’il s’agisse originellement d’une initiative de la communauté Internet et d’activistes des droits numériques[33], elle a reçu l’appui de plusieurs multinationales du secteur, sans lesquelles elle aurait difficilement pu aboutir. J’ose émettre l’hypothèse que, dans l’acceptation de l’oligopole mentionné de partager ce marché avec un service gratuit, ait pu peser des critères moraux et éthiques, au moins dans le sens de considérer qu’il est aussi dans leur intérêt de préserver le fonctionnement sain et respectueux d’un Internet décentralisé.

J’espère ne pas avoir ennuyé le lecteur avec ce long détour pour répondre à la question insidieuse que j’ai posée plus haut, qui a requis d’expliquer le métier d’une CA avec sa PKI, et la particularité de Letsencrypt en le mettant à disposition de tout un chacun, quasiment comme un service universel. C’est que je pense que, non seulement la cryptographie mais aussi ces subtilités dans son application concrète, sont le type de concepts et de mécanismes qu’il nous faut comprendre et assimiler pour articuler notre vie digitale avec nos droits et nos valeurs, ici en particulier ave la privacité et la confiance. De plus, l’exemple nous permet de noter que le fait qu’une technologie soit libre et ouverte ne garantit pas que l’économie qui se génère autour soit juste et durable. Il lui faudra d’autres caractéristiques comme celle d’une architecture décentralisée et fédérée, en réseau, d’acteurs indépendants qui assurent le service.

Cela nous amène à l’autre grand composant de la surveillance massive, qui s’articule autour de l’industrie informatique, du logiciel, et des services en ligne sur Internet.

Si vous m’avez suivi jusqu’ici, vous aurez retrouvé l’espoir sur la partie qui semblait la plus difficile : protéger nos données lorsqu’elles circulent dans la nature, naviguant dans le vaste Internet. Grâce à la cryptographie, on saura en effet assurer, comme vous m’avez lu  ci-dessus, la « confidentialité de l’information circulant sur Internet entre le navigateur de la personne et le serveur ». Il nous reste cependant à nous poser deux questions : que se passe-t-il dans notre ordinateur où s’exécute notre navigateur ? Et surtout : que se passe-t-il à l’autre bout, dans le serveur ?

Et en effet, les concepteurs des systèmes de surveillances massive qui nous occupent ne se sont pas contentés d’attendre que nous échangions les données à travers Internet pour tenter de les y intercepter. De même que les espions posent des micros dans les ambassades et qu’ils mettent en place toute sorte de devanture pour tisser leur réseau d’intervention, les systèmes des écoutants comprennent des mouchards et des « portes arrière » dans les systèmes informatiques, et se sont procuré l’accès aux immenses quantité de données que collectent les grands acteurs du numérique et les opérateurs de réseaux.

Après sa genèse[34] dans les années 70, la micro-informatique s’est vertigineusement développée depuis le début des années 80, autour d’un « système d’exploitation » particulièrement vulnérable (et même franchement mauvais) : MS-DOS puis son successeur Windows, dans ses successives versions successives, de Microsoft[35]. Dans son écosystème, ont prospéré toute sortes de malware (pourriciels, en français)  programmes malicieux qui ont tiré profit de diverses manières de le vulnérabilité du système Windows, quasi monopolistique. Et ont permis l’implantation de virus ou malware développés para les services secrets pour accéder aux ordinateurs avec des fins d’espionnage[36]. Les back doors, portes arrière de Windows et de programmes micro-informatiques en tout genre, sont sans doute une réalité à peine occultée depuis qu’elles existent, à un point tel qu’elles ont bien souvent été à la portée de simples amateurs avertis. Ceci contribuant en plus à bâtir, en partant de l’usurpation de l’identité d’une des communautés les plus incisives sur ce sujet de la fin de l’ancien millénaire[37] – la légende bien fonctionnelle du « hacker », jeune cybercriminel, techniquement doué, ennemi public désigné pour détourner l’attention et preuve de cette fausse croyance que tous les systèmes sont vulnérables.

Le logiciel libre, autour du système d’exploitation GNU/Linux, aurait pu – aurait dû, si notre système économique sélectionnait, comme il le prétend, le meilleur de l’offre du marché – apporter une solution aux problèmes tant de privacité que de qualité des logiciels. Et il existe en effet une toute petite frange de la population, les moins de 1 % qui utilisons une des distributions GNU/Linux, qui avons des systèmes de qualité, nettement moins vulnérables à la surveillance massive. Edward Snowden, en particulier, a pu compter sur la distribution particulièrement sécurisée Tails[38] pour pouvoir mener à bien sa filtration. D’un point de vue technique, aussi, le logiciel libre, ou du moins l’open source, ont gagné par une victoire écrasante face au logiciel privatif. La totalité des 500 super calculateurs du monde sont équipés de GNU/Linux, plus de 98 % des serveurs sur Internet aussi, l’informatique embarquée est majoritairement faite avec du libre, et Android, le système d’exploitation mobile de Google, basé aussi sur le noyau Linux, équipe plus de 80 % des smartphones vendus dans le monde. Déjà en 2000 Apple, au bord de la faillite, a réussi à renaître en particulier en faisant le choix stratégique de baser la nouvelle version de son système d’exploitation MacOS X sur FreeBSD, un système unix libre. Et aujourd’hui Microsoft est le premier contributeur au noyau Linux.

Mais avec le développement des géants du numérique dont nous allons parler juste après, la forme de la distribution et de consommation du logiciel a drastiquement changé par rapport aux débuts de l’informatique, où l’on gardait tout dans sa disquette. Aujourd’hui on parle de SaaS, Software as a Service, du Logiciel comme du Service. Vous tapez bien sur votre clavier et vous lisez sur votre écran mais l’information n’est pas traitée dans votre dispositif local, les traitements et le stockage se font dans le cloud, le « nuage » de votre fournisseur en ligne. Et ce n’est plus vous qui administrez vos dispositifs : votre fournisseur réseau administre votre routeur de connexion, Google ou Apple administrent votre téléphone portable et votre tablette, voir la SmartTV du salon, Apple ou Microsoft votre ordinateur de bureau. Peu importe que leurs applications soient essentiellement basées sur des logiciels libres, vous n’avez même pas un accès complet au système.

Avec l’Internet on nous promettait un monde sans intermédiaires. Et  il a, en effet, réduit les chaînes logistiques et tendu les flux de la production dans tous les secteurs de l’économie. Mais il n’a pas définitivement supprimé les intermédiaires, loin s’en faut. Il les a juste unifiés. L’essor de l’économie numérique dans ces deux première décennies du nouveau millénaire a vu, malgré le caractère décentralisé et collaboratif de l’Internet – ou plutôt en s’appuyant dessus – la naissance de quelques nouveaux géants de services en ligne, qui fournissent, souvent sans coût direct, des services de plateforme en reliant massivement leurs utilisateurs, dont le modèle économique est éminemment basé sur la valorisation et monétisation des données qu’ils collectent de leurs usagers. Les premiers acteurs du secteur, les GAFAM, sont devenues des entreprises parmi les plus grandes et influentes du monde.

« Si le service est gratuit, c’est que le produit c’est toi », raisonne-t-on aujourd’hui. Mais peut-on en vouloir aux gens d’accepter « un certain regard » sur leurs données personnelles, contre la provision de services finalement tout à fait utiles, et même émancipateurs, pour eux-mêmes ? Ce serait sans doute injuste. Et nous autres, militants de cette cause, devons prendre garde à pas entrer dans la culpabilisation des autres, en premier lieu nos proches, parce qu’ils ne font pas l’effort de s’extraire de cette surveillance corporative, qui vise à extraire leur profil et à en tirer le meilleur rendement. Il nous faut plutôt inciter à une réflexion plus profonde, et en appeler l’engagement collectif.

Que peut-on craindre à être profilé ? Que l’on dise ne pas être sensible aux bandeaux publicitaires qui apparaissent sur une page web, on peut accepter l’argument. Mais qui peut dire être indifférent aux biais que des intérêts externes aux miens peuvent introduire dans les résultats et l’ordre que me donne un moteur de recherche ? Rappelons-le, l’information modifie notre comportement. Celle que l’on sait et celle que l’on ne sait pas, et tout peut changer selon qui sait et qui ne sait pas. Les moteurs de recherche et les réseaux sociaux nous enferment dans notre « bulle informationnelle » : ils prennent en compte dans leurs algorithmes toutes les données et métadonnées qui nous concernent, en particulier toutes nos recherches préalables ou notre géolocalisation. Certes, tout ceci peut nous être tout à fait utile et de valeur, mais qui serait assez naïf pour croire que ce ne seront pas des entreprises comme les autres, qui feront toujours passer leurs intérêts avant tout. Ainsi, déjà au niveau individuel, il y a de bonnes raisons de refuser le profilage.

Mais rappelons nous aussi de Snowden, cité plus haut : la privacité est une affaire collective. Au delà de la légitimité de la revendication du droit à la privacité au niveau individuel, le problème n’est pas, en effet, que vous ou moi soyons surveillés, mais c’est que les médecins, les avocats, les curés, les psychanalystes, les partis politiques, les syndicats, les dirigeants, … puissent être surveillés. Et pour cela, il faut que tout un chacun ait droit à la privacité. Et si l’on y tient, dans ce sens collectif, il faut le revendiquer et le défendre. Même si l’on croit, soi-même, n’avoir rien  cacher. 

Mais le fait est, peut-être est-ce à l’encontre de leurs convictions, que une partie probablement majoritaire fournit aujourd’hui systématiquement de très importantes de données et de metadonnées personnelles à ses réseaux sociaux, son courrier électronique, ses opérateurs de réseaux et autres services en ligne sur Internet. Et l’ensemble de ces données, ces big data, constituent une ressource extrêmement rentable et extrêmement sensible.

Constatant l’existence de cette fabuleuse « surveillance corporative » il était évident pour les services secrets qu’accéder à cette mine de données leur faciliterait sérieusement leur tâche. Et ils l’ont fait.

Mais au regard de la loi, exploiter les données qui circulent dans l’espace public est une chose, l’accès systématique aux espaces privés et la collaboration d’acteurs économiques du numérique est tout autre. Il a fallu un dispositif extrêmement complexe, avec tout un arsenal de procédures et de réglementations secrètes, qui au final met en échec la démocratie même.

Cela se passe à peu près ainsi : au départ, pour des raisons de lutte contre le terrorisme, le Congrès des Etats-Unis accorde des prérogatives exceptionnelles aux services secrets. Pour contrôler cette exceptionalité, la nouvelle législation prévoit un suivi parlementaire de l’application au cas par cas. Mais pour des besoins de confidentialité, ce suivi ne pouvait se faire ouvertement ou à tous les membres du Congrès. Ce dernier nomme donc un représentant habilité auprès de la NSA pour assurer le suivi.

Et là, progressivement, se produit la perversion de ce que Michel Tournier aurait appelé une « inversion maligne[39] ». La NSA fait une interprétation de son cadre réglementaire aussi extensive et libre que nécessaire à ses besoins et envies et, avec complaisance et au nom du Congrès, ce représentant lui accorde toujours son blanc sein. Aucun contrôle de légalité, constitutionnalité, ou quoi que ce soit. On est couvert par la Raison d’État. Ce qui aurait dû être une simple procédure ou un règlement interne dans le cadre de la mission de l’Agence telle que définie par le Législateur, devient une machine infernale à fabriquer tout un arsenal de ce qu’il faut désigner par un oxymore qui met « hors service » la démocratie : des « lois secrètes ». Des « lois » que le législatif approuve selon des procédures exceptionnelles, sur la base d’un simple rapport d’une personne habilitée et sans en connaître le texte intégral, que l’exécutif applique au travers de ses services secrets et leur nébuleuse de contractuels et alliés, nationaux ou étrangers, sans aucun contrôle, et que le juge ne peut non plus connaître, la Justice s’effondrant ainsi à son tour.

Nous sommes en fait là dans le cadre d’un « ordre imaginaire » interne à la « Security Community », nécessaire avant tout à faire fonctionner de manière cohérente ce singulier dispositif.

Par exemple, si la doctrine des démocraties contemporaines d’États-Nation, en particulier les États- Unis, accepte en général l’existence d’activités de surveillance par les services secrets, en particulier de personnes étrangères, cette activité se doit d’être proportionnée aux objectifs et de préserver les droits des citoyens nationaux, en particulier leur privacité.

Eh bien, en interne, dans ce cadre réglementaire propre et qui n’est connu que d’eux, les services secrets ont réussi à « légaliser » leur surveillance massive, considérant que l’écoute des signaux, la collecte de données et leur stockage ne constituent pas en soi une surveillance des personnes et une violation de leur privacité, ce tant qu’il n’y a pas accès intentionnel à ces donnés par un humain. Et cet accès intentionnel pour en extraire de l’information ne se fait que lorsqu’il y a soupçon avéré (on notera ce deuxième indispensable oxymore).

Vers l’extérieur, sur ce point, les hauts technocrates de la NSA et autres services secrets étasuniens ont été amenés à mentir sciemment face aux représentants du peuple et face au juge. Mais, au delà de quelques cas où ils se sont vus dans l’impossibilité de ne pas répondre face à des commissions parlementaires ou des juges, leur parade habituelle est un extraordinaire argument tautologique : puisqu’on les cite sur la base de documents classés Secret d’État qui ont été filtrés, par exemple obtenus par les canaux que l’on sait, les donneurs d’alerte, ils réfutent en bloc leur recevabilité comme preuves car obtenus selon une procédure qu’ils considèrent illégale, et refusent donc de comparaître ou de répondre de ce qui y est exposé.

En d’autres termes, ces personnes, et finalement ce système, finissent par mettre la « raison d’état » ou le « secret défense » comme principe suprême par dessus la démocratie ou les droits humain. Bienvenus dans le panoptique de la démocratie sécuritaire.

Les GAFAM ont toutes toujours nié collaborer ou avoir collaboré aux programmes de surveillance massive de la NSA et consort. Soit ils mentent, soit les documents filtrés par Snowden sont erronés. Soit éventuellement, la NSA accède aux systèmes des GAFAM à leur insu (comme nous avons vu que cela a déjà été fait, en diffusant des pourriciels espions), mais il est peu probable que cette dernière option soit à ce jour le seul ressort de la Security Community. Laissons leur éventuellement le bénéfice du doute. Et quoi qu’il en soit, il est complexe d’imputer à un acteur économique des responsabilités sur les règles que son environnement lui impose[40].

Probablement tous ont été contraints, d’une manière ou une autre, de collaborer et donner accès à leur infrastructure de données. On sait en particulier maintenant que ces lois et réglementations secrètes permettent à la NSA d’exiger d’une entreprise toutes les données concernant quelqu’un, avec obligation de confidentialité sur le fait, en particulier, vis à vis de la personne concernée. Il est donc cohérent de supposer que les fournisseurs de service sont de toute manière contraints de nier toute collaboration.

Sans doute, tant que la surveillance à laquelle on les contraint à collaborer reste secrète, ils s’en accommodent. On pourra certes les condamner moralement. Et en effet, bien peu on fait, comme Lavabit, le service de mail qu’utilisait Edward Snowden, le choix de cesser leur activité plutôt que de mentir à leurs utilisateurs (et ce fut l’un des cas retentissants par lesquels on a eu connaissance de ces procédures de surveillance). Beaucoup diront : business is business. Mais si tout ceci sort au grand jour, cela ternit leur image et les affaiblit face à concurrence globale, et alors ils n’hésitent pas à prendre quelques mesures pour défendre la privacité de leurs usagers, comme on l’a vu plus haut. 

Ainsi, donner ses données personnelles à Google, Apple, Facebook, Microsoft et/ou Amazon, c’est, ni plus ni moins, les donner à la NSA et à travers elle à toute la nébuleuse de la Security Community. Et c’est ce que fait aujourd’hui l’immense majorité des humains qui ont accès à Internet. Il faut de plus se rappeler que Google n’est plus seulement un moteur de recherche ou un service d’applications en ligne, mais c’est aussi Android, le système d’exploitation qui équipe la plupart de nos téléphones « intelligents ». Avec leur caméra, micro et GPS, lorsque l’on dit toutes les donnés personnelles cela veut dire potentiellement aussi tous vos déplacements, les images de tout votre intérieur, vos conversations les plus intimes (à moins que vous n’ayez mis votre téléphone au frigo). Et si de plus vous ajoutez un de ces nouveaux bracelets électroniques qui vous permettront de suivre votre rythme cardiaque, vos heures de sommeil et vos calories perdues, les écoutants sauront non seulement ce que vous regardiez sur votre écran, mais aussi beaucoup sur les émotions que vous ressentiez au même moment.

Et même si tous les humains n’utilisent pas, ou pas toujours, les GAFAM, et même si, comme on l’a vu, tous les systèmes ne sont pas vulnérables, de quoi me servira avoir un ordinateur sûr et gérer mon propre serveur de mail si la grande majorité de mes interlocuteurs utilisent Windows et Gmail ? Référons-nous à Snowden une troisième fois : la privacité est une affaire collective. Il n’y aura de salut qu’en société.

Ainsi, même s’il est clair et sidérant, le message d’Edward Snowden, pour omniprésent qu’il soit, reste mal connu, mal compris, n’a pas déclenché le mouvement d’opposition et de réaction qu’il devrait justifier, et voit même parfois sa légitimité mise en cause. Mais, comme il arrive souvent lorsque des faits importants sont avérés, il a déclenché une réponse qui va bien au delà des activismes qui nous alertaient de ce danger et qui traverse tous les acteurs de la société. Et une analyse plus attentive de ces faits nous montre une réalité moins manichéenne que celle de nos peurs, et devrait nous permettre de construire quelques axes de résistance.

Alors, que nous apporte aujourd’hui, sept ans après cette entrée de notre village global dans l’ère de la surveillance généralisée, le livre d’Edward Snowden, Permanent Record?

En premier lieu, une version de plus du récit de l’avènement de cette ère. Si cette affaire mérite, pour être comprise et abordée, mille et un récits, sous différents angles (et non seulement disciplinaires) – j’ai tenté ici de faire référence à quelques uns – celui-ci est sans doute particulièrement pertinent et instructif, étant écrit de première main et suivant en détail le cheminement des longues années d’investigation.

Elle apporte sans aucun doute des éléments et des analyses nouvelles. J’ai cité très en diagonale et dans ma propre compréhension et reformulation, par exemple, comment le système démocratique étasunien et toutes ses valeurs constitutionnelles s’effondrent autour de cet oxymore de « lois secrètes ». Snowden l’analyse et l’illustre très en détail, parcourant toute la construction qui est nécessaire à la crédibilité de l’entreprise qui, telle que résumée ici, pourrait paraître caricaturale.

Mais cela va sans doute au delà. Connaître mieux la personne d’Edward Snowden, par exemple, donne d’intéressants axes de connaissance et de réflexion. Il commence par sa généalogie, y compris la sémiologie de son propre nom de famille, son empreinte dans le territoire et ses croisements avec, sinon la genèse, du moins la maturation de « la Constitution la plus vieille de la planète », qui commence par: « We, the people… »: « Nous, le peuple… ». (Écrite, cependant, par « les Pères Fondateurs ».). On pourra éventuellement lui reprocher de se référer plus à celle-ci qu’aux Droits Humains, mais la connaissance et la passion de Snowden pour sa Constitution et l’histoire de son pays interpellent, et le cas d’étude de la surveillance de masse est savoureux.

Le père et la mère d’Edward Snowden sont habilités « secret défense » à des niveaux élevés. Son père est « garde côtier » et sa mère fonctionnaire. Pour nous, qui sommes ou avons été rebelles, c’est une leçon d’apprendre comment une personne d’une intelligence, d’une bonté et d’une rigueur morale peu communes, peut naître dans une telle famille. Et plus encore, d’avoir à reconnaître la grandeur des valeurs morales et éthiques qui s’y transmettent.

Né en 1983, Edward Snowden est tout juste un « natif numérique ». Lorsqu’il retrace son adolescence et sa participation dans des communautés virtuelles, il signale l’importance qu’a revêtu pour sa génération non seulement d’avoir Internet, mais aussi la possibilité d’y être anonyme, de changer d’identité, ou d’endosser plusieurs identités. Liberté qui, aujourd’hui, à l’heure des réseaux sociaux globaux qui exigent une identité « réelle », a disparu. Snowden raconte en particulier comment cela a compté pour lui à l’heure de forger des convictions, pouvant affirmer des positions osées, puis se rétractant simplement en abandonnant l’identité utilisée pour les défendre, voir ensuite en critiquant publiquement lui même son ancien moi. Un de mes proverbes favoris : « Seuls les cons ne changent pas d’avis ».

Les militants de la laïcité affirment que la liberté de conscience est la mère de toutes les libertés, car sans elle nos droits ne sont que de simples concessions du pouvoir, comme les droits de animaux ou de la planète. Lire Snowden, c’est observer le plein exercice de cette liberté de conscience, et constater à quel point c’est en elle, parfois au niveau individuel, qu’est l’essence de notre identité humaine. Les pages de l’histoire qui permettront à l’humanité de se défaire de ce Frankenstein restent encore à écrire, celles que nous donne Edward Snowden dans Permanent Record y contribuent sans doute.

Et nous autres, alors ? Tel le site web des Yes Men, je pourrais vous dire : « Oh bien, vous êtes arrivé à la fin de la page. FAITES QUELQUE CHOSE. »

Et il y a plein de choses à faire. Déjà simplement, connaître et diffuser le message de Snowden. En entête de tous ses courriers électroniques, Richard Stallman, Fondateur du mouvement du Logiciel Libre, inclut ces lignes[41] :

[[[ To any NSA and FBI agents reading my email: please consider    ]]]

[[[ whether defending the US Constitution against all enemies,     ]]]

[[[ foreign or domestic, requires you to follow Snowden’s example. ]]]

Agir ainsi dans un débat corps à corps, sans doute, en premier lieu. Sans non plus délaisser la lutte sur l’arène de la démocratie. Il nous faut urgemment exiger, partout dans le monde, des lois claires de protection des lanceurs d’alerte, les whistleblowers. Quel que soit le contexte, si l’on dénonce des faits qui portent atteinte à des droits d’ordre supérieur, comme les droits humains ou la constitution, on ne pourra être inquiété pour avoir obtenu des preuves à l’encontre de lois ou règlements d’ordre inférieur. Et cela va au-delà des activités d’intelligence : il y a aussi de nombreux cas de lanceurs d’alerte qui ont dénoncé des délits financiers et qui n’ont pas manqué d’être inquiétés pour violation du secret corporatif. Leur droit de dire, c’est notre droit de savoir.

Il faut aussi exiger que les services secrets ne soient pas au-delà des lois et de la justice. On peut se demander s’ils ne sont pas tout simplement illégitimes et nocifs, mais en tout cas il est évident que plus leur périmètre, leur portée et leurs ressources augmentent, moins on a de Droit et de Démocratie.

Il faut aussi une réforme du droit d’auteur et de la propriété industrielle[42].  En effet, selon l’article 27 de la Déclaration Universelle des Droits humains, ceux-ci doivent assurer un juste équilibre entre « [le droit de] toute personne de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique » d’une part et « la protection des intérêts moraux et matériels découlant de toute production scientifique, littéraire ou artistique » d’autre part. Or, on assiste au contraire depuis trois décennies à ce que des studieux ont dénommé « enclosure » ce une « nouvel espace des communs »[43]. Mais quel est le lien entre droits d’auteur ou brevets et activités d’intelligence ? Fort heureusement « l’information veut être libre », et au besoin nous sommes toutes·s pirates, mais cette tentative de privatisation de l’information et de la connaissance à laquelle on assiste a des conséquences tout à fait fonctionnelles à la surveillance de masse. Techniquement, le modèle économique même de la mal nommée « propriété intellectuelle » est basé sur des systèmes de surveillance, les DRM, ou Gestion Numérique de Droits. Utilisant du cryptage – mais géré par votre fournisseur, à votre encontre ! – dans votre ordinateur même, les DRM prennent le contrôle des supports d’information auxquels vous accédez. Et moralement, si l’on accepte que l’on peut légitimement prétendre, quel que soit le contexte, à des droits sur l’information qu’échangent entre elles deux personnes, on ouvre la voie à légaliser la surveillance des communications, sous argument de vérifier qu’il n’y ait pas ci ou là « violation de propriété intellectuelle ». On se rappellera la bataille contre le Stop Online Piracy Act (SOPA) et le Protect Intellectual Property Act (PIPA)[44].

On doit aussi demander aux pouvoirs publics qu’ils exigent des grands acteurs de l’Internet un respect strict des données personnelles et de la vie privées[45]. Des voix s’élèvent même pour dire que cela ne pourra être fait qu’en nationalisant les GAFAM[46]. L’argument invoqué n’a rien de nouveau, et c’est même l’un des mantra des économistes libéraux : la nécessité de régulation des monopoles naturels. Plus que leur qualité, que l’on peut aujourd’hui facilement reproduire, ce qui rend attractifs les services des GAFAM est l’« effet réseau » de ces système de plateformes, qui servent d’intermédiaire incontournable à différents types d’acteurs économiques et sociaux. Prenons un exemple moins récent pour illustrer l’effet réseau : si je suis le seul à avoir un téléphone, cela ne me servira à rien. Plus il y aura de personnes connectées au réseau téléphonique, plus j’aurai intérêt à souscrire une ligne. S’il y a plusieurs réseaux téléphoniques, on ira inexorablement vers la compagnie qui a le plus d’abonnées, et on sera éventuellement en difficulté pour atteindre tous nos interlocuteurs. La solution du XXième a été soit le service public soit l’obligation et régulation de l’interconnexion de réseaux. Et le phénomène peut avoir des effets de bord darwiniens : dans les années 80, avant de devenir omniprésent pour moins d’une décennie, le fax s’est popularisé plus rapidement dans beaucoup de pays du tiers monde que dans la plupart des pays riches, en raison des déficiences de la poste. Aujourd’hui, les fax ne servent plus à rien, car personne ne se préoccupe plus d’avoir le sien allumé, occupant une ligne téléphonique opérationnelle.

Toutes les grandes infrastructures (canaux, réseaux ferrés, routes, transport aérien, les postes, le téléphone et le télégraphe, le transport public, l’énergie …) ont été sujettes à régulations en raisons d’effets réseau qui s’y génèrent. Pour des raisons techniques initialement, l’Internet est né avec un auto-regulation intéressante : la neutralité du réseau. Elle établit qu’aucune discrimination ne soit fait dans le trafic du réseau en raison de l’origine, destination ou contenu d’un paquet d’information. La neutralité, qui récemment a été mis en cause et très médiocrement protégée légalement, a été un extraordinaire levier de la compétition et innovation sur Internet, par l’universalité qu’elle donne à tout service qui s’y fournit. Les GAFAM, qui ont bénéficié de l’interoperabilité des services de base de l’Internet (web, mail, ou chat XMPP) utilisent aujourd’hui le levier de l’« effet réseau » pour asseoir en monopole la position dominante de leurs services. La solution peut ne pas être aussi drastique que nationaliser, la simple obligation de l’interoperabilité de services ou le droit de retrait de toutes ses données par un utilisateur peut suffire à éviter ces quasi-monopoles.

Mais sur ce volet, il n’y a pas que le collectif et le militant. Rappelons-le : la théorie est de notre côté. Et la technologie est là. Il y a beaucoup à faire au niveau individuel et communautaire.

Pour ce qui est des services, Coluche nous donnait la solution[47] : « Quand on pense qu’il suffirait que les gens arrêtent de les acheter pour que ça ne se vende plus. Quelle misère ! » De même, pour que les GAFAM n’aient pas nos données personnelles il suffirait qu’on ne les leur donne plus. Il y a des alternatives communautairesà  tous leurs services. Certes leurs plateformes sont bien plus modestes, certes elles souffrent encore souvent du manque d’une masse critique pour engranger leur « effet réseau » mais elles ne manquent pas d’atout. Non seulement elles sont en général développées avec des technologies libres et ouvertes, ce qui est un certain gage de leur sécurité et et leur impartialité, mais de plus elles proposent de plus en plus des architectures distribuées et fédérées. On pourra donc établir des instances souveraines à tout niveau, et établir des réseaux de confiance dans les diverses communautés.

Pour abonder dans le sens de cette utopie optimiste, on pourrait citer plusieurs auteurs, éventuellement avec des propositions encore plus disruptives. Eben Moglen, par exemple, insiste à nous faire rêver d’un Internet totalement décentralisé[48].

Avec le progrès vertigineux des technologie numériques, nous avons un sérieux problème de brèche technologique générationnelle. Jusqu’à la génération X au moins[49], nous sommes tous « immigrants numériques ». Et il est à craindre que de plus en plus les « natifs numériques » perdent le lien avec la réalité physique. Comme pour le médecin, il faut un geek de chevet[50], un geek de famille, un geek laboral et, comme l’informatique est, au contraire de la santé, aussi présente dans notre vie sociale, un geek pour chaque communauté.

Comme pour le toubib ou le nutritionniste, on ne suivra pas toujours tous ses conseil : manger sain tous les jours, faire de l’exercice, cesser de fumer ou de boire. Mais ça sert tout de même, et c’est par là que l’on commence. Facebook ou Google, MacOS ou Windows, Android ou iOS, c’est exactement Pepsi Cola ou Coca Cola. L’essentiel est de savoir qu’ils sont aussi nocifs l’un que l’autre, que ces dichotomies sont totalement futiles et que ce qui est bon pour la santé est de boire de l’eau, voir un verre de vin de temps en temps. De l’eau potable évidemment, et de préférence du robinet car la bouteille plastique est un désastre écologique et humain, et elle coûte plus de mille fois plus cher. Dans l’allégorie, l’eau potable est évidement le logiciel libre, patrimoine intangible, bien commun de l’humanité, sûr et impartial car soumis au processus de validation scientifique de reproductibilité ou réfutation entre pairs.

« Tu es la preuve que Dieu a le sens de l’humour. Anonyme »
Message du Jour dans un GNU/Linux, obtenu avec la commande: fortune|cowsay La première partie tire une phrase au hasard dans une vaste base communautaire de citations et proverbes, la deuxième affiche l’ASCII-art d’une vache la disant dans une bulle.

L’univers du libre est probablement plus rustre, mais aussi plus divers, créatif, marrant, surprenant, artistique.

Pour assurer les tâches courantes des « honnêtes gens », on peut sans doute vivre avec Windows et un geek Microsoft. Mais c’est un peu comme si votre médecin avait été formé exclusivement par les laboratoires pharmaceutiques. Si votre souhait est un tant soit peu de fausser la surveillance et vous émanciper de la bulle informationnelle, il faudra plutôt confier votre sort à un·e geek libéré·e.

Chercher sur DuckDuckGo, moteur de recherche sans biais, qui ne vous traque pas et ne vous « embulle » pas dans les données qui vous ressemblent, ce éventuellement avant de voir si Google dit mieux (ou différent). Faire ses trajets et référencer ses lieux sur OpenStreetMap, infrastructure de données spatiales libres et communautaires, plutôt que sur GoogleMaps, prendre des notes sur un pad quelconque (Framapad, de Framasoft par exemple), plutôt que dans GoogleDocs, utiliser un mail dans une plateforme alternative (comme Autistici / Inventati), etc : à chaque service que j’utilise rester vigilant à la surveillance et aux profilages en tous genres, et surtout curieux aux alternatives communautaires.

Quitter Microsoft Office pour LibreOffice, Windows pour GNU/Linux, Chrome pour Firefox, ça ne se fait pas en claquant des doigts, mais c’est possible. Et ce n’est pas bien sorcier.

Telegram ou Signal sont déjà dépassées comme alternatives à la messagerie instantanée WhatsApp. Elles ont beau être plus libres, elles n’en restent pas moins centralisées autour d’un seul serveur. L’option la plus prometteuse est Riot/Matrix/Synapse/Vector, messagerie instantanée fédérée, donc permettant des instances autonomes et souveraines, multi-dispositifs et cryptée de bout en bout.

Mastodon est un réseau de microbloging assez similaire à twitter, mais sur du logiciel libre et fédéré, sans une seule entreprise qui domine l’ensemble. Des logiciels libres comme Meet-jitsi permettent la multiplication de points virtuels de rencontre avec cryptage de bout en bout, en toute confidentialité.

Nos téléphones portables sont sans doute encore un bastion préoccupant de la surveillance, et il y a plus que des soupçons au sujet de mouchards et back doors incrustés dans le hardware, de nos dispositifs ou de « l’Internet des choses ». Mais il existe des entreprises, souvent créées par des croudfounding, qui travaillent à intégrer des dispositifs électroniques les plus loyaux et sécurisés possible, compromettant les constructeurs de composante électroniques et incluant des certifications externes comme la Free Software Foundation. Purism, par exemple, distribue déjà le Librem 15, un ordinateur portable conçu pour la confidentialité et le respect de la privacité, ayant par exemple des interrupteurs qui permettent de déconnecter physiquement caméra et microphone. Purism est aussi en train de finaliser le Librem 5, un téléphone portable avec un système d’exploitation GNU/Linux et un environnement de fenêtre Gnome adaptés et libres[51].

En communauté, se créer un site web plutôt qu’un compte facebook. Certes, tant qu’il seront dominant, il ne s’agit pas forcément de se priver des réseaux sociaux. Mais il faut utiliser Twitter, Facebook ou Instagram comme caisse de résonance, pas que ce soit votre orchestre. Être présent dans l’espace véritablement public, et non seulement mis en relation par un plateforme de réseau social. Pour l’association ou le club, se créer une instance propre de NextCloud, plutôt que d’utiliser GoogleDrive ou DropBox.

Ainsi, que ce soit dans nos propres dispositifs comme pour les plateformes de service que nous utilisons sur Internet, les personnes et les communautés n’ont pas dit leur dernier mot. Protégées par leur bouclier cryptographique, peu leur importe que l’Internet soit vaste et sauvage et qu’y rôdent les « écoutants ».

Et il n’est pas nécessaire, pour résister à la conspiration du panoptique global, que tous les humains s’émancipent ainsi. Il est seulement nécessaire qu’une partie significative le fasse, au moins la masse critique nécessaire pour engendrer l’effet réseau de ces nouveaux services, fédérés et respectueux de la privacité et des données personnelles. 

Yuval Harari, que j’ai cité ici peut-être au-delà de mon adhésion à certaines de ses thèses, affirme que nous sommes essentiellement le résultat de la rencontre de divers processus physiques ou biochimiques, certains déterministes, d’autres aléatoires. Conscience et expériences subjectives ne seraient qu’un effet collatéral dont les studieux cherchent encore le sens ou la fonction, et notre libre arbitre serait à reléguer au rang des mythes religieux.

Il pourra me traiter d’humaniste dogmatique, puisqu’il considère que c’est une religion, mais j’ai du mal à le suivre dans cette voie. Non pas tant que je la conteste, mais je ne vois pas bien où elle nous mène. Même si ce n’est qu’une sacralisation anthropocentrique, je préfère m’en tenir à la laïcité et la liberté de conscience, affirmant haut et fort : nn autre monde, sans surveillance, est possible ! Si nous nous y mettons toutes et tous. Et, comme la liberté de conscience, peut être devrait-ce être la mère de toutes nos luttes, car sans elle nos modestes victoires ne seront que les concessions tactiques des listeners de l’ombre.


[1]    Cela est clairement documenté sur Wikipedia : https://fr.wikipedia.org/wiki/Echelon
[2]    On peut définir les « metadonnées » comme « les données au sujet d’autres données », que ce soit sur une information, un événement, une personne, un projet, etc. Par exemple, un résumé, un ensemble de mots clés ou le catalogage par un bibliothécaire ou archiviste, sont des méta-données sur un travail académique. Le début d’un appel, sa durée et la géolocalisation des interlocuteurs sont des méta-données sur des conversations téléphoniques, et sur les personnes impliquées. On peut penser que les metadonnées ne valent pas grand-chose comparées aux données même, mais on apprend peu à peu que c’est probablement tout le contraire. L’émergence et la domination du moteur de recherche Google donnent un bon exemple si on analyse ses techniques d’indexation. Google n’a pas été le premier moteur de recherche sur Internet. Le premier exemple à succès de référencement sur le web a sans doute été Yahoo!, plutôt annuaire ou index, où chaque site web pouvait venir se référencer. Le premier moteur de recherche à indexation de contenu a été Alta Vista (aujourd’hui racheté par Yahoo). Et il a été suivi par beaucoup d’autres (et en particulier copié par Yahoo!). Mais assez vite ces systèmes ont marché mal, donnant des résultats biaisés par ceux qui comprenaient les paramètres d’indexation, ainsi que par une introduction mal conçue de mécanismes commerciaux et de publicité. Puis, au tournant du millénaire, est arrivé Google, qui miraculeusement donnait des résultats extrêmement pertinents à nos recherches. Appliquant les thèses de Phd de ses fondateurs, les algorithmes d’indexation de Google considèrent autant ou plus important que l’information des pages web mêmes qu’il indexe, l’information de celles qui ont des liens web hypertextes qui pointent vers la page indexée. Autrement dit : ce que l’on dit de vous est autant ou plus que ce que vous dites vous mêmes. Et sur ces metadonnées on peut beaucoup plus difficilement tricher. C’est la même chose pour la surveillance (et c’est en fait le principal métier de Google ou Facebook : surveiller les gens). Au téléphone, on pourra éventuellement parler en code, mais on ne peut pas faire grand-chose contre la collecte de metadonnées que font les réseaux et tous les dispositifs que l’on utilise ou que l’on croise (cartes de crédit ou péages, par exemple). Des travaux actuels sur le big data montrent qu’il est extrêmement difficile, voire impossible, d’« anonymiser » des jeux de donnés. Très peu de metadonnées sur une personne permettent facilement de l’identifier avec une haute probabilité de succès. (Voir, par exemple : https://en.wikipedia.org/wiki/Data_re-identification#Re-identification_efforts. La Quadrature du Net a aussi travaillé sur ce sujet.)
[3]    GAFAM : Google, Amazon, Faebook, Apple, Microsoft. Acronyme pour désigner les géants du numérique, qui offrent des services en ligne avec un modèle de négoce basé sur la monétisation de données personnelles.
[4]    Voir film : « The Internet Own Boy » instant : 1h23’34 », https://archive.org/details/TheInternetsOwnBoyTheStoryOfAaronSwartz film sous licence Creative Commons.
[5]    Cité par Aral Balkan dans la vidéo “The Camera Panopticon”, 21’30”, https://vimeo.com/116473165
Voir aussi: https://ar.al/notes/the-camera-panopticon/ Dans cette conférence, Aral Balkan explique très bien la problématique de l’articulation de la surveillance généralisée commerciale et coorporative avec les problèmes de privacité et censure.
[6]    Voir sur le site de La Parisienne Libérée : http://www.laparisienneliberee.com/rien-a-cacher/ Toute la série Datalove est pertinente ici. 
[7]    Voir en particulier : « Steel Germs and Guns » ; « The Raise and Fall of the Third Chimpanzee », ou même « Why Sex Is Fun ? » ou « Collapse ».
[8]    Voir « Sapiens, d’animaux à dieux »
[9]    Voir Jared Diamond, Le troisième chimpanzé, étude d’un proto-langage chez les gibbons.
[10]  J’ai insisté plus haut sur l’existence de hiérarchies entre les individus de toute société de mammifères que rapporte Franz de Waal dans ses travaux. Ainsi, sans nier à l’humanité son libre arbitre, ni sa capacité intentionnelle et volontaire de formuler de telles utopies, la démocratie et les droits de l’homme (voir les droits humains), peuvent être lus comme un élément central de l’ordre imaginaire qui sous-tend notre société globale, qui s’avère être plus efficace comme première approximation lorsqu’il s’agit de faire interagir des milliards d’individus, tout en laissant place à la révolution scientifique en plein essor.
[11]  Voir la vidéo des conférences et leur retranscription (en anglais): http://snowdenandthefuture.info/
[12]  L’éther fut l’hypothèse émise pour un possible support de propagation des ondes lumineuses, car les ondes qu’on connaissait avaient toutes un support. Mais lorsque l’on a mesuré la vitesse de la lumière, elle était la même, 300.000 km/s dans toutes les directions et quel que soit le référentiel dans lequel on l’observe. Paradoxe ou inconsistance qui ne se résoud que sans le cadre de la relativité.
[13]  Voir à propos le film « Enigma » qui retrace la vie et les travaux d’Alan Turing.
[14]  Voir l’article en anglais sur Cryptographie : https://en.wikipedia.org/wiki/Cryptography#Cryptanalysis
[15]  Casser un code de cryptage par « force brute » signifie que l’on essaye successivement toutes les valeurs possibles de clés. Il est  noter qu’en général les codes de cryptages sont connus, seules les clés son secrètes, car seuls des algorithmes de cryptages amplement connus et étudiés peuvent être réputés sûrs.
[16]  On dit qu’une quantité croit exponentiellement lorsqu’elle se multiplie par une constante chaque pas : 1, 2, 4, 8, 16, … Pour cerner ce que cela signifie, l’exemple le plus célèbre est celui de l’échiquier : on met 1 grain de riz dans la première case, puis deux dans la deuxième, 4 dans la troisième, 8 dans la quatrième, 16, dans la suivante, 32, 64, 128, … et comme cela jusqu’à la 64ième et dernière case de l’échiquier. Eh bien cela totalisera plusieurs dizaines de fois la production de riz de la terre.
[17]  C’était en tout cas le cas dans l’ancienne version de son site, par exemple:
https://web.archive.org/web/20000815100731/http://www.isoc.org/guest/zakon/Internet/History/HIT.html
Et c’est toujours ce point de départ que l’Internet Society donne dans le site du « Hall de notoriété d’Internet »: https://internethalloffame.org/internet-history/timeline
[18]  Voir : https://fr.wikipedia.org/wiki/Loi_de_Moore
[19]  Voir : https://fr.wikipedia.org/wiki/Mod%C3%A8le_OSI
[20]  Le CCITT devint en 1992 l’UIT . Voir: https://fr.wikipedia.org/wiki/Union_internationale_des_t%C3%A9l%C3%A9communications#L’entr%C3%A9e_dans_l’Organisation_des_Nations_unies
[21]  Le mouvement du logiciel libre et de l’open source nous donne un autre exemple de maîtrise du chaos et du succès des communautés interconnectée en réseau. Alors que la compétition, souvent déloyale, entre éditeurs de logiciels conduisait à un oligopole du secteur avec des produits de très mauvaise qualité, seules les communautés du logiciel libre ont réussi à produire des systèmes plus efficaces en même temps que respectueux de leurs utilisateurs. Aujourd’hui, le système libre GNU/Linux équipe la totalité des super-calculateurs, pour les serveurs c’est plus de 95 % (98 % si on ajoute FreeBSD), Android, système commercial de Google pour smartphone, qui se base sur le noyau Linux, représente plus de 85 % du marché (voir : https://en.wikipedia.org/wiki/Usage_share_of_operating_systems). Et, de manière générale, toute l’industrie informatique a adopté les méthodologies de travail  et les outils de l’open source, qui implique en particulier la conformation et l’interaction avec une communauté.
[22]  Le commerce électronique a certes existé dans des réseaux antérieurs, sans cryptage (comme le Minitel en France) et les réseaux bancaire ont aussi tardé à le mettre en place. Mais dans ce cas, comme dans le cas de la poste cité plus haut,  la confiance tenait dans le lien contractuel entre utilisateurs et opérateur de réseau. Mais l’internet est un réseau de réseaux qui, par construction, dépend de multiples opérateurs et n’est pas conçu pour assurer une garantie de services.
[23]  Voir la vidéo des conférences et leur retranscription (en anglais): http://snowdenandthefuture.info/
[24]  Si ce jargon vous semble cryptique, portez attention à la barre de votre navigateur lorsque vous accédez (sans doute quotidiennement) à internet. « http », pour Protocole de Transfer Hyper Texte, est le protocole de la World Wide Web, le principal service de l’internet, celui qui l’a fait arriver au grand public dans la deuxième moitié des années ‘90. « https », ou http sur ssl (« couche de connexion sûre ») En http les transmissions de données ont lieu en clair, quelqu’un qui a accès aux dispositifs réseau peut lire le message. En https les données circulent cryptées, seuls le navigateur de l’utilisateur et le serveur qu’ils consulte possèdent la clé pour décrypter les données.
[25]  Voir : https://letsencrypt.org/  Le projet est né de personnes de la communauté Mozilla, de l’Electronic Fronteer Foundation (EFF) et de l’Inernet Security Research Group.
[26]  Les actuels problèmes de courriels malicieux que l’on dénomme « phishing ».
[27]  Comme a pu le faire le site http://gatt.org au sujet de l’OMC (On se rappellera que le General Agreement on Trade and Taxes, GATT, était le prédécesseur de l’Organisation Mondiale du Commerce).
Voir : https://web.archive.org/web/20150514065138/http://www.gatt.org/ Grâce à ce domaine et ce site, les Yes Men (voir : https://theyesmen.org/) ont réussi de savoureuses « rectifications d’identité » de quelques puissants de ce monde. Vous l’aurez compris, l’exemple n’a rien à voir avec la problématique qui se posait à l’appel de note : l’utilité d’une validation cryptographique du fait qu’il y ait pas par ailleurs, en traversant un réseau qui par nature n’est pas sûre, une quelconque forme d’altération de mes communications. C’était juste une occasion de saluer Yes Men – sur lesquels nous reviendrons – dont la malice ici réside dans ce que l’on appelle l’« ingénierie sociale », qui consiste en l’art et la technique de tromper les gens dans leur gestion de l’information. L’ingénierie sociale es sans doute la principale arme de l’activité criminelle en ligne. Que casser des codes cryptographiques soit aussi une de ces armes est un mythe.
[28]  Regardez dans les paramètres de configuration de votre navigateur préféré, vous les trouverez.
[29]  En effet, comme le cryptage asymétrique est plus lourd en calcul que le symétrique, on l’utilise pour initier la communication et ensuite on échange une clé secrète partagée, avec laquelle on fait du cryptage symétrique.
[30]  Voir le site de GPG : https://gnupg.org/ ou la wikipedia: https://fr.wikipedia.org/wiki/GNU_Privacy_Guard et https://fr.wikipedia.org/wiki/OpenPGP.
[31]  Web of Trust ou WOT : https://fr.wikipedia.org/wiki/WOT
[32]  Les noms de domaine internet sont les adresses que nous connaissons, en .com, .org, .fr, .ch, etc. Bien qu’ils soient nommés hiérarchiquement, leur gestion permet une délégation et les services d’information correspondants sont assurés dans des réseaux décentralisés. La communauté internet a toujours pris soin de décentraliser, faciliter et promouvoir l’attribution de noms de domaine. Initialement service communautaire, le registre d’un nom de domaine coûtait US$35/an. Avec la décentralisation de la gestion des .com, .org, etc., les prix on baissé  US$10-15/an. Il y a bien de temps en temps un domaine « squatté » (j’ai cité, dans une note plus haut, le cas de gatt.org), mais la gestion de domaines est un ensemble de systèmes qui fonctionne selon des règles simples et claires (les domaines globaux .com, .org, .net sont en particulier gérés selon le principe « premier arrivé, premier servi ») qui reflète fidèlement une réalité et mérite tout à fait un Letsencrypt pour être authentifié cryptographiquement.
[33]  En particulier autour de l’Electronic Fronteer Foundation (EFF) : https://www.eff.org/
[34]  Genèse qui a néanmoins eu un grand retentissement public, avec des modèles comme le Amiga, le Commodore, ou les Apple pre-Macintosh, en particulier par ses succès dans le domaine des jeux et la curiosité pour les premiers usages domestiques (avec bien moins de succès, néanmoins).
[35]  L’histoire de Microsoft, comment il a réussi à ce qu’IBM adopte son système, sous un accord qui s’est révélé être milliardaire, est l’exemple l’archétypique où le marché ne sélectionne aucunement la meilleure option, mais plutôt celle qui a réussi à saisir l’opportunité.
[36]  Comme ce fut le cas du malware Flame en 2012. Voir: https://en.wikipedia.org/wiki/Flame_(malware)#Origin et aussi la contextualisation de ce cas dans les révélations de Snowden, dans l’exposé « Comment la NSA a trahi la confiance du monde » par Mikko Hypponen: https://www.youtube.com/watch?v=9CqVYUOjHLw
[37]  Le terme « hacker » est avant tout un terme d’auto-dénomination de diverses communautés technologiques, qui ont construit toute une éthique et une sous-culture. Richard Stallman définit un hacker comme « quelqu’un qui utilise son intelligence avec un esprit joueur ». Il y a des tentatives de classer les « black hat hackers », « red hat hackers », « white hat hackers », mais d’une manière générale toute assimilation du terme de hacker à cybercriminnel est rejeté par les communautés.
[38]  Voir : https://tails.boum.org/
[39]  « La pureté est l’inversion maligne de l’innocence. L’innocence est amour de l’être, acceptation souriante des nourritures célestes et terrestres, ignorance de l’alternative infernale pureté-impureté. De cette sainteté spontanée et comme native, Satan a fait une singerie qui lui ressemble et qui est tout l’inverse: la pureté. » Michel Tournier, Le Roi des Aulnes, Journal d’Abel Tiffauges, 3 mai 1938.
Voir : http://abuelo.belvil.net/Inversion-benigne-inversion-maligne
[40]  Et le fait d’accepter cette collaboration forcée ne les faits pas en soi intrinsèquement mauvais et cela ne les met pas tous sur le même plan. Et les cinq GAFAM ont tous des origines et des caractéristiques différentes. En particulier Apple et Google naissent clairement d’idées innovantes et de bonnes intentions, alors que Microsoft et Facebook ont le pêché originel d’une « bonne affaire », voir une arnaque, en leur commencement. Et, pour les uns comme pour les autres, cela transparaît dans la culture d’entreprise jusqu’aujourd’hui.  
[41]  « À tous les agents de la NSA et du FBI qui liraient mon email : je vous prie de considérer
si la défense de la Constitution des États Unis contre tous ses ennemis,
étrangers ou nationaux, ne vous exige de suivre l’exemple de Snowden. »
[42]  Et il faut en particulier lieu cesser d’utiliser l’amalgame de « propriété intellectuelle », qui prétend mettre dans un même sac le droit d’auteur, les brevets et les marques (ces deux derniers conformant la « propriété industrielle ».
[43]  Chercher réfs à partir de :
http://www.lacantine.org/events/bellinux-conference-de-richard-stallman-et-jean-pierre-berlan-sur-les-enclosures-des-biens-communs-du-vivant-aux-logiciels/
[44]  Dans ce keynote sur le sujet : https://www.youtube.com/watch?v=Fgh2dFngFsg Aaron Swartz commence par expliquer comment SOPA et PIPA avaient plus à voir avec la censure de l’Internet qu’avec la protection du Droit d’Auteur.
[45]  On peut citer dans ce sens l’action de classe contre les GAFAM lancée par La Quadrature du Net en 2018:
https://www.laquadrature.net/en/2018/04/18/class_action_gafam/
[46]  Voir par exemple: https://www.theguardian.com/commentisfree/2017/aug/30/nationalise-google-facebook-amazon-data-monopoly-platform-public-interest
[47]  Voir : https://www.youtube.com/watch?v=1jmzzJa-wCg ou encore : https://dicocitations.lemonde.fr/citations/citation-103746.php
[48]  Voir par exemple : https://www.softwarefreedom.org/events/2010/isoc-ny/FreedomInTheCloud-transcript.html
Eben Moglen, Liberté dans le Cloud : Liberté du Logiciel, Privacité et Sécurité pour la Web 2.0 et le Cloud Computing. Conférence à l’ISoc, New York, 5 février 2010.
[49]  Selon une classification en vogue, la « Génération X » est celle des personnes nées entre 1965 et 1980, approximativement. Voir: https://en.wikipedia.org/wiki/Generation_X
[50]  Le terme geek désigne originellement le stéréotype de l’adolescent un peu asocial, absorbé par sa passion de la technologie. Originellement péjoratif, le terme a souvent été resignifié dans une « réappropriation de l’insulte » et sert souvent comme terme d’auto-dénomination dans le communautés. À différence de hacker, pris dans le sens médiatisé de cybercriminnel, geek ne sera pas chargé d’une telle signification. Et si l’on prend hacker dans son sens premier des communautés techno-engagée de cette aube de l’ère cyber, geek sera moins chargé de sens politique, social ou moral. Nerd est un terme quelque peu similaire. Côté asocial accentué, peut-être.  
[51]  Voir : https://puri.sm/  On peut citer aussi PinePhone, https://www.pine64.org/, qui annonce des prix nettement plus compétitifs que Purism