Chronique d'une France qui centralise tout — et protège de moins en moins
On nous a vendu la ville intelligente comme on vend une mise à jour logicielle : plus fluide, plus propre, plus efficace. Des capteurs pour l'énergie. Des caméras pour la sécurité. Des plateformes pour la mobilité. Des algorithmes pour "aider à la décision".
Dit comme ça, on dirait une keynote sur "l'innovation territoriale" avec slides en dégradé bleu et photo de skyline Shutterstock.
La Quadrature du Net et Blast documentent depuis longtemps la montée de la vidéosurveillance algorithmique dans les collectivités. Des dispositifs vendus comme neutres, qui réorganisent pourtant le regard policier et administratif sur l'espace public.
Blast a rappelé que BriefCam, logiciel utilisé dans ce paysage, permet des filtres par sexe, taille, vêtements, couleurs — et le suivi d'une personne sur plusieurs caméras simultanées. 📡
La ville "smart" n'est pas seulement une ville connectée. C'est une ville qui apprend à considérer sa population comme un stock de signaux.
Le débat public adore les scandales spectaculaires : la fuite géante, le piratage massif, la base de données retrouvée sur un forum obscur. Mais le problème de fond est plus vaste — et moins cinématographique.
Mais une fuite n'est pas un accident isolé dans un système sain. C'est souvent la conséquence logique d'un modèle qui veut tout conserver, tout recouper, tout réutiliser.
Nous passons d'une logique administrative de finalité à une logique computationnelle de réservoir. Et un réservoir attire toujours quelqu'un : un cybercriminel, un prestataire, un État tiers, un service de renseignement — ou simplement un futur usage que personne n'avait officiellement prévu, mais que tout le monde pressentait.
Le discours technocratique présente la centralisation comme un progrès rationnel : unification, interopérabilité, pilotage, modernisation, fluidité. En réalité, centraliser revient aussi à fabriquer un point de fragilité géant.
Plus on rassemble les données dans des hubs, des plateformes, des clouds, des méta-fichiers — plus on crée des lieux où le pouvoir se condense. Et quand le pouvoir se condense, il finit rarement par se disperser au bénéfice des citoyens.
Le cas du Health Data Hub est emblématique : parler de souveraineté tout en maintenant une dépendance technologique à Microsoft Azure. Le Conseil d'État a confirmé le 20 mars 2026 une autorisation CNIL dans le cadre de DARWIN EU, tout en rappelant que les données restent hébergées dans l'Union. Le débat juridique est nuancé. Politiquement, il reste accablant. ☁️
En juillet 2023, la Commission européenne a adopté le Data Privacy Framework, censé offrir un cadre "adéquat" aux transferts de données vers les États-Unis. En septembre 2025, le Tribunal de l'UE a rejeté un recours demandant son annulation, le consolidant juridiquement à ce stade.
Sur le papier, c'est du droit. Dans la pratique, c'est un signal politique : l'Europe continue d'accepter qu'une part décisive de sa vie numérique repose sur des infrastructures et des régimes juridiques qu'elle ne contrôle pas.
Statewatch a révélé qu'un projet d'Enhanced Border Security Partnership (EBSP) discuté au niveau européen ouvrirait la voie à des transferts biométriques "continuous and systematic" vers les États-Unis dans le cadre du contrôle migratoire. 🧬
C'est là que beaucoup se trompent encore. La prison numérique ne ressemble pas à une cage. Elle ressemble à une interface bien designée.
Elle vous ouvre des portes. Elle vous fait gagner du temps. Elle vous géolocalise pour mieux vous "assister". Elle personnalise. Elle simplifie. Elle recommande. Elle sécurise.
Puis elle classe.
La Quadrature du Net rappelle que plusieurs administrations françaises utilisent déjà des scores de suspicion, et que les personnes concernées peuvent — théoriquement — demander communication de ces scores et des critères employés.
On ne vous enferme pas forcément. On vous modélise. Et une personne modélisée devient gouvernable avant même d'avoir agi.
Le discours officiel prétend souvent que certaines technologies restent marginales, encadrées, exceptionnelles. C'est une vieille technique politique : traiter comme futur ce qui est déjà du présent.
En mars 2026, Disclose et Amnesty International ont mis en lumière l'usage illégal de la reconnaissance faciale par policiers et gendarmes lors de contrôles d'identité — depuis leurs téléphones de service, via consultation du TAJ. Amnesty parle d'une pratique "totalement interdite". Disclose souligne que ces rapprochements photo-fichier sont prohibés dans ce cadre.
C'est comme ça que s'installent les régimes techniques durables : pas par grand soir totalitaire, mais par petites permissions sales.
Le débat public raisonne encore trop souvent en temps réel : qui a accès à quoi maintenant ? Mais la logique de certaines puissances n'est plus celle du présent immédiat. C'est celle du stockage patient.
L'ANSSI recommande désormais aux organisations d'intégrer la menace quantique à leur analyse de risque, de démarrer l'inventaire des usages cryptographiques, et indique qu'il ne sera plus raisonnable d'acheter des produits sans cryptographie post-quantique après 2030.
Fin mars 2026, Google a publié un billet expliquant que de futurs ordinateurs quantiques pourraient casser la cryptographie à courbe elliptique — avec moins de ressources qu'on ne l'imaginait auparavant. ⚡
Le problème n'est pas seulement qu'on collecte trop. Ni même qu'on transfère trop. Le problème, c'est que l'ensemble finit par fabriquer une nouvelle représentation du citoyen.
Non plus un sujet de droit. Non plus un corps politique. Mais une entité calculable. Une somme de probabilités. Un faisceau de corrélations. Un paquet de signaux à interpréter.
Le plus troublant dans cette histoire, ce n'est pas qu'un État veuille voir plus. Tous les États veulent voir plus. Le plus troublant, c'est la facilité avec laquelle cette extension a été vendue :
Chaque justification prise isolément paraît raisonnable. C'est leur addition qui produit le piège.
On n'a pas construit d'un coup une dictature numérique. On a empilé des couches de normalisation jusqu'à rendre l'ensemble presque banal : une API ici, un fichier là, un contrat cloud, un logiciel de corrélation vidéo, un score de suspicion, un régime d'exception, une dérogation, une expérimentation, puis un pilotage national.
Il faut sortir d'une naïveté tenace : la technologie ne "dérive" pas toute seule. Elle épouse des choix de pouvoir. Ce qu'on appelle transformation numérique peut devenir, très vite, une transformation du rapport entre l'individu et l'autorité.
La question n'est donc plus : "sommes-nous surveillés ?"
La question devient : dans quelle mesure nos institutions apprennent-elles à ne plus voir des personnes, mais des patterns ?
Car une fois qu'un pouvoir vous regarde comme un pattern — il n'a plus besoin de vous comprendre, de vous croire, de vous rencontrer. Il a seulement besoin de vous scorer.
Et une démocratie qui score finit toujours par oublier qu'elle devait d'abord protéger.
— Chute —
La prison numérique du XXIe siècle n'aura ni barreaux ni miradors. Elle aura des dashboards, des API, des centres de supervision et des contrats cloud.
Elle ne dira pas : "obéis".
Elle dira : "optimise ton parcours".
// Dictionnaire de traduction //