Advertisement

Il sole 24ore. L’Europa potrebbe scivolare in silenzio nel più grande esperimento di sorveglianza di massa dai tempi della Stasi, anche se qui tutto nasce da un nobile intento: raccogliere tutte le foto, i link e i video dei 449 milioni di cittadini europei prima che vengano inviati


Nel cuore dell’Unione Europea, sotto l’apparente scudo della protezione dei minori e della lotta al crimine, si profila uno scenario inquietante: uno sguardo che osserva ogni messaggio, ogni immagine, ogni dato digitale prima che venga trasmesso, raccolto e archiviato. Un esperimento di sorveglianza collettiva su scala continentale, forse peggiore di quanto la Stasi potesse mai immaginare, ma che qui si propone come atto di “nobile finalità”.

Advertisement

I presupposti: dalla protezione al controllo

Il dibattito in corso attorno al cosiddetto Chat Control  o regolamento CSAR  è emblematico della tensione fra sicurezza e libertà digitale. L’obiettivo dichiarato: impedire la diffusione di abusi sui minori, intervenendo in anticipo sui contenuti ancora “cristallizzati” sui dispositivi degli utenti. Ma la soglia tra prevenzione e sorveglianza di massa è sottile e già oltrepassata, secondo molti osservatori. SM Servicematica+1

In parallelo, nuove iniziative legislative come ProtectEU  ampliano il raggio d’azione: non più solo i messaggi, ma l’accesso alle comunicazioni criptate, l’obbligo per i produttori di rendere i loro dispositivi “monitorabili”, la rimozione di barriere come la crittografia end-to-end. HWUpgrade

In questo schema, i “449 milioni” non sono un numero scelto a caso: è la cifra stimata di cittadini dell’Unione Europea le cui immagini, video e link sono potenzialmente sotto il mirino di un sistema che interviene prima che il contenuto viaggi.

Come funzionerebbe, tecnicamente

Il meccanismo proposto si basa su uno scanning lato client: ovvero, prima che il file venga criptato (nel caso di servizi che offrono crittografia end-to-end) o inviato sui server, un software (o algoritmo) lo analizza e lo confronta con modelli noti di contenuti proibiti (CSAM, contenuti pedopornografici). Se il sistema rileva una corrispondenza, il contenuto viene bloccato, segnalato all’autorità competente, o al limite trasmesso, ma solo dopo un filtro.

In teoria, è una barriera preventiva: “non lasciamo uscire il contenuto illecito”. Ma il rovescio è che tutto  o quasi tutto  può essere esaminato: immagini private, video familiari, scherzi, fotografie personali, perfino link innocui possono entrare nel suo radar.

Il confine tra “sospetto” e “normale” rischia di dissolversi: chi decide cosa è sospetto? Con quale soglia di rischio? E come si limita la sorveglianza ai casi davvero rilevanti?

Il paradosso della “buona intenzione”

Uno degli elementi più pericolosi di questo disegno è che  almeno ufficialmente  non nasce da un’ambizione repressiva fine a sé stessa, ma da un intento condivisibile: la protezione dei minori, la lotta al crimine online, il contrasto ai contenuti pedopornografici. È più facile far accettare misure invasive quando sono presentate come la sola  o migliore  difesa contro il male.

Tuttavia, come spesso avviene in ambito tecnologico e legislativo, i meccanismi concepiti per un fine possono essere estesi ad altri usi, in “fase due”, con poca attenzione alla proporzionalità e alla trasparenza. Il rischio che la deroga diventi regola è molto concreto.

Ecco alcune delle criticità già sollevate:

  • Falsi positivi: contenuti innocui che vengono scambiati per illeciti, con blocchi o segnalazioni indesiderate.

  • Deriva per sorveglianza generalizzata: il sistema non si limita ai sospetti reali, ma agisce preventivamente su tutti gli utenti.

  • Debolezze e fughe di dati: concentrare un’enorme massa di file sensibili in un sistema centralizzato è una calamita per attacchi, abusi, accessi impropri.

  • Erosione della crittografia: obbligare le piattaforme o i dispositivi a un accesso “controllabile” mina la fiducia nella sicurezza digitale.

  • Sovrapposizione istituzionale e giurisdizionale: chi controlla il controllore? Come garantire indipendenza e tutela dei diritti?

  • Riduzione del diritto all’anonimato e al silenzio: comunicare implica consumare uno spazio privato; se questo spazio viene scandagliato, resta poco di personale.

Un gigante silenzioso, non dichiarato

La Stasi, l’inafferrabile apparato di controllo della Germania Est, agiva con agenti, intercettazioni, spie. Qui, l’operazione è silenziosa, automatica, su scala digitale e invisibile: l’utente non si accorge che la sua immagine o il suo video siano “scrutati” prima di ogni invio. Non serve una squadra di agenti: bastano algoritmi e modelli statistici.

Eppure, non si tratta (per ora) di una legge visibile che entra con clamore: il processo è per molti versi discreto, negoziato nei passaggi parlamentari, inserito in pacchetti legislativi più ampi, “venduto” come aggiornamento digitale necessario.

Molti parlano di “silenzioso scivolamento” verso un controllo generalizzato, specie se la cittadinanza non è all’erta o non si organizza per opporsi.

Dove siamo ora: tra emendamenti, resistenze, compromessi

Il testo del Chat Control è stato oggetto di dibattito e modifica. La pressione dei Garanti europei, il “no” di alcune nazioni (in particolare la Germania), e la reazione dell’opinione pubblica digitale hanno costretto Bruxelles a indebolire alcune delle parti più aggressive. Il Fatto Quotidiano

Ad esempio, per le chat cifrate si è introdotto che l’intervento delle autorità avvenga solo in presenza di “rischio specifico, documentato e verificabile”  e non come scansione indiscriminata. Il Fatto Quotidiano

Tuttavia, la base del meccanismo  l’analisi preventiva sui dispositivi — rimane intatta nel disegno originario. E l’atto successivo di evoluzione con ProtectEU spinge verso scenari ancora più radicali: meno limiti alla decrittazione, maggiore accesso agli operatori, standard tecnici obbligatori per i produttori per favorire la “monitorabilità”. HWUpgrade+1

Intanto, il Consiglio e il Parlamento europeo stanno negoziando nuovi meccanismi di cooperazione per l’applicazione del GDPR nei casi transfrontalieri, in un’Europa che vuole essere più efficiente ma rischia anche di centralizzare il potere sui dati. Consiglio Europeo+1

Pericoli democratici e diritti in bilico

La posta in gioco non è solo tecnica, ma esistenziale per una democrazia digitale. Se ogni file, ogni immagine, può essere esaminato preventivamente dal sistema, la privacy diventa carta da gioco, ridotta a deroga.

In un contesto del genere, il dissenso politico o sociale potrebbe essere ostacolato prima ancora di manifestarsi: foto, video, volantini digitali, comunicazioni politiche  tutto soggetto a screening. La soglia del diritto all’espressione libera rischia di essere compressa in nome della sicurezza.

La Commissione Ue, dal canto suo, assicura che ogni misura rispetterà il principio di proporzionalità, la tutela dei diritti fondamentali e che gli interventi saranno giustificati e controllabili. Ma chi controllerà il controllore? E come garantire che il principio di minimizzazione  ovvero limitare al minimo i dati raccolti  non diventi una formula rituale priva di sostanza?

Cosa chiedere, cosa vigilare

Per evitare che l’Europa entri  quasi per inerzia  in un regime di sorveglianza che nessun cittadino ha realmente votato, è fondamentale:

  1. Trasparenza totale: ogni modifica al testo deve essere resa pubblica, spiegata in linguaggio chiaro, con simulazioni di impatto sui diritti.

  2. Controlli indipendenti: organismi terzi, indipendenti da governi e forze dell’ordine, devono poter accedere ai log, ai meccanismi di filtro, ai criteri dei modelli.

  3. Deroga e limitazione rigorose: lo scanning preventivo dev’essere un’eccezione strettamente circoscritta, non la regola generale.

  4. Diritto di ricorso e revisione: ogni segnalazione automatica deve essere impugnabile, con revisione umana prima di penalità o interventi.

  5. Minimizzazione e cancellazione: dati e file non pertinenti devono essere cancellati immediatamente, con politiche forti di retention breve.

  6. Partecipazione sociale: associazioni per i diritti digitali, cittadini, accademici, devono avere voce attiva nei processi, poter proporre emendamenti e vigilare sull’implementazione.

Conclusione

Un’Europa che osa immaginare un grande database collettivo di immagini, video e link — analizzati prima ancora della trasmissione  compie un gesto monumentale: mette la fiducia al centro e al contempo la compromette. Il progetto di sorveglianza di massa non deve essere affrontato come una mera questione tecnica, ma come un bivio politico, culturale e civile.

Se accetteremo che un sistema digitale decida cosa è “illegittimo” ancora prima che sia inviato, non sappiamo quanto lontano quel sistema potrà spingersi. Nel silenzio del protocollo e dell’algoritmo, l’Europa rischia di cambiare forma: da garante dei diritti digitali a spettatrice insospettata del più alto esperimento di controllo di massa nella storia contemporanea.

E allora l’ultima domanda non è “se” questo sistema passerà, ma “chi” deciderà i confini del suo potere  e se noi cittadini avremo voce in quella decisione.

Informazione equidistante ed imparziale, che offre voce a tutte le fonti di informazione

Advertisement
Articolo precedenteFrancesca Albanese: Il piano Trump‑Netanyahu viola il diritto internazionale! Un affronto ai palestinesi
Articolo successivoIL RESTO DI NIENTE da un’idea originale di Aldo Minghelli

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui