L’ombra lunga dell’era Covid: algoritmi, controllo di massa e futuro della libertà interiore
Negli anni della pandemia ci siamo abituati a pensare al Covid come a un’emergenza sanitaria, economica, psicologica. Meno evidente – ma potentissima – è l’ombra che quell’era ha proiettato sul modo in cui il potere osserva, misura e orienta le nostre vite attraverso gli algoritmi.
Non è solo complotto, non è solo “sistema cattivo”: è l’intreccio molto concreto tra paura, tecnologia e dati. In quell’intreccio, l’essere umano rischia di diventare sempre più profilo, percentuale, previsione.
In questo articolo entriamo dentro questa ombra: come la pandemia ha accelerato il controllo digitale, che ruolo giocano gli algoritmi e quali spazi di libertà possiamo ancora coltivare.
1. Covid come “grande acceleratore” digitale
Diversi studi parlano del Covid-19 come di un “great accelerator”: in pochi mesi ha spinto governi, aziende, scuole e cittadini verso una digitalizzazione che, senza pandemia, avrebbe richiesto anni.(PMC)
Alcuni fenomeni chiave:
-
Esplosione del lavoro da remoto: piattaforme di videoconferenza, tool collaborativi, sistemi di monitoraggio della produttività, log di attività, tracciamento di accessi e tempi.(PMC)
-
Digitalizzazione forzata dei servizi: pubbliche amministrazioni, banche, sanità, scuola – tutti hanno spostato processi e relazioni su canali digitali.(OECD)
-
Crescita della sorveglianza sanitaria digitale: app di contact tracing, piattaforme di monitoraggio, sistemi di analisi dei flussi di mobilità.(PMC)
Questa accelerazione ha avuto anche lati positivi (più efficienza, nuove possibilità di lavoro, servizi più accessibili). Ma ogni volta che una nuova tecnologia entra nella nostra vita, porta con sé un nuovo livello di visibilità su ciò che facciamo.
La domanda non è: “La tecnologia è buona o cattiva?”.
La vera domanda è: chi guarda attraverso quella tecnologia, cosa vede e per quali finalità?
2. Dal tracciamento dei contagi al tracciamento delle vite
Durante la pandemia, il discorso pubblico ha normalizzato un principio: per proteggere la salute collettiva è legittimo raccogliere più dati su di te.
Ecco alcuni esempi di come è stato declinato:
-
App di contact tracing: telefoni che registrano quali dispositivi incontri, quando e per quanto tempo, per stimare il rischio di esposizione al virus.(PMC)
-
Pass sanitari e certificazioni digitali: sistemi per controllare accessi a luoghi di lavoro, trasporti, eventi, basati su informazioni sanitarie personali.
-
Sorveglianza digitale sperimentale: in alcuni paesi, utilizzo incrociato di dati di geolocalizzazione, telecamere, riconoscimento facciale, pagamenti elettronici, social network, per tracciare movimenti e contatti.(Nature)
Molti di questi strumenti sono stati introdotti con finalità legittime di salute pubblica. Ma giuristi, filosofi e attivisti hanno sollevato un punto cruciale: una volta che un’infrastruttura di sorveglianza esiste, è molto difficile spegnerla davvero.(timreview.ca)
Lo schema è semplice:
-
Crisi → accettiamo controlli più invasivi “perché è emergenza”.
-
L’emergenza passa, ma le infrastrutture, i dati, le abitudini restano.
-
Quelle stesse infrastrutture possono essere riutilizzate per altri scopi (sicurezza, marketing, controllo sociale, profilazione politica).
Non è fantascienza: è la dinamica classica di ogni espansione dei poteri di sorveglianza.
3. Algoritmi come nuovo dispositivo di controllo
Se l’era Covid ha spinto la raccolta di dati, gli algoritmi sono il cervello che decide cosa fare con quei dati.
3.1. Algoritmi nel lavoro
Già prima della pandemia, il mondo delle piattaforme (rider, autisti, gig economy) viveva dentro un universo in cui il “capo” è un algoritmo: punteggi, ranking, assegnazione delle consegne, valutazione delle performance.(International Labour Organization)
Con il lavoro da remoto e l’esplosione di software di monitoraggio (time tracking, screenshot automatici, analisi di produttività), questa logica si è estesa:
-
l’attività del lavoratore diventa flusso di dati,
-
i dati alimentano sistemi che valutano, segnalano, suggeriscono sanzioni o premi,
-
le decisioni possono diventare automatiche, opache, difficili da contestare.
Studi e casi legali in Europa mostrano come la pandemia abbia intensificato il dibattito su diritti dei lavoratori, trasparenza degli algoritmi, limiti alla sorveglianza digitale in azienda.(Consiglio Europeo)
3.2. Algoritmi nei social e nell’informazione
Durante l’era Covid, l’infosfera è stata dominata da feed personalizzati, raccomandazioni e moderazione automatizzata di contenuti:
-
piattaforme che decidono cosa mostrarti in base al tuo profilo;
-
sistemi di raccomandazione che amplificano contenuti più ingaggianti (non sempre più veri o più utili);
-
algoritmi che filtrano, rimuovono o declassano contenuti ritenuti problematici (disinformazione, odio, ecc.).
In pratica, una buona parte di ciò che hai pensato, discusso, temuto o sperato sulla pandemia è passata attraverso una selezione algoritmica invisibile.
Questo non significa che ci sia stato un “piano unico mondiale di controllo mentale”. Significa però che:
-
il tuo sguardo sul mondo è mediato da sistemi che non controlli;
-
quei sistemi rispondono a logiche economiche e politiche precise;
-
la pandemia ha reso ancora più evidente quanto questa mediazione possa orientare emozioni, paure, atteggiamenti verso il potere.
4. Dalla sicurezza alla normalizzazione del controllo
Uno dei passaggi più delicati è psicologico: quando il controllo viene giustificato con la parola “sicurezza”, la nostra soglia di tolleranza sale moltissimo.
Ricerche sul rapporto tra pandemia, big data e sorveglianza mostrano che molti cittadini sono disposti ad accettare forme più invasive di monitoraggio se percepite come necessarie per “il bene comune”, soprattutto in situazioni di rischio estremo.(timreview.ca)
Il problema è che:
-
la paura è un acceleratore straordinario di poteri di eccezione;
-
l’eccezione tende a diventare struttura permanente;
-
ciò che oggi accetti per una pandemia, domani potresti ritrovartelo per altre emergenze (terrorismo, crisi climatica, dissenso sociale, migrazioni).
Si crea così un nuovo “contratto implicito”:
Ti lascio guardare più in profondità nella mia vita, in cambio della promessa di protezione.
Ma chi garantisce che, domani, quella stessa infrastruttura non verrà usata per qualcosa che non avresti mai accettato?
5. L’ombra più sottile: interiorità sotto pressione algoritmica
C’è un altro livello, più intimo e meno visibile: la relazione tra algoritmi e spazio interiore.
Durante i lockdown:
-
siamo rimasti per mesi dentro ecosistemi digitali;
-
emozioni, ansie, solitudini sono state continuamente rimbalzate attraverso schermi, notifiche, feed;
-
la dipendenza da flussi di informazione istantanea ha ridisegnato i nostri ritmi psicologici.
L’algoritmo non controlla solo cosa vedi, ma quando e con che intensità:
-
ti propone contenuti che alimentano la tua paura o la tua indignazione (perché generano engagement);
-
ti cattura in spirali di doomscrolling;
-
ti rende progressivamente meno capace di stare nel silenzio, nell’incertezza, nell’assenza di stimolo.
In questo senso, il vero “controllo di massa” non è un telecomando che qualcuno preme dall’alto.
È una ristrutturazione graduale della tua attenzione, del tuo tempo, della tua sensibilità.
Se ti abitui a reagire solo agli stimoli algoritmici:
6. Come attraversare l’ombra: pratiche di disinnesco
La buona notizia è che, dentro questo scenario, non siamo completamente impotenti. Non possiamo fermare da soli le infrastrutture globali, ma possiamo riaprire margini di libertà concreta.
Alcune direzioni possibili:
6.1. Alfabetizzazione algoritmica
Non basta “sapere che esistono gli algoritmi”. Serve imparare a farsi domande:
-
perché vedo questo contenuto e non un altro?
-
chi guadagna se io passo qui un’ora in più?
-
quali dati sto regalando quando uso questa app?
Piccoli gesti:
-
variare le fonti di informazione (non solo social, ma anche siti diversi, libri, newsletter indipendenti);
-
disattivare le notifiche non essenziali;
-
controllare e limitare i permessi delle app, soprattutto quelle introdotte “in emergenza”.
6.2. Difesa dei diritti digitali
Sul piano collettivo, si stanno sviluppando:
-
regolamentazioni sull’uso degli algoritmi nel lavoro (trasparenza, limiti alla sorveglianza, diritto all’intervento umano);(Consiglio Europeo)
-
dibattiti etici e giuridici sul tracciamento dei dati sanitari e il loro uso post-pandemia.(pcpd.org.hk)
Sostenere associazioni, movimenti e campagne che lavorano su questi temi è un modo concreto per spostare l’equilibrio tra controllo e diritti.
6.3. Rituali di disconnessione e presenza
C’è poi una forma di resistenza più silenziosa, ma potentissima: riconquistare territori non algoritmici nella propria vita.
-
camminare senza telefono in mano;
-
creare spazi della giornata senza schermo (anche solo mezz’ora al giorno);
-
dedicarsi ad attività non quantificabili (arte, scrittura personale, contemplazione, ascolto della natura).
Sono gesti “piccoli”, ma minano alla base la logica del controllo totale: riaffermano che esiste una parte di te non riducibile a dato.
7. Verso un nuovo patto con la tecnologia
L’ombra dell’era Covid non è solo il ricordo delle restrizioni, ma il lascito di un’infrastruttura di controllo potenziale resa più potente, più ramificata, più socialmente accettata.
Non si tratta di negare la pandemia, né di rifiutare in blocco la tecnologia.
Si tratta di rifiutare un’idea: che la sicurezza e l’efficienza giustifichino qualsiasi forma di visibilità totale su corpi, relazioni, pensieri.
Il punto non è tornare al “prima”, ma immaginare un dopo in cui:
-
l’uso degli algoritmi sia trasparente, contestabile, limitato;
-
la raccolta dei dati sia proporzionata, reversibile, governata democraticamente;
-
le persone coltivino consapevolmente spazi interiori, relazionali e fisici sottratti alla logica del tracciamento permanente.
In fondo, il vero terreno di gioco degli algoritmi è la nostra attenzione.
Ogni volta che scegli di usarla in modo libero – fuori dallo script previsto – stai già interrompendo, almeno per un momento, il meccanismo del controllo di massa.
Se vuoi, nel prossimo passo possiamo trasformare questo articolo in una serie di post (blog o social) a puntate, o aggiungere box di approfondimento con riferimenti filosofici (Foucault, Zuboff, Han, ecc.) per entrare più a fondo nel tema del potere e della sorveglianza.