IT EN
· 11 min di lettura

L’Europa dice basta: il tuo cervello non è un KPI

Il DSA punta l’infinite scroll di TikTok e l’“autopilota” dell’attenzione. Intanto negli USA Meta va a processo. Il design diventa politica.

C’è un gesto che facciamo tutti, centinaia di volte al giorno, senza pensarci. Forse è il gesto più ripetuto della nostra epoca, più del camminare, più del bere acqua “con consapevolezza”. Il pollice che scorre verso l’alto su uno schermo. Uno scroll. Un altro. Un altro ancora.

Il 6 febbraio 2026 la Commissione Europea ha fatto una cosa che, almeno per come l’ho percepita io, segna un prima e un dopo. Non ha detto “questo contenuto è vietato”. Non ha chiesto di oscurare un hashtag o di rimuovere un video. Ha messo in discussione un pattern di interazione. Una scelta di design.

Secondo i findings preliminari sotto il Digital Services Act, l’infinite scroll di TikTok spinge gli utenti in una “autopilot mode”, alimentando comportamenti compulsivi. E quindi, dice Bruxelles, la piattaforma deve cambiare il design di base del servizio: disabilitare lo scroll infinito, introdurre pause obbligatorie, ripensare il sistema di raccomandazione. Se non lo fa, la sanzione può arrivare fino al 6% del fatturato globale annuo. Per ByteDance significa cifre che fanno tremare i polsi, nell’ordine di decine di miliardi.

Due settimane dopo, dall’altra parte dell’oceano, Mark Zuckerberg è seduto in un tribunale di Los Angeles. È il primo processo con giuria sulla dipendenza da social media nella storia americana. Una donna ventenne, identificata come K.G.M., racconta di essere stata risucchiata da Instagram da bambina, e di aver sviluppato depressione e ideazione suicida. Sullo sfondo ci sono più di 1.600 cause simili in coda.

I legali mostrano email interne di Meta. Una frase resta appiccicata addosso: “IG è una droga. stiamo spingendo gli utenti.” Un’altra email suggerisce che l’azienda sapesse che oltre il 30% dei bambini tra i 10 e i 12 anni usava Instagram, violando le sue stesse policy. Zuckerberg risponde che l’obiettivo sarebbe rendere il servizio “utile”, non massimizzare il tempo di permanenza. Intanto il giudice avverte il pubblico di non registrare le udienze con gli occhiali AI. Alcuni membri dell’entourage di Zuckerberg, pare, si erano presentati con i Ray-Ban Meta.

Due continenti. Due approcci. Lo stesso problema.

Il design è politica #

Vale la pena fermarsi su quello che è successo il 6 febbraio, perché è più radicale di quanto sembri.

L’Europa non ha regolamentato un contenuto. Ha detto che la forma stessa dell’interazione tra una persona e un’app può costituire un rischio sistemico. Che un movimento del pollice, se progettato per non avere fine, non è “una tua debolezza”. È un problema della piattaforma.

È, di fatto, la prima volta che un’autorità regolatoria prova a stabilire uno standard legale sul potenziale addittivo del design. Non è una legge “contro lo scroll infinito” in astratto. È un principio più grande: il design addittivo è un rischio, e lo scroll infinito è una delle sue manifestazioni più evidenti.

La cosa interessante, e anche un po’ inquietante, è che il principio non si ferma a TikTok. Meta è sotto indagine dal maggio 2024 per ragioni simili. Il famoso “rabbit hole”, il tunnel in cui entri guardando un contenuto e poi l’algoritmo ti spinge verso altri sempre più simili, e a volte più estremi, è nel mirino. X ha già ricevuto una multa da 120 milioni di euro per “pratiche di design ingannevoli”.

L’approccio dell’UE sembra sempre più questo: non dice solo “cosa non puoi mostrare”, ma anche “come non puoi far sentire le persone”.

E per chi costruisce software, qui cambia davvero il terreno sotto i piedi. Il codice non è mai stato neutro, lo sappiamo, ma ora diventa ufficialmente anche una questione di responsabilità legale. La Product Liability Directive che entrerà in vigore il 9 dicembre 2026 include il software tra i prodotti. Il Cyber Resilience Act chiede sicurezza by design. L’AI Act impone valutazioni di rischio. E adesso il DSA suggerisce che anche il modo in cui organizzi un feed può diventare una violazione.

Mi viene in mente un’immagine semplice: la maniglia di una porta che non ti lascia uscire. Non è un problema di chi prova a uscire. È un problema della maniglia.

Il trimestrale contro il neurone #

La domanda, però, resta. Perché siamo arrivati fin qui? Perché servono tribunali e commissioni per dire una cosa che chiunque abbia un figlio, o anche solo un pollice, intuisce già?

Una risposta, forse, è nei documenti interni che stanno emergendo dai processi americani. Non sembra negligenza. Sembra una scelta deliberata, ripetuta, guidata da una metrica: l’engagement. E l’engagement, alla fine, è l’anticamera del trimestrale.

Da quelle carte emerge che aumentare il tempo trascorso sulle piattaforme e crescere tra i teen non era un effetto collaterale. Era un obiettivo. Email del 2015 e del 2017 discutono di come prioritizzare la crescita tra gli adolescenti. Studi interni registrano che alcuni teenager descrivevano Instagram con parole molto vicine alla dipendenza comportamentale.

Eppure non ci si ferma. Si continua a misurare.

Adam Mosseri, il capo di Instagram, ha testimoniato che secondo lui non si tratta di “dipendenza clinica” ma di “uso problematico”. Forse la distinzione è importante in un’aula di tribunale. Nella vita reale, mi chiedo quanto cambi. Il punto, comunque, è che sapevano.

Sapevano che certi filtri facciali che simulavano la chirurgia plastica potevano avere effetti sulle adolescenti, e dopo un dibattito interno hanno scelto un “ban più mirato” invece di un divieto completo. Sapevano che i parental control erano facili da aggirare, e li hanno presentati come soluzione. Sapevano che i bambini sotto i 13 anni erano presenti a milioni, e hanno continuato a contarli come utenti.

Qui entra un concetto economico che trovo utile, anche se fa un po’ paura per quanto calza. Si chiama esternalità: un costo che chi produce scarica sulla collettività senza pagarlo. L’inquinamento è l’esempio classico: la fabbrica produce, il fiume paga.

Con i social abbiamo avuto per vent’anni una forma nuova di esternalità. Potremmo chiamarla, senza esagerare, esternalità attentiva: il costo che la società paga quando un’azienda estrae attenzione come una miniera estrae carbone, senza compensare il danno. I polmoni diventano neuroni. L’aria diventa tempo. Il fiume diventa l’infanzia di qualcuno.

E la differenza con l’inquinamento industriale, forse, è questa: qui il danno non è solo un effetto collaterale. In molti casi è stato progettato. Non è la scoria della produzione. È il prodotto.

L’autopilota e la dignità #

Nei findings europei c’è un’espressione che mi è rimasta in testa: “autopilot mode”. Certe funzionalità, scrive la Commissione, spostano il cervello degli utenti in una modalità autopilota, alimentando l’impulso a continuare a scrollare. La ricerca scientifica, aggiungono, mostra che questi meccanismi possono ridurre l’autocontrollo e contribuire a comportamenti compulsivi.

Autopilota è una parola strana, perché in altri contesti è quasi positiva. In aviazione ha senso: libera risorse cognitive per decisioni più importanti. In un social media, invece, toglie la risorsa cognitiva più importante che abbiamo in quel momento: la capacità di scegliere quando fermarsi.

Byung-Chul Han ha descritto bene il malessere contemporaneo parlando di società della prestazione e di auto-sfruttamento. L’idea, semplificando, è che oggi non serve un padrone esterno. Ci spremiamo da soli: ottimizziamo, performiamo, consumiamo, fino al burnout. E lo smartphone è lo strumento perfetto per farlo.

Però c’è un passaggio in più, che il caso TikTok sotto il DSA rende più evidente. L’auto-sfruttamento non è sempre auto-generato. A volte è progettato da qualcun altro e poi venduto come libertà.

L’infinite scroll non è una decisione dell’utente. È una decisione di un product team, validata da un A/B test, approvata da un VP Of Growth, celebrata in una quarterly business review. L’utente non si auto-sfrutta. Viene sfruttato dentro un’architettura che simula scelta.

E qui, volendo, si potrebbe anche tirare in ballo Kant, senza fare filosofia da salotto. Trattare le persone come fine, mai soltanto come mezzo. L’utente-come-kpi è l’utente-come-mezzo elevato a modello di business. Non sei una persona che usa un servizio. Sei un’unità di attenzione da estrarre, un occhio da monetizzare, un pollice da far muovere.

Forse è per questo che quello che sta facendo l’Europa sembra, sotto sotto, una difesa della dignità. Non solo una tutela del consumatore. L’idea che abbiamo diritto a non essere manipolati, anche quando la manipolazione è elegante, ben progettata e impacchettata in un’interfaccia colorata con i bordi arrotondati.

Due modelli di mondo #

Il contrasto tra Bruxelles e Los Angeles racconta due filosofie diverse.

Negli Stati Uniti il sistema è adversarial. Una famiglia porta un’azienda in tribunale, mostra documenti, testimoni, perizie. Una giuria decide se Instagram è stato un “fattore sostanziale” nel danno di una persona specifica. È un modello caso per caso, dove il carico della prova pesa soprattutto su chi ha subito il danno.

E in quel contesto tutto diventa ambiguo. YouTube, nella stessa causa, prova a difendersi dicendo di essere più simile a Netflix che a un social. Meta dice che il problema non è l’app, è il contenuto, o forse è la vita personale della ragazza. I confini tra “danno della piattaforma” e “danno del contenuto” sono difficili da tracciare. Si litiga sulla definizione di “dipendenza”. Si rinvia. Si negozia.

In Europa l’approccio è più strutturale. Non si aspetta il danno, si regola il design. Non si chiede alla singola persona di dimostrare che lo scroll infinito le ha rovinato la vita. Si chiede alla piattaforma di dimostrare che il suo design non è intrinsecamente rischioso. Il DSA tratta il design addittivo come un rischio sistemico, alla pari della disinformazione o delle interferenze elettorali.

È un’asimmetria che riflette due idee di libertà.

Negli Stati Uniti, spesso, la libertà è assenza di vincoli: sei libero di usare o non usare TikTok, e se ti fa male è un problema tuo, o del tuo avvocato.

In Europa, almeno in questo impianto, la libertà include la protezione dalla manipolazione: sei libero solo se le condizioni in cui operi non sono progettate per toglierti la capacità di scegliere.

Nessuno dei due modelli è perfetto. Però uno dei due, oggi, sta provando a cambiare il gioco prima che milioni di persone debbano andare in tribunale a raccontare la propria infanzia davanti a una giuria.

La domanda per chi costruisce #

Io faccio software. Ogni giorno si prendono decisioni di design che sembrano piccole e invece hanno un peso. Dove mettere un pulsante. Come strutturare una notifica. Quanto rendere facile o difficile uscire da un flusso. Se mostrare un counter, un badge, un pallino rosso.

Non faccio social media. Lavoro su piattaforme per la pubblica amministrazione, e-learning, servizi b2b, strumenti legali. Il mio mondo è lontano mille chilometri dall’infinite scroll. Eppure il principio che l’Europa sta cercando di fissare sembra universale: il design non è neutro. Ogni scelta di interfaccia è anche una scelta etica. E adesso, volenti o nolenti, è anche una scelta con conseguenze legali.

Per anni le piattaforme social hanno avuto una specie di impunità di fatto, perché la regolamentazione non teneva il passo. Quel tempo sembra finito. Il DSA, la Product Liability Directive, il Cyber Resilience Act, l’AI Act sono pezzi di un mosaico che sta ridisegnando il rapporto tra chi produce tecnologia e chi la usa.

Chi la subisce, verrebbe da dire, dopo aver letto certe email interne.

Alla fine, ho una convinzione che mi resta appiccicata addosso, e probabilmente si rafforza ogni volta che vedo un prodotto “crescere” grazie a un trucco cognitivo: il software che rispetta chi lo usa è software migliore. Non perché l’Europa ce lo impone, ma perché è la cosa giusta da fare.

E forse la cosa più radicale, oggi, è fare qualcosa di radicalmente ovvio. Costruire tecnologia che non ha bisogno che un tribunale le ordini di smettere di fare del male.

L’infinite scroll finirà, in una forma o nell’altra. La domanda vera è cosa metteremo al suo posto. Se sarà solo un altro trucco per tenerti incollato, con un nome diverso e un meccanismo appena più sottile, allora non avremo risolto niente.

Se invece sarà un design che parte dalla domanda “di cosa ha bisogno questa persona?” invece che “come posso tenerla qui un altro minuto?”, allora forse il 6 febbraio 2026 sarà una data che vale la pena ricordare.

Non per lo scroll che ha messo in discussione, ma per la domanda che ha reso obbligatorio porsi.