Ragazzo fermo davanti a un varco digitale sotto la pioggia; un pannello trasparente illumina in viola la scritta “ACCESS DENIED” con icona utente sbarrata; folla sullo sfondo, città notturna con luci e scie dati.

Australia: proibire i social ai minori è colpire il bersaglio sbagliato

Il divieto di accesso ai Social per i minori di 16 anni non risolve il problema. È l’architettura proprietaria delle piattaforme che va regolamentata.

L’ILLUSIONE DELLA SOLUZIONE SEMPLICE

Il 10 dicembre 2025 entrerà in vigore in Australia una legge che proibisce l’accesso ai social network a chiunque abbia meno di 16 anni. Facebook, Instagram, TikTok, X, YouTube, Snapchat, Reddit, Kick — tutti improvvisamente fuori portata per una generazione che li considera infrastruttura esistenziale quanto l’elettricità. Le sanzioni per le piattaforme che non rispettano il divieto arrivano fino a 49,5 milioni di dollari australiani per violazione. Una risposta che appare decisa, inequivocabile, finalmente concreta di fronte a un’emergenza documentata.

La preoccupazione per la salute mentale giovanile non è infondata. Un’indagine condotta nel 2022 da Headspace — il centro nazionale australiano per la salute mentale degli under 25 — rivela che il 57% dei giovani australiani percepisce un peggioramento della propria condizione psicologica. Di questi, il 42% identifica i social media come fattore determinante, contro il 37% del 2018. La progressione è chiara, l’allarme giustificato. Ma proprio perché l’allarme è reale, la risposta deve essere accurata. E invece siamo di fronte all’ennesimo esempio di solutionismo tecnologico: problemi complessi affrontati con misure binarie che sembrano risolutive ma sono strutturalmente inadeguate.

Il divieto australiano non è la prima volta che un governo tenta di proteggere i giovani dalle dipendenze digitali attraverso restrizioni di accesso. È già stato provato. Ha già fallito. E la storia di quel fallimento dovrebbe informare ogni discussione seria su come affrontare il problema.

IL FALLIMENTO COREANO: LEZIONE IGNORATA

Nel 2011, la Corea del Sud ha introdotto la “Shutdown Law”, rapidamente ribattezzata “Cinderella Law” dai media. La normativa proibiva ai minori di 16 anni di accedere ai giochi online tra mezzanotte e le 6 del mattino. L’obiettivo dichiarato era duplice: prevenire la dipendenza da videogiochi che stava emergendo come fenomeno sociale preoccupante, e garantire ore di sonno adeguate a una generazione di studenti sottoposti a pressioni accademiche estreme. Il governo coreano aveva investito risorse significative nell’enforcement, le piattaforme di gaming erano obbligate a verificare le identità, le sanzioni per le violazioni erano sostanziali.

Dieci anni dopo, nel 2021, la legge è stata abrogata. Non per pressioni lobbistiche dell’industria — che pure esistevano — ma perché l’evidenza empirica aveva dimostrato la sua totale inefficacia. Uno studio condotto tra il 2011 e il 2012 documentava un effetto statisticamente rilevabile ma praticamente irrisorio: un incremento medio di 1,5 minuti di sonno per notte tra i minori soggetti alla restrizione. Un minuto e mezzo. Meno del tempo necessario per lavarsi i denti.

Il motivo del fallimento era prevedibile quanto sistematico. I giovani aggiravano le restrizioni con facilità imbarazzante: utilizzavano le credenziali dei genitori, si connettevano attraverso server stranieri non soggetti alla legge coreana, ricorrevano al furto d’identità su larga scala per creare account adulti. Nel frattempo, la normativa paralizzava l’industria videoludica locale in modi grotteschi. Minecraft, gioco costruttivo utilizzato persino in contesti educativi, diventò improvvisamente classificato per adulti quando Microsoft integrò Xbox Live. I giochi mobile, non coperti dalla legge perché la definizione tecnica era obsoleta, esplosero fino a rappresentare il 54% del mercato nel 2018 — non per merito intrinseco ma per mero arbitraggio regolatorio.

Il Korean Herald commentò l’abrogazione senza pietà: mancavano completamente prove scientifiche sull’efficacia della restrizione. Il vero motivo della deprivazione di sonno degli studenti coreani non erano i videogiochi notturni, ma le pressioni scolastiche insostenibili e le aspettative familiari su performance accademiche che richiedevano studio fino all’alba.

La lezione coreana è chiara: quando si vieta l’accesso a tecnologie digitali senza modificare le strutture che le rendono problematiche, si ottiene solo migrazione verso alternative meno regolamentate e si crea un senso di illegalità attorno a comportamenti che i giovani percepiscono come normali. Il problema era sempre stato altrove — non nell’accesso ai giochi ma nel design che li rendeva compulsivi, non nel tempo online ma nei meccanismi economici che monetizzano l’attenzione adolescenziale.

CHI CONTROLLA L’INFRASTRUTTURA CONTROLLA IL POTERE

Per capire perché il divieto australiano ripeterà il fallimento coreano, bisogna spostare il focus dall’età degli utenti all’architettura degli ecosistemi digitali. Spegnere l’accesso ai social per i minori di 16 anni significa attaccare il sintomo mentre si ignora la malattia. Il problema non è che i giovani interagiscono in ambienti digitali — questo è inevitabile e potenzialmente prezioso. Il problema è che quelle interazioni avvengono dentro infrastrutture progettate secondo logiche di estrazione del valore che sono intrinsecamente dannose indipendentemente dall’età degli utenti.

Manuel Castells, nel fondamentale “Communication Power” (2009), definisce la società contemporanea come “network society” — una struttura sociale costruita attorno, ma non determinata da, reti digitali di comunicazione. La sua domanda centrale è disarmante nella sua semplicità: dove risiede il potere nella network society? Non nei contenuti che circolano nelle reti, non negli individui che le abitano, ma in chi controlla i “programmi” delle reti e gli “switch” tra reti diverse. Castells identifica due forme fondamentali: il “network-making power” — la capacità di programmare e riprogrammare le reti secondo obiettivi specifici — e il “network power” — il potere che deriva dall’inclusione o esclusione dalle reti stesse.

Gli ecosistemi social contemporanei incarnano perfettamente questa doppia forma di potere. Programmano gli algoritmi che determinano cosa vediamo, in quale sequenza, con quale frequenza. Decidono chi può partecipare e a quali condizioni, quali contenuti vengono amplificati e quali soppressi, quali comportamenti vengono incentivati attraverso meccanismi di reward e quali scoraggiati attraverso limitazioni di visibilità. Questo potere non risiede nella tecnologia in sé — il codice potrebbe essere scritto diversamente — ma nel controllo proprietario delle infrastrutture e nella loro subordinazione a logiche di massimizzazione del profitto.

Fausto Colombo, nel suo “Il potere socievole” (2013), approfondisce ulteriormente la contraddizione costitutiva di questi sistemi. Dietro l’apparente democratizzazione e l’accessibilità universale, i social media portano “precise filosofie imprenditoriali” e sono veicoli di “svolte economiche di mercato” che li rendono qualcosa di radicalmente diverso da semplici strumenti di comunicazione neutri. La sorveglianza — un tempo esclusivamente verticale, esercitata da Stati e istituzioni su cittadini — è diventata “orizzontale” o “laterale”: sono gli stessi utenti a trasformarsi in soggetti attivi di quel potere attraverso la cessione apparentemente volontaria di dati personali in cambio di servizi gratuiti. Ma definire questa cessione “volontaria” quando avviene in condizioni di asimmetria informativa totale e quando l’alternativa è l’esclusione sociale è una mistificazione semantica.

Jürgen Habermas, osservando questa trasformazione con la lucidità critica che lo caratterizza, esprime una preoccupazione ancora più radicale. Nella sfera pubblica digitale contemporanea rischia di andare “irrimediabilmente persa” quella “possibilità di un discorso inclusivo e su scala societaria” che, nonostante tutti i rischi di manipolazione e dominazione, esisteva ancora nella sfera pubblica dei mass media tradizionali. Non si tratta di nostalgia per un’epoca precedente — i mass media avevano i loro problemi strutturali ben documentati — ma di riconoscere che la frammentazione algoritmica e la personalizzazione estrema stanno erodendo la possibilità stessa di uno spazio condiviso dove questioni comuni possano essere dibattute pubblicamente.

Questi tre teorici convergono verso una diagnosi identica da angolazioni diverse: il problema non è l’esistenza di reti digitali di comunicazione, ma il fatto che il loro funzionamento sia subordinato a interessi privati che operano secondo logiche incompatibili con il benessere pubblico. Vietare l’accesso ai minori senza toccare queste logiche sottostanti è come vietare ai bambini di entrare in una fabbrica inquinante invece di obbligare la fabbrica a smettere di inquinare.

L’EVIDENZA DELL’ELUSIONE

I dati raccolti dall’eSafety Commissioner australiano nel febbraio 2025 — quindi prima dell’entrata in vigore del divieto — rivelano quanto sia illusoria l’aspettativa di efficacia della misura. L’80% dei bambini australiani tra 8 e 12 anni aveva utilizzato uno o più social media nel 2024. Non adolescenti, bambini. Nonostante i limiti di età già formalmente esistenti su tutte le piattaforme maggiori. Stiamo parlando di circa 1,3 milioni di individui. Le piattaforme più popolari? YouTube (68%), TikTok (31%), Snapchat (19%). Ma il dato più rivelatore è un altro: l’84% dei giovani utenti ha dichiarato che i propri genitori erano perfettamente al corrente dell’esistenza dei loro account.

Julie Inman Grant, eSafety Commissioner, lo ammette con una franchezza che dovrebbe essere più comune tra i policy maker: “Poche piattaforme implementano misure realmente rigorose per determinare l’età con precisione al momento dell’iscrizione. Nulla impedisce concretamente a un quattordicenne di inserire una data di nascita falsa e creare un account adulto senza alcuna restrizione effettiva.” Le tecnologie di verifica dell’età esistono — riconoscimento facciale, scansione documenti, validazione biometrica — ma introducono problemi di privacy così gravi da essere spesso più dannose del problema che dovrebbero risolvere. E soprattutto, queste tecnologie funzionano solo quando l’utente coopera. Un adolescente motivato troverà sempre modi per aggirarle: VPN per mascherare la geolocalizzazione, documenti falsificati, credenziali prese in prestito, piattaforme alternative meno monitorate.

La Corea del Sud lo ha scoperto a proprie spese. L’Australia sta per ripetere lo stesso errore su scala leggermente diversa. Ma il punto non è solo l’inefficacia tecnica del divieto. È che concentrare risorse legislative ed enforcement su restrizioni di età distrae da interventi che potrebbero effettivamente modificare le dinamiche dannose di questi ecosistemi.

ANATOMIA DELL’INGEGNERIA COMPULSIVA

Gli ecosistemi social proprietari non si limitano a ospitare contenuti prodotti dagli utenti. Implementano meccanismi di design specificamente progettati per massimizzare il tempo di permanenza attraverso tecniche mutuate dalla psicologia comportamentale e dalla neuroscienza della dipendenza. L’American Psychological Association lo documenta in un report del 2024 che dovrebbe essere lettura obbligatoria per chiunque si occupi di policy digitale. Mitch Prinstein, Chief Science Officer dell’APA, sintetizza: “Oltre la metà degli adolescenti riporta almeno un sintomo di dipendenza clinica dai social media secondo i criteri diagnostici standard.”

L’infinite scroll elimina i punti di arresto naturali che tradizionalmente segnavano la fine di un’esperienza di lettura o visione. Non c’è ultima pagina, non c’è crediti finali, non c’è momento in cui il sistema ti dice “hai finito”. Il design utilizza quello che gli psicologi chiamano “variable-ratio reinforcement schedule” — lo stesso schema di rinforzo utilizzato nelle slot machine, che è notoriamente il più resistente all’estinzione tra tutti i pattern di condizionamento operante. Si scrolla sperando che il prossimo contenuto sarà quello veramente interessante, ma la ricompensa arriva a intervalli imprevedibili mantenendo il comportamento attivo.

L’autoplay su Instagram Stories e TikTok rimuove la necessità di decisione consapevole tra un contenuto e il successivo. Il video si avvia automaticamente, mantenendo gli utenti in uno stato di flow passivo dove la volontà viene sostituita dall’inerzia. Non devi scegliere di continuare — devi scegliere attivamente di fermarti, che richiede uno sforzo cognitivo maggiore. Gli algoritmi di raccomandazione personalizzata presentano contenuti secondo una “variable reward schedule” che attiva il rilascio di dopamina — il neurotrasmettitore associato all’anticipazione del piacere — in pattern che replicano quelli osservati nelle dipendenze da sostanze.

Le notifiche push predefinite sono calibrate per massimizzare interruzioni durante attività alternative che potrebbero distogliere attenzione dalla piattaforma. Un sondaggio del 2022 dell’American Academy of Sleep Medicine documenta che il 93% degli studenti della Generazione Z ha ritardato l’ora di andare a dormire a causa dei social media — non occasionalmente, ma come pattern comportamentale regolare. Le piattaforme sanno esattamente quando gli utenti sono più vulnerabili alla tentazione di controllare e ottimizzano la distribuzione delle notifiche per sfruttare quei momenti.

Frances Haugen, la whistleblower che ha portato alla luce i Facebook Files, ha testimoniato davanti al Congresso americano che Meta — proprietaria di Facebook, Instagram, WhatsApp — sapeva perfettamente che Instagram era “tossico per le ragazze adolescenti”. Ha paragonato l’effetto di Instagram sugli adolescenti alle sigarette: crea dipendenza mentre danneggia la salute, e l’azienda lo sa ma continua perché è profittevole.
Architettura proprietaria delle piattaforme social: meccanismi di controllo algoritmico e dipendenza digitale

Uno studio di Harvard del 2024 quantifica l’incentivo economico dietro queste pratiche: le piattaforme social generano quasi 11 miliardi di dollari all’anno in entrate pubblicitarie da annunci mirati a utenti di età compresa tra 0 e 17 anni. Zero. Diciassette. Include letteralmente neonati e bambini in età prescolare. Questo modello economico — dove l’attenzione giovanile viene monetizzata attraverso pubblicità comportamentale che si basa su profilazione psicologica — crea incentivi strutturali perversi. Le piattaforme non hanno motivazione economica per ridurre l’engagement problematico. Al contrario, sono finanziariamente incentivate a massimizzarlo precisamente tra le fasce demografiche più vulnerabili.

Vietare l’accesso ai minori senza toccare questi meccanismi è come vietare l’ingresso ai casinò ai diciottenni ma permettere ai casinò di continuare a progettare slot machine sempre più addictive. Il problema non è chi ha accesso, ma cosa trova una volta dentro.

REGOLARE L’ARCHITETTURA, NON GLI UTENTI

L’obiettivo di una regolamentazione efficace non dovrebbe essere impedire l’accesso, ma trasformare le logiche operative che governano questi ecosistemi. Invece di chiedere “come teniamo fuori i minori?” dovremmo chiedere “come rendiamo questi spazi sicuri per tutti, indipendentemente dall’età?” Questo richiede interventi sull’architettura proprietaria stessa, non sulla composizione demografica degli utenti.

Limitare o eliminare le funzionalità progettate esplicitamente per creare dipendenza rappresenta il primo passo concreto. Lo Stop Addictive Feeds Exploitation (SAFE) Act di New York, approvato nel 2024, richiede il consenso esplicito dei genitori per l’invio di notifiche push ai minori tra mezzanotte e le 6 del mattino. È un intervento chirurgico su un meccanismo specifico che è documentalmente dannoso, non un divieto generale. Lo Utah ha vietato l’infinite scroll per gli utenti minorenni e richiesto feed cronologici di default invece di feed algoritmici ottimizzati per engagement. Questi interventi regolamentano l’infrastruttura, non chi può accedervi.

Mandare audit algoritmici indipendenti dovrebbe essere requisito obbligatorio per ogni piattaforma che supera una soglia minima di utenti. Non autocertificazioni prodotte dai team interni, ma valutazioni condotte da terze parti con competenze in psicologia, design, etica computazionale. I risultati dovrebbero essere pubblicamente accessibili, non sepolti in report confidenziali che solo i regolatori possono vedere. La trasparenza algoritmica non è un optional etico — è prerequisito per accountability democratica quando gli algoritmi determinano cosa miliardi di persone vedono quotidianamente.

Permettere opt-out dall’algoritmo è misura tecnicamente semplice ma politicamente resistita. Studi recenti dimostrano che feed cronologici “Following Only” — dove si vedono solo i post delle persone che si è scelto di seguire, in ordine temporale — producono pattern di consumo significativamente più sani rispetto ai feed algoritmici che mescolano contenuti seguiti con “raccomandazioni” generate per massimizzare permanenza. Il Digital Services Act europeo, all’Articolo 38, obbliga già le piattaforme a offrire questa opzione. L’implementazione è stata riluttante e l’interfaccia spesso oscura, ma il principio è stabilito: gli utenti dovrebbero poter scegliere di uscire dalla manipolazione algoritmica.

Limitare drasticamente la pubblicità mirata e il tracciamento dei dati rappresenta l’intervento più radicale ma anche il più necessario. Il modello economico basato sulla sorveglianza pubblicitaria — che genera 11 miliardi annui dagli adolescenti — è il vero motore del design dannoso. Finché monetizzare l’attenzione attraverso profilazione psicologica rimane il business model dominante, ogni altra riforma sarà marginale. California e Vermont hanno approvato Age Appropriate Design Codes che limitano la raccolta dati sui minori e vietano design patterns manipolativi specificamente diretti a loro. Ma questi codici si applicano solo entro confini statali facilmente aggirabili attraverso VPN.

Creare alternative pubbliche e decentralizzate offre una via d’uscita strutturale dalla dipendenza da ecosistemi proprietari. Il Fediverso — la rete di piattaforme sociali decentralizzate come Mastodon, PeerTube, Pixelfed — opera senza algoritmi proprietari di massimizzazione dell’engagement, senza pubblicità mirata, con feed cronologici e governance comunitaria. Non è utopia tecnologica: esistono, funzionano, hanno milioni di utenti attivi. Ma mancano investimenti pubblici significativi che potrebbero renderli alternative reali su scala di massa invece che nicchie per early adopters tecnologicamente sofisticati.

L’EVIDENZA EUROPEA: QUANDO LA REGOLAMENTAZIONE FUNZIONA

Il Digital Services Act europeo, entrato pienamente in vigore nel 2024, rappresenta il primo tentativo sistematico di regolare l’architettura delle piattaforme digitali invece che semplicemente i loro contenuti o i loro utenti. L’Articolo 38 obbliga le piattaforme definite “very large online platforms” a offrire agli utenti la possibilità esplicita di disattivare i sistemi di raccomandazione algoritmica e passare a feed cronologici. Non è proibizione — è obbligo di scelta informata.

Uno studio pubblicato su CESifo Working Paper nel 2025 analizza l’introduzione dell’algoritmo su Instagram nel 2016, quando Meta sostituì il feed cronologico con un feed algoritmico ottimizzato per “relevance” — eufemismo per engagement. Il risultato, documentato attraverso analisi di dati aggregati su salute mentale, è inequivocabile: l’algoritmo ha avuto un “impatto negativo statisticamente significativo sulla salute mentale degli adolescenti”, misurato attraverso indicatori come sintomi depressivi autoriportati, disturbi del sonno, insoddisfazione corporea. Quando alcuni utenti sono stati assegnati casualmente a tornare ai feed cronologici in esperimenti controllati, quegli indicatori miglioravano.

Meta ha sempre sostenuto che l’algoritmo migliora l’esperienza utente mostrando “contenuti più rilevanti”. Ma rilevanza per chi? Per l’utente che cerca connessioni significative, o per la piattaforma che cerca massimizzazione del tempo trascorso? Gli interessi divergono, e quando l’architettura è proprietaria e opaca, prevalgono sistematicamente gli interessi economici dell’operatore.

Le prove convergono da direzioni multiple: quando si regola l’architettura proprietaria — gli algoritmi, i meccanismi di design compulsivo, i modelli economici basati sulla sorveglianza — si ottengono risultati misurabili e duraturi. Quando si vieta semplicemente l’accesso, i giovani trovano modi per aggirare le restrizioni e migrano verso spazi ancora meno regolamentati, spesso più oscuri e potenzialmente più dannosi.

Il divieto australiano ai minori di 16 anni rappresenta l’ennesima iterazione di una strategia dimostratamente fallimentare: affrontare problemi strutturali complessi attraverso restrizioni binarie sull’accesso che generano l’illusione dell’azione decisiva senza toccare i meccanismi causali sottostanti. È politically convenient — permette ai legislatori di dire “abbiamo fatto qualcosa” — ma è strutturalmente inadeguato.

Il vero nemico non sono i social media come categoria tecnologica astratta. È un modello economico specifico che monetizza l’attenzione attraverso sorveglianza comportamentale, che trasforma dati personali — inclusi quelli di bambini e adolescenti — in asset commerciabili, che sacrifica sistematicamente il benessere degli utenti sull’altare della crescita dell’engagement. È questo sistema che richiede smantellamento attraverso regolamentazione mirata, non la capacità dei giovani di partecipare a reti digitali di comunicazione.

L’alternativa al divieto non è il laissez-faire digitale — la deregolamentazione totale che permette alle piattaforme di operare senza vincoli. È l’imposizione di una logica di interesse pubblico nella gestione di infrastrutture che sono diventate essenziali per la partecipazione sociale contemporanea. Questo significa trasparenza algoritmica obbligatoria e verificabile, limitazioni severe sulla pubblicità comportamentale e il tracciamento, responsabilità legale delle piattaforme per danni causati da design deliberatamente manipolativo, investimenti pubblici massicci in alfabetizzazione digitale critica che vada oltre il “stai attento online”, creazione e sostegno di alternative pubbliche decentralizzate che operino secondo logiche non estrattive.

Significa costruire ecosistemi digitali governati da principi democratici di accountability e trasparenza invece che da imperativi di massimizzazione del profitto trimestrale. Significa riconoscere che le piattaforme social non sono semplici prodotti di mercato ma infrastrutture pubbliche essenziali che dovrebbero essere soggette a vincoli simili a quelli che regolano utilities tradizionali come acqua, elettricità, telecomunicazioni.

Finché continueremo a trattare i sintomi — l’uso problematico — invece delle cause strutturali — l’architettura estrattiva — continueremo a produrre policy inefficaci che danneggiano precisamente coloro che pretendono di proteggere. I giovani non hanno bisogno di essere tenuti fuori dai social. Hanno bisogno che quei social smettano di essere progettati per danneggiarli.

La domanda non è se proteggere i giovani dai rischi digitali. La domanda è se proteggerli attraverso esclusione paternalistica che li infantilizza e li spinge verso alternative meno sicure, o attraverso trasformazione delle strutture che rendono quegli spazi dannosi per chiunque li abiti, indipendentemente dall’età. La storia coreana ha già fornito la risposta. L’Australia sta scegliendo di ignorarla. E i più giovani — che di queste reti sono nativi, non ospiti tollerati — continueranno a pagare il prezzo della nostra incapacità collettiva di affrontare il potere dove effettivamente risiede: nell’architettura proprietaria, non nelle date di nascita degli utenti.

Fonti e Riferimenti

Articoli simili