Australia: proibire i social ai minori è colpire il bersaglio sbagliato
Il divieto di accesso ai Social per i minori di 16 anni non risolve il problema. È l’architettura proprietaria delle piattaforme che va regolamentata.
PROIBIZIONISMO SOCIAL: Il miraggio della soluzione
L’Australia ha approvato una legge che vieta l’accesso ai social network ai minori di 16 anni. Entrata in vigore dal 10 dicembre 2025. Facebook, Instagram, TikTok, X, YouTube, Snapchat, Reddit, Kick: tutti fuori portata. Multa per le piattaforme? Fino a 49,5 milioni di dollari australiani per violazione.
Una risposta che sembra decisa. Inequivocabile.
Eppure è la risposta sbagliata alla domanda giusta.
La preoccupazione per la salute mentale dei giovani è reale. Documentata. Un’indagine 2022 di Headspace – il centro nazionale australiano per la salute mentale giovanile – rivela che il 57% dei giovani australiani ritiene che la propria salute mentale stia peggiorando. Il 42% punta il dito sui social media. Nel 2018 era il 37%.
Il dato allarmante c’è. Ma l’allarme rischia di generare reazioni sbagliate.
Il precedente sudcoreano: quando il divieto diventa evasione
La storia ci ha già provato. E ha già fallito.
2011, Corea del Sud: arriva la “Shutdown Law” – ribattezzata “Cinderella Law”. Proibisce ai minori di 16 anni di giocare online tra mezzanotte e le 6 del mattino. L’obiettivo? Prevenire la dipendenza da videogiochi, garantire ore di sonno adeguate.
Dieci anni dopo, nel 2021, la legge viene abrogata.
Il bilancio? Uno studio del 2011-2012 lo certifica: effetto statisticamente significativo ma praticamente irrisorio. Incremento di appena 1,5 minuti di sonno. I giovani aggiravano le restrizioni con facilità imbarazzante: account con credenziali dei genitori, server esteri, furto d’identità. Nel frattempo, il divieto paralizzava l’industria videoludica locale – Minecraft divenne improvvisamente un gioco per adulti con l’integrazione Xbox Live – mentre i giochi mobile, non coperti dalla legge, esplosero fino a rappresentare il 54% del mercato nel 2018.
Il Korean Herald commentò l’abrogazione senza pietà: mancavano prove scientifiche sull’efficacia della restrizione. Il vero motivo della deprivazione di sonno degli studenti coreani? Le pressioni scolastiche, non i videogiochi notturni.
Social platform e l’architettura proprietaria
Spegnere i social è colpire il bersaglio sbagliato.
Il problema non è l’interazione in ambienti digitali. È l’asservimento a interessi economici e proprietari dell’architettura delle piattaforme social e di intrattenimento.
Manuel Castells, nel suo “Communication Power” (2009), definisce la società contemporanea come “network society” – una struttura sociale costruita attorno (ma non determinata da) reti digitali di comunicazione. La sua tesi è rivoluzionaria: dove risiede il potere nella network society?
La risposta è chiara: il potere risiede in chi controlla i “programmi” delle reti e gli “switch” tra reti diverse.
Castells identifica due forme fondamentali di potere: il “network-making power” – la capacità di programmare e riprogrammare le reti secondo specifici obiettivi – e il “network power” – il potere che deriva dall’inclusione o esclusione dalle reti.
Le piattaforme social incarnano esattamente questa doppia forma. Programmano gli algoritmi che determinano cosa vediamo. Decidono chi può partecipare e a quali condizioni. Il potere non sta nella tecnologia in sé, ma nel controllo proprietario dei “programs of the networks”.
Castells: “Questa autonomia non è data automaticamente, ma deve essere conquistata”.
Fausto Colombo, nel suo “Il potere socievole. Storia e critica dei social media” (2013), approfondisce la contraddizione. I social media non sono strumenti neutri ma portatori di “precise filosofie imprenditoriali” e “svolte economiche di mercato”. Dietro l’apparente apertura e democrazia si nascondono “poteri meno ovvi, e forse più oscuri”.
La sorveglianza sociale non è più solo verticale. È diventata “orizzontale” o “laterale”: sono gli stessi utenti a diventare soggetti attivi del potere attraverso la cessione “volontaria” di dati personali in cambio di servizi.
Jürgen Habermas teme che nella sfera pubblica digitale “la possibilità di un discorso inclusivo e su scala societaria – che, nonostante tutti i rischi di dominazione e manipolazione, esisteva ancora nella sfera pubblica dei mass media – venga irrimediabilmente persa”.
L’inefficacia del divieto di accesso ai Social
I dati raccolti dall’eSafety Commissioner australiano nel febbraio 2025 svelano la portata del problema – e l’illusorietà della soluzione proposta.
L’80% dei bambini australiani di età compresa tra 8 e 12 anni ha utilizzato uno o più social media nel 2024. Nonostante i limiti di età già esistenti. Parliamo di circa 1,3 milioni di bambini. Le piattaforme più popolari? YouTube (68%), TikTok (31%), Snapchat (19%). L’84% dei giovani ha dichiarato che i propri genitori erano al corrente dei loro account.
Julie Inman Grant, eSafety Commissioner, lo ammette senza giri di parole: “Poche piattaforme hanno misure realmente rigorose per determinare l’età con precisione al momento dell’iscrizione, quindi nulla impedisce a un quattordicenne di inserire una data di nascita falsa e creare un account adulto senza restrizioni”.
L’ingegneria dell’addiction: anatomia del design dannoso
Le piattaforme proprietarie non si limitano a “ospitare” contenuti. Implementano meccanismi di design specificamente progettati per creare dipendenza.
L’American Psychological Association lo documenta in un report del 2024. Il Chief Science Officer dell’APA, Mitch Prinstein: “Oltre la metà degli adolescenti riporta almeno un sintomo di dipendenza clinica dai social media”.
Infinite scroll: Elimina i punti di arresto naturali. Il design utilizza quello che gli psicologi chiamano “variable-ratio reinforcement schedule” – lo stesso schema di rinforzo utilizzato nelle slot machine altamente addictive.
Autoplay: Su Instagram Stories e TikTok, i video successivi si avviano automaticamente. Rimuove la necessità di decisione consapevole. Mantiene gli utenti in uno stato di flow passivo.
Algoritmi di raccomandazione personalizzata: Meta utilizza algoritmi che presentano contenuti con una “variable reward schedule” – la stessa strategia delle slot machine. Attiva il rilascio di dopamina, il neurotrasmettitore associato all’anticipazione del piacere.
Notifiche push predefinite: Un sondaggio del 2022 dell’American Academy of Sleep Medicine: il 93% degli studenti della Gen Z hanno ritardato l’ora di andare a letto a causa dei social media.
Frances Haugen, whistleblower: Meta sapeva perfettamente che Instagram era “tossico per le ragazze adolescenti”. Ha paragonato l’effetto di Instagram sugli adolescenti alle “sigarette” – crea dipendenza mentre danneggia la salute.

Studio di Harvard del 2024: le piattaforme social generano quasi 11 miliardi di dollari all’anno in entrate pubblicitarie da annunci mirati a utenti di età compresa tra 0 e 17 anni. Questo incentiva le piattaforme a continuare le loro pratiche dannose.
Verso una vera regolamentazione: l’architettura prima del divieto
L’obiettivo doveva essere l’imposizione di regole “pubbliche” nella gestione di questi spazi. Non il divieto d’accesso, ma la trasformazione delle logiche che governano le piattaforme.
Vietare o limitare le funzionalità addictive comprovate: Lo Stop Addictive Feeds Exploitation (SAFE) Act di New York richiede il consenso dei genitori per le notifiche tra mezzanotte e le 6 del mattino. Questi interventi regolamentano l’infrastruttura, non l’accesso.
Mandare audit algoritmici indipendenti: Gli stati dovrebbero richiedere alle piattaforme social di sottoporsi ad audit di rischio algoritmico condotti da terze parti indipendenti e di divulgare pubblicamente i risultati.
Permettere opt-out dall’algoritmo: Studi recenti dimostrano che feed cronologici “Following Only” producono pattern di consumo più sani rispetto ai feed algoritmici.
Limitare la pubblicità mirata e il tracciamento dei dati: Il modello economico basato sulla sorveglianza pubblicitaria – che genera 11 miliardi di dollari annui dagli adolescenti – è il vero problema, non l’età degli utenti.
Creare alternative pubbliche e decentralizzate: Il Fediverso – la rete di piattaforme sociali decentralizzate come Mastodon – opera senza algoritmi proprietari di massimizzazione dell’engagement, senza pubblicità mirata, con feed cronologici e governance comunitaria.
la Regolamentazione Social
Il Digital Services Act europeo: L’Articolo 38 del DSA obbliga le piattaforme a offrire agli utenti la possibilità di disattivare i sistemi di raccomandazione algoritmica e di passare a feed cronologici.
Evidenze sull’efficacia dei feed cronologici: Studio del 2025 su CESifo Working Paper analizza l’introduzione dell’algoritmo su Instagram nel 2016. Il risultato è inequivocabile: l’algoritmo ha avuto un “impatto negativo sulla salute mentale degli adolescenti”.
Le prove convergono: quando si regola l’architettura proprietaria – gli algoritmi, i meccanismi di design addictivo, i modelli economici basati sulla sorveglianza – si ottengono risultati misurabili. Quando si vieta semplicemente l’accesso, i giovani trovano modi per aggirare le restrizioni e migrano verso spazi ancora meno regolamentati.
Il divieto australiano ai minori di 16 anni rappresenta l’ennesimo esempio di solutionismo tecnologico applicato a problemi complessi che richiedono risposte articolate.
Il nemico è un modello economico che monetizza l’attenzione, che trasforma i dati personali in merce, che sacrifica il benessere degli utenti sull’altare dell’engagement. È questo sistema che va regolamentato, non l’età degli utenti.
L’alternativa al divieto non è il laissez-faire digitale. È l’imposizione di una logica pubblica nella gestione degli spazi digitali: trasparenza algoritmica, limitazione della pubblicità mirata, responsabilità delle piattaforme per i danni causati, investimenti in alfabetizzazione critica, creazione di alternative pubbliche di qualità.
È la costruzione di una rete neutrale, aperta, governata da principi democratici piuttosto che da logiche di profitto.
Fino a quando continueremo a trattare i social media come il problema anziché come uno dei tanti sintomi di un’architettura digitale asservita agli interessi privati, continueremo a sparare nel buio. E i più giovani – che di questa rete sono nativi, non ospiti – continueranno a pagare il prezzo della nostra miopia.
Fonti e Riferimenti
- Headspace National Youth Mental Health Survey 2022
- eSafety Commissioner – Australian Youth and Social Media Report 2025
- Korea Times – Shutdown Law Abolished After 10 Years
- Quarterly Journal of Economics – South Korea Gaming Regulation Study
- Manuel Castells – Communication Power (2009)
- Fausto Colombo – Il potere socievole. Storia e critica dei social media (2013)
- Jürgen Habermas – A New Structural Transformation of the Public Sphere (2022)
- Theory, Culture & Society – Digital Public Sphere Study (2022)
- Nature Human Behaviour – Meta-Analysis of Algorithmic Audits (2023)
- Frontiers in Psychology – TikTok Misogynistic Content Study (2025)
- CESifo Working Paper – Instagram Algorithm Impact on Mental Health (2025)
- American Psychological Association – Social Media and Youth Mental Health Advisory (2024)
- Meta Platforms Inc. – SEC Filings on Youth Advertising Revenue
- Frances Haugen Congressional Testimony – Facebook Whistleblower (2021)
- American Journal of Law & Medicine – Social Media Revenue from Minors Study (2024)
- QUT Digital Media Research Centre – Age Verification Technology Analysis (2025)
- European Union – Digital Services Act (DSA) Official Text
- Internet Policy Review – DSA Data Access for Researchers (2023)
- New York State Senate – SAFE for Kids Act (2024)
- California Attorney General – Age Appropriate Design Code
- ACM FAccT Conference – Software Design for Regulatory Compliance (2025)
- arXiv – Algorithmic Transparency Reports for Platforms (2025)
- Mastodon – Decentralized Social Network Model
- American Academy of Sleep Medicine – Gen Z Social Media Sleep Survey (2022)







