LA DOPPIA CORSIA DEL CONTROLLO DIGITALE
Negli Stati Uniti si sta consolidando un assetto preciso nel rapporto tra potere politico e infrastrutture digitali. Non attraverso leggi che ridefiniscono apertamente i confini della libertà di espressione — operazione politicamente costosa e costituzionalmente rischiosa — ma attraverso una doppia corsia di trattamento che premia chi costruisce capacità computazionale strategica e disciplina chi ospita il disordine del discorso pubblico quotidiano. Da un lato, cene alla Casa Bianca e promesse di investimenti miliardari nell’AI per i giganti tecnologici considerati alleati nell’egemonia digitale americana. Dall’altro, convocazioni congressuali minacciose per le piattaforme social che permettono conversazioni rumorose, imprevedibili, politicamente incontrollabili.
L’8 ottobre 2025, quattro ecosistemi digitali orientati alle community — Reddit, Discord, Steam, Twitch — hanno ricevuto lettere ufficiali dal presidente repubblicano della Commissione per la Vigilanza della Camera, James Comer, con richiesta di testimonianza formale. L’inquadratura ufficiale invocava la necessità di comprendere come prevenire “radicalizzazione” e “incitamento politico” online dopo l’omicidio di Charlie Kirk. Ma l’inquadratura vera, quella leggibile in controluce, rivelava qualcos’altro: l’uso strategico di una tragedia come leva per restringere il perimetro del dicibile sulle piattaforme aperte, proprio a ridosso della stagione elettorale più polarizzata degli ultimi decenni. Non è semplice procedura istruttoria parlamentare — è segnale politico diretto a chi modera le piazze digitali dove il disordine linguistico è norma strutturale, non anomalia correggibile.
L’ALTRA SALA: CAPITALISMO E SOVRANITÀ ALGORITMICA
Nello stesso mese, all’estremità opposta dello spettro del potere washingtoniano, si consumava l’atto complementare. Cena formale alla Casa Bianca con i vertici dell’hi-tech americano, telecamere puntate, narrativa della “dominanza americana nell’intelligenza artificiale” recitata come liturgia patriottica. Mark Zuckerberg ha sbandierato un numero calibrato per bucare qualsiasi titolo di giornale: 600 miliardi di dollari di investimenti “entro il 2028”. La CFO di Meta, Susan Li, ha successivamente contestualizzato la cifra come proiezione cumulata su più anni e su più attori di settore — stima d’ordine di grandezza più che impegno contrattuale inciso nella pietra. Ma il messaggio comunicativo aveva già raggiunto l’obiettivo: chi parla fluentemente la lingua dell’AI-infrastruttura — capex, data center, permitting energetico, chip, megawatt — ottiene platea presidenziale e legittimazione strategica. Chi invece ospita conversazioni quotidiane rumorose senza portare in dote hardware computazionale viene richiamato in Commissione a spiegarsi.
Questa pressione selettiva opera secondo una logica binaria perfettamente funzionale. Prima si premiano gli attori considerati “strategici” per l’AI nazionale attraverso riconoscimento simbolico, accesso privilegiato, promesse di framework regolatori favorevoli. Poi si disciplinano le piattaforme che reggono il peso del discorso pubblico disordinato attraverso moral suasion, minacce legislative implicite, audizioni che funzionano come deterrente. Per farlo non servono nuove leggi — spesso basta un’audizione annunciata pubblicamente, un titolo ostile sui media mainstream, un filo sottile di pressione informale che le piattaforme interpretano correttamente come segnale di adeguarsi o affrontare conseguenze peggiori.
IL CONFINE COSTITUZIONALE DEL JAWBONING
Negli Stati Uniti questa forma di controllo ha un nome tecnico preciso — jawboning — e un confine legale teoricamente definito ma praticamente scivoloso. La Corte Suprema, nel caso Murthy v. Missouri (2024), non ha chiuso la porta al dialogo tra governo federale e piattaforme private, riconoscendo la legittimità di scambi informativi e richieste di collaborazione su questioni di sicurezza nazionale. Ma ha tracciato una linea sottile: la collaborazione non può trasformarsi in coercizione implicita né in “significant encouragement” tale da convertire scelte editoriali private in azione statale mascherata. Il problema, ovviamente, è che quella linea sottile diventa invisibile quando il dialogo avviene dietro porte chiuse, quando le minacce sono veicolate attraverso canali informali, quando la pressione si maschera da consiglio amichevole.
Sotto quella soglia costituzionale, la bussola del Primo Emendamento resta teoricamente nitida. Con Brandenburg v. Ohio (1969), la Corte aveva stabilito che lo Stato non può punire espressioni anche durissime se non sono “dirette a incitare o produrre azione illegale imminente” e “idonee a incitare o produrre tale azione”. Con Matal v. Tam (2017) aveva ribadito che offendere sensibilità comuni non è sufficiente a perdere protezione costituzionale: negli Stati Uniti l'”hate speech” in quanto tale non costituisce categoria di discorso non protetto. Traslato sul presente digitale, questo significa che pressioni politiche su rimozioni generalizzate di contenuti semplicemente offensivi o politicamente scomodi sfiorano la linea rossa costituzionale — soprattutto quando non sono ancorate a standard trasparenti, pubblici, autonomamente sviluppati dalle piattaforme stesse.
Il parallelo con i media broadcast tradizionali rende il meccanismo immediatamente riconoscibile. Il caso Kimmel/ABC aveva dimostrato come funzioni quella che i teorici della regolazione chiamano “raised eyebrow regulation” — regolazione attraverso sopracciglio alzato. Non serve ordine scritto quando basta l’espressione diplomaticamente minacciosa del regolatore che controlla licenze, valuta fusioni, determina accesso allo spettro. La rete televisiva, razionalmente, sceglie la strada più prudente. Sui social media contemporanei cambiano gli strumenti formali — audizioni congressuali invece di rinnovi di licenza, tweet presidenziali invece di comunicazioni FCC — ma l’esito sistemico rimane identico: autocensura preventiva per evitare attriti, abbassamento del volume del rumore per minimizzare rischi reputazionali e regolatori, conformismo come polizza assicurativa contro scenari peggiori.

L’INFRASTRUTTURA COME TERRENO DI SOVRANITÀ
Nel frattempo, il terreno infrastrutturale sottostante si sposta in direzioni apparentemente contraddittorie ma funzionalmente coerenti. A gennaio 2025 la Corte d’Appello del Sesto Circuito ha bloccato il ripristino delle regole federali di net neutrality, ritenendo che la FCC (Federal Communications Commission) non disponesse della base legale per riclassificare gli ISP come “common carriers” soggetti a obblighi di non discriminazione. Nei mesi successivi, la nuova FCC guidata da un indirizzo esplicitamente deregolatorio ha avviato quello che internamente viene definito “delete, delete, delete” — eliminazione sistematica dei residui regolatori ereditati dall’amministrazione precedente.
Il risultato pratico è un paradosso solo apparente: si alleggerisce il controllo pubblico sulle tubature fisiche della rete — i provider che forniscono connettività — mentre contemporaneamente cresce la pressione informale per indirizzare ciò che scorre dentro quelle tubature. La postura ideologica diventa internamente coerente: libertà economica ai vettori di infrastruttura, attenzione — e quando necessario, pressione — sui contenuti e sui loro intermediari. Deregolare il livello infrastrutturale mentre si disciplina il livello applicativo non è contraddizione ma divisione razionale del lavoro di governo dell’infosfera.
Il dossier TikTok rappresenta l’esempio più istruttivo di come si possa governare gli ecosistemi informativi senza ricorrere a divieti espliciti che genererebbero resistenze costituzionali e politiche. L’accordo strutturato a settembre 2025 evita il ban totale della piattaforma — misura che sarebbe stata contestata in tribunale per anni — ma costruisce quella che va definita come “nazionalizzazione morbida” attraverso architettura proprietaria. Oracle e investitori americani (inclusi fondi sovrani mediorientali alleati) presidiano infrastruttura dati, sicurezza operativa e — aspetto cruciale — l’algoritmo di raccomandazione per l’utenza statunitense. ByteDance rimane collegata attraverso licenze tecnologiche e quote azionarie minoritarie, ma il sistema che determina cosa vedono 170 milioni di utenti americani viene replicato, riaddestrato, operato dentro un perimetro di sovranità tecnologica controllato da Washington.
Non si spegne un feed globale. Si ri-ingegnerizza l’architettura che decide cosa ciascun utente vede, quando, in quale sequenza, con quale frequenza. È applicazione della stessa grammatica che lega politica industriale, sicurezza nazionale e controllo dei flussi informativi: chi controlla l’infrastruttura controlla i messaggi che quella infrastruttura veicola, senza bisogno di censura contenutistica visibile. Manuel Castells lo aveva teorizzato in “Communication Power” (2009): nelle società-rete il potere non risiede nei contenuti che circolano ma nel controllo dei “programmi” delle reti e degli “switch” tra reti diverse. TikTok-Oracle è la dimostrazione empirica perfetta di quella tesi.
AI MILITARE E FILIERA DELLA SOVRANITÀ ALGORITMICA
Sul fronte dell’intelligenza artificiale applicata al governo, la saldatura tra pubblico e privato diventa ancora più esplicita e strutturale. Nel 2025 l’Esercito degli Stati Uniti ha consolidato decine di contratti precedentemente separati in un accordo decennale con Palantir Technologies — tetto potenziale fino a 10 miliardi di dollari — per acquisire più rapidamente software di analytics, elaborazione dati e capacità algoritmiche da integrare nelle operazioni militari. In parallelo, partnership strategiche con integratori come Accenture Federal Services hanno istituzionalizzato una filiera completa di AI operativa a servizio delle agenzie federali civili e di difesa.
Quando l’intelligenza artificiale diventa infrastruttura critica di governo — non applicazione commerciale accessoria ma capacità essenziale per proiezione di potere — chi la abilita tecnicamente sale automaticamente di rango politico. E specularmente, chi mette alla prova quella capacità ospitando conflitti culturali, disordine linguistico, contestazione delle narrative ufficiali viene percepito come problema di sicurezza da addestrare verso forme di conformità compatibili con gli interessi strategici definiti centralmente. La differenza di trattamento tra Meta-alla-Casa-Bianca e Reddit-in-audizione-congressuale non è bug del sistema: è la nuova regola operativa.
Accanto a questa traiettoria computazionale corre la dottrina crypto dell’amministrazione Trump, costruita attorno all’idea che sovranità monetaria digitale e sovranità computazionale siano infrastrutture gemellari. L’Ordine Esecutivo 14178 ha fissato l’indirizzo strategico per le tecnologie finanziarie digitali; nei mesi successivi sono arrivati il progetto di Strategic Bitcoin Reserve per gestire in modo strutturato gli asset digitali confiscati dalle forze dell’ordine, e una cornice federale per gli stablecoin — il GENIUS Act — volta ad armonizzare i regimi statali frammentati e stabilire requisiti uniformi di riserva e audit. L’idea sottostante è identica a quella che governa l’AI: infrastrutture critiche parallele — computazione e finanza digitale — al centro della capacità di proiezione geopolitica. Chi fornisce nodi di potere tecnico diventa alleato strategico di sistema. Chi ospita rumore democratico disorganizzato diventa frizione da minimizzare.
LA GRAMMATICA DEL CONTROLLO CONTEMPORANEO
Shoshana Zuboff in “The Age of Surveillance Capitalism” (2019) aveva descritto come il capitalismo contemporaneo operi attraverso estrazione di surplus comportamentale — i nostri dati trasformati in prodotti predittivi venduti su mercati dei comportamenti futuri. Ma quello che sta emergendo negli Stati Uniti del 2025 è una convergenza ancora più stretta: il capitalismo della sorveglianza si salda con obiettivi di sovranità statale, creando un sistema ibrido dove interessi commerciali e interessi di sicurezza nazionale diventano indistinguibili. Le piattaforme che accettano questo ruolo — fornendo capacità computazionale, dati aggregati, algoritmi addestrati su miliardi di interazioni umane — vengono premiate con accesso, protezione regolatoria, legittimazione pubblica. Quelle che resistono, o anche solo quelle che per natura della loro architettura non possono offrire quel tipo di controllo centralizzato, vengono disciplinate.
Questo ci riporta alla domanda iniziale: cosa verrà effettivamente chiesto alle piattaforme convocate per l’8 ottobre in audizione congressuale? Se lo scopo dichiarato è genuinamente la sicurezza pubblica — prevenire radicalizzazione violenta, limitare incitamento a violenza imminente — il Congresso può legittimamente pretendere criteri pubblici e trasparenti di moderazione, tracciabilità delle escalation comportamentali, aperture controllate alla ricerca indipendente sui sistemi di raccomandazione, audit esterni periodici condotti da terze parti qualificate, rendicontazione dettagliata su come vengono gestiti contenuti borderline.
Ma se l’audizione si limiterà a generare pressione generica per “meno rumore” e “più pulizia”, allora la tragedia che l’ha innescata sarà stata convertita in procedura, la procedura in disciplina informale, la disciplina in conformismo preventivo. Non piattaforme più trasparenti e accountable democraticamente, ma piattaforme più obbedienti e prevedibili politicamente. E a quel punto la doppia corsia diventerà pienamente operativa e difficilmente contestabile: Meta, Apple, Google, Microsoft, OpenAI, Oracle alla cena e nella narrativa della “missione nazionale”; Reddit, Discord, Steam, Twitch in aula a giustificare perché permettono ancora agli utenti di parlare liberamente tra loro.
Il controllo contemporaneo non si esercita attraverso censura visibile ma attraverso pressione invisibile che trasforma l’autonomia editoriale in obbedienza anticipata.
Due platee, due lessici politici, due prezzi da pagare per operare nello spazio digitale americano. Costruire capacità computazionale strategica garantisce protezione e accesso al potere. Ospitare il disordine della parola pubblica genera sospetto e richiede conformità. Non serve una legge autoritaria quando basta un ecosistema di incentivi che spinge naturalmente verso autocensura. Non serve Grande Fratello quando le piattaforme stesse, razionalmente, scelgono la strada della minima resistenza politica. È qui che la formula “controllo sociale attraverso sudditanza tecnologica” smette di essere provocazione retorica e diventa descrizione accurata di un assetto istituzionale consolidato: premiare chi costruisce infrastrutture di potere computazionale, disciplinare chi facilita aggregazione spontanea di discorso pubblico incontrollato. La libertà di parola rimane formalmente intatta nel testo costituzionale. Ma l’architettura che determina quale parola viene amplificata, quale seppellita, quale rimossa preventivamente viene progressivamente allineata con interessi definiti altrove — non dagli utenti, non dalle comunità, ma dall’intersezione tra capitalismo algoritmico e sovranità statale.
Fonti principali: House Oversight Committee (audizioni 8 ottobre 2025), Reuters (copertura caso Kirk e testimonianze), Business Insider (contestualizzazione Meta CFO), sentenze Corte Suprema (Murthy v. Missouri, Brandenburg v. Ohio, Matal v. Tam), 6th Circuit (net neutrality), documentazione FCC, Reuters/Politico (accordo TikTok-Oracle), Defense Scoop e US Army (contratto Palantir), Ordine Esecutivo 14178 su crypto policy. Documentazione completa disponibile su richiesta.







