L’Impossibile Architettura: AI Governance e Potere nella Platform Society

Analisi del potere dei dati: Da Foucault a Castells (e alla Platform Society), per decostruire l’illusione del controllo democratico sull’intelligenza artificiale


IL POTERE DEI DATI: Il Teatro di Riyadh

19 dicembre 2024, Riyadh. L’Internet Governance Forum (IGF) si chiude dopo cinque giorni di discussioni multistakeholder. In quei giorni 11.000 partecipanti tra governi, settore privato, civil society e comunità tecnica affollano panel e side event. Il comunicato finale celebra il "Global Digital Compact" adottato a settembre dalle Nazioni Unite – definito "the first universal agreement on AI governance". Inoltre, vengono annunciati l’Independent International Scientific Panel on AI, l’Annual Global Dialogue on AI Governance e l’ambizioso obiettivo di avere "global AI standards that benefit all" entro il 2030. I "Riyadh IGF Messages" vengono adottati per "guide policymaking over the coming years". Infine, Li Junhua, UN Under-Secretary-General, riafferma "the enduring relevance of building a people-centred, inclusive, development-oriented Information Society."

Stessa settimana. Mondo reale.

NVIDIA conferma che l’intera produzione 2025 di chip Blackwell è sold out fino a ottobre. Secondo Morgan Stanley, nel 2025 NVIDIA consumerà il 77% dei 535.000 wafer globali da 300 mm destinati all’AI – in salita dal 51% del 2024. Il market share arriva all’86% nei chip AI per training. Il margine lordo è del 78%: un numero che farebbe sanguinare qualsiasi azienda manifatturiera tradizionale. Jensen Huang, 7 novembre 2024, Taiwan: "Currently, we are not planning to ship anything to China." Gli export controls USA vietano la vendita dei Blackwell a Pechino. Tuttavia, Bloomberg e Wall Street Journal documentano che aziende cinesi comprano comunque i chip – tramite intermediari registrati in Singapore, Malaysia, Vietnam – a 600.000 dollari per un server da otto GPU, più del doppio del prezzo ufficiale di 240.000-320.000 dollari. Il tempo di consegna è di circa sei settimane. Non male, considerando che ufficialmente sono sold out per un anno.

In parallelo, Huawei Ascend 910B e 910C stanno già trainando il 50% dei top large language models cinesi. Allo stesso tempo, Cambricon Technologies pubblica i primi profitti trimestrali in assoluto a fine 2024 e i ricavi volano. Il governo cinese ordina che i computing hubs pubblici acquistino almeno il 50% dei chip da fornitori domestici. Inoltre, la Cina installa sistemi AI su 600 milioni di telecamere – Sharp Eyes, Skynet, Smart Cities – che identificano etnia, genere, stato emotivo in tempo reale. Un report CNN del 4 dicembre documenta come l’AI stia "turbocharging surveillance and control": dalla polizia predittiva ai tribunali AI-assisted, fino alle "smart prisons" dove il riconoscimento facciale monitora le espressioni dei detenuti e attiva interventi se "sembrano arrabbiati".

Di fatto, mentre a Riyadh si celebravano accordi universali, la vera governance stava accadendo altrove. Nelle cleanroom TSMC dove i wafer diventano destino geopolitico. Nelle decisioni USA sugli export controls che valgono più di qualsiasi risoluzione ONU. Nelle reti clandestine che aggirano i divieti via Singapore. Nel silicio, non nei soft law. In questo scenario, la platform society non è uno sfondo neutro: è il teatro materiale in cui queste decisioni diventano infrastruttura.

A questo punto la domanda è inevitabile: dov’è l’architettura di governance globale?

Il potere dei dati: Illustrazione neon-cyber della platform society e dello Stack materiale del potere digitale nell'infrastruttura AI
Lo Stack materiale della platform society: chip, datacenter, cavi e piattaforme che l’AI governance finge di non vedere.

Il potere dei dati: mapping ed evoluzione conitnua

Architectures of Global AI Governance: From Technological Change to Human Choice di Matthijs M. Maas (Oxford University Press, 2025) è probabilmente il più completo mapping accademico dei tentativi di costruire sistemi istituzionali per governare l’intelligenza artificiale nella platform society. Si tratta di oltre trecento pagine di analisi meticolosa: regime complexity, governance disruption, sociotechnical change. Maas mappa trattati, istituzioni, soft law, proposte per una IAEA dell’AI, per Digital Geneva Conventions, per framework multilaterali ispirati all’IPCC. Inoltre, documenta i summit – Bletchley Park UK 2023, Seoul 2024, il Hiroshima AI Process del G7, l’AI for Good di ITU-Ginevra. Infine, cataloga le iniziative: OECD AI Principles, UNESCO Recommendation on Ethics of AI, EU AI Act, Biden Executive Order, proposte per World AI Organization.

Tuttavia, sotto questa mappa istituzionale pulsa una verità che il libro documenta senza nominarla esplicitamente: l’AI governance è già morta prima di nascere. Non perché manchino proposte intelligenti o esperti competenti. Piuttosto, perché l’architettura del potere digitale è già stata costruita all’interno della platform society – e nessuno ha chiesto il permesso alle istituzioni internazionali.

Come nota il Carnegie Endowment in "The AI Governance Arms Race: From Summit Pageantry to Progress?" (ottobre 2024): "In a rush to be the first to regulate–or, in some cases, to avoid regulation–countries risk creating a confusing web of summits and initiatives that undermine the goals of a coherent global AI governance." Di fatto, i summit sono "summit pageantry" – teatro di diplomazia che produce voluntary commitments, non binding agreements. La Bletchley Declaration 2023 riconobbe i rischi ma non propose pause allo sviluppo. A sua volta, Seoul 2024 ottenne firme da 16 aziende AI su Frontier AI Safety Commitments – ancora una volta, volontari, non vincolanti.

Il problema, quindi, non è tecnico. È strutturale. Per comprenderlo davvero dobbiamo guardare oltre i giuristi internazionali e spostarci sui teorici del potere digitale nella platform society.


Il Panopticon Algoritmico: il potere dei dati

Dalla disciplina al controllo continuo

Maas descrive la "governance disruption" come se l’AI stesse interrompendo sistemi normativi preesistenti. Michel Foucault, invece, ci svela cosa sta realmente accadendo. Il filosofo francese insegnò che il potere moderno non si possiede – si esercita. Non opera attraverso la proibizione ma attraverso la produzione: produce verità, saperi, soggettività. Di conseguenza, l’AI non disrupta questa logica, bensì la perfeziona.

Il concetto foucaultiano di "governamentalità" – l’arte di governare le popolazioni attraverso dispositivi che le rendono calcolabili, prevedibili, ottimizzabili – trova nell’intelligenza artificiale il suo substrato tecnico ideale. Quando Maas parla di "infrastructure overhang" (Cap. 1.3.2.3) – quella condizione per cui l’AI può essere deployata istantaneamente perché le infrastrutture digitali preesistenti sono già pronte – sta inconsapevolmente descrivendo come il potere disciplinare si sia già materializzato nelle telecamere CCTV, nei database governativi, nei sensori urbani installati negli ultimi vent’anni.

I 200 milioni di telecamere cinesi non sono diventate strumenti di sorveglianza AI quando hanno integrato il riconoscimento facciale. In realtà lo erano già. L’AI ha semplicemente reso visibile ciò che Foucault chiamava il "Panopticon" in Surveiller et Punir (1975) – quella struttura di potere in cui la possibilità di essere osservati produce autodisciplina. C’è però una differenza cruciale: il panopticon di Bentham richiedeva la presenza (o la credenza nella presenza) di un guardiano umano. Il panopticon algoritmico, invece, opera 24/7, analizza pattern comportamentali che nessun umano potrebbe rilevare e predice crimini prima che avvengano.

Il potere dei dati: Dalle società disciplinari alla platform society

Gilles Deleuze, nel "Postscript on the Societies of Control" (1992), teorizzò il passaggio dalle società disciplinari (confinamento: prigioni, ospedali, fabbriche) alle società del controllo (modulazione continua attraverso flussi aperti). Oggi questa dinamica vive dentro la platform society: piattaforme che modulano accesso, visibilità, reddito, reputazione in tempo reale. Byung-Chul Han, in Psychopolitics (2017), porta oltre la diagnosi: non siamo più nel biopotere di Foucault (controllo dei corpi), siamo nello psicopotere – il controllo che non si percepisce come tale perché opera attraverso il nostro consenso volontario, i nostri like, i nostri click, la nostra quantified self. "Potere intelligente", scrive Han, "non aggressivo, seduce invece di proibire."

Nel frattempo, mentre i giuristi internazionali scrivono framework per governare questa tecnologia, la platform society governa già un miliardo e mezzo di persone. La governance AI non è una sfida da risolvere in futuro. È una realtà operativa che finge di essere ancora un progetto.


Castells e il potere dei dati: Il vero valore delle infrastrutture

Manuel Castells, nella trilogia The Information Age (1996-2010), ci diede gli strumenti per capire perché le istituzioni tradizionali falliscono davanti all’AI. In quella cornice teorica distingueva tra:

  • "Space of places" – il potere territoriale degli stati-nazione, delle istituzioni fisiche, della diplomazia;
  • "Space of flows" – il potere che opera attraverso flussi di informazione, capitale, dati che attraversano i confini senza chiedere permesso.

Maas cataloga la "regime complexity" dell’AI governance – questa proliferazione di istituzioni, norme, soft law che si sovrappongono senza coordinarsi (Cap. 6). In realtà, la complessità non è un bug. È una strategia. Mentre ONU, OCSE, Consiglio d’Europa, G7 e coalizioni bilaterali USA-UE discutono chi dovrebbe sedere al tavolo diplomatico, il vero potere opera altrove.

NVIDIA non siede ai tavoli diplomatici ma decide quale compute sarà disponibile e a chi. Microsoft Azure, Amazon AWS, Google Cloud non negoziano trattati ma controllano l’infrastruttura su cui girerà ogni modello AI del prossimo decennio. Per questo non hanno bisogno di summit: sono già l’infrastruttura della platform society.

Dalla network society alla platform society

Castells parlava di network society. Oggi José van Dijck, Thomas Poell e Martijn de Waal parlano apertamente di platform society: una società in cui le piattaforme mediatiche, logistiche, finanziarie e sociali diventano infrastruttura critica. In questa platform society, il potere non sta solo nelle reti, ma nella possibilità di programmare e riprogrammare le piattaforme stesse.

Castells distingueva quattro forme di potere nella network society:

  1. Network power – il potere di essere nella rete (chi viene escluso?);
  2. Networked power – il potere nella rete (chi controlla i nodi critici?);
  3. Networking power – il potere di connettere/disconnettere reti diverse;
  4. Network-making power – il potere di programmare/riprogrammare le reti stesse.

Alla luce di questa tipologia, chi esercita questi poteri nell’ecosistema AI?

Gli USA usano export controls sui semiconduttori per disconnettere la Cina dalla rete globale del compute avanzato (networking power). NVIDIA decide chi può accedere ai suoi H100 e Blackwell (networked power). Le Big Tech scrivono gli standard de facto attraverso API, framework, interfacce proprietarie (network-making power). TSMC a Taiwan controlla il 63% della capacità CoWoS packaging che serve per produrre praticamente tutti i chip AI avanzati (network power).

Nel frattempo, le istituzioni internazionali producono PDF. Dichiarazioni. Riyadh IGF Messages. Come scrive Castells: "I flussi di potere hanno precedenza sul potere dei flussi." In altre parole, chi controlla l’infrastruttura materiale batte chi scrive le regole. La governance AI opera nello space of places. Il potere AI opera nello space of flows e dentro la platform society. Non c’è partita.


Gli Attori Invisibili: Latour, Bratton e la Materialità Nascosta

Bruno Latour, nell’Actor-Network Theory, ci insegnò a tracciare reti che includono attori non-umani. I social studies of technology mostrano che gli oggetti tecnici non sono inerti – sono attanti che modificano l’azione, co-costruiscono il sociale. Eppure Maas, come la maggior parte dei giuristi internazionali, traccia reti di soli attori umani: stati, istituzioni, ONG, aziende, individui.

Dov’è, allora, la mappatura dei veri attori dell’AI governance nella platform society?

Dove sono i 3 nanometri di TSMC – il processo produttivo più avanzato al mondo che solo Taiwan domina e che rende l’isola il collo di bottiglia geopolitico più critico del pianeta? Dove sono i cavi sottomarini che trasportano il 99% del traffico internet transcontinentale, controllati da un oligopolio ristretto e vulnerabili a sabotaggio? Dove sono i datacenter che consumano l’1,5% dell’elettricità globale, richiedono fiumi interi per il raffreddamento e concentrano compute power in poche geografie? Dove sono le terre rare estratte in Congo da lavoratori sottopagati per produrre le batterie che alimentano l’infrastruttura mobile su cui gira l’AI edge?

Lo Stack come vera costituzione del digitale

Benjamin Bratton, in The Stack: On Software and Sovereignty (2015), ha mappato la vera architettura del potere digitale attraverso sei livelli sovrapposti:

  1. Earth – risorse fisiche (minerali, energia, territorio);
  2. Cloud – infrastruttura computazionale (datacenter, network);
  3. City – implementazione urbana (smart cities, sensori, sorveglianza);
  4. Address – protocolli e standard (TCP/IP, DNS, protocolli AI);
  5. Interface – come gli umani interagiscono (UI, API, interfacce LLM);
  6. User – soggettività catturata e profilata.

Maas parla di "architectures of global AI governance", ma queste architetture istituzionali galleggiano impotenti sopra lo Stack materiale. Come nota Bratton, lo Stack è già una forma di governance – è "a totalized system of planetary-scale computation." Governare l’AI senza controllare lo Stack è come fare leggi sulla gravità.

In modo complementare, Kate Crawford, in Atlas of AI (2021), ha tracciato le catene estrattive nascoste dietro ogni modello: minerali (litio, cobalto, terre rare), lavoro umano invisibile (i clickworker kenioti che etichettano dati per 2 dollari l’ora), consumo energetico (training GPT-3 emise 552 tonnellate di CO2), impatto ambientale (prosciugamento falde acquifere per datacenter cooling). La sua tesi è chiara: "AI is neither artificial nor intelligent" – è profondamente materiale ed estrattiva.

Nel frattempo, la governance parla di "ethics by design" e "human-centric AI" mentre ignora chi estrae il cobalto nelle miniere congolesi. Le "architetture di governance globale" si preoccupano di bias algoritmici ma non della supply chain che rende possibile l’esistenza stessa degli algoritmi nella platform society.


Il Capitalismo della Sorveglianza Trova la Sua Infrastruttura

Il potere dei Dati: modelli e business estrattivo

Shoshana Zuboff teorizzò il "surveillance capitalism" in The Age of Surveillance Capitalism (2019) – l’estrazione unilaterale di dati comportamentali umani per produrre predizioni vendibili a terzi. È il modello di business di Google, Facebook, Amazon: monitorare, catturare, analizzare, predire, modificare comportamento. Zuboff lo chiamò "a rogue mutation of capitalism."

Maas documenta come l’AI si innesti perfettamente su questa infrastruttura estrattiva già costruita. Lo chiama "infrastructure overhang" e lo descrive come caratteristica tecnica: l’AI può scalare rapidamente perché può sfruttare infrastrutture digitali pre-esistenti. Tuttavia, questo è più di una caratteristica tecnica. È, in realtà, architettura politica.

Un aggiornamento software su un mondo già cablato

Decenni di costruzione di database governativi (registri anagrafici, casellari giudiziari, archivi fiscali) hanno reso le popolazioni perfettamente indicizzabili. In parallelo, la proliferazione di sensori urbani (telecamere, sensori traffico, WiFi tracking) ha trasformato le città in spazi tracciabili. Inoltre, la normalizzazione della sorveglianza privata (le nostre case piene di Alexa, Ring doorbell, Nest cam, smartwatch che tracciano battito cardiaco e sonno) ha creato una infrastruttura di raccolta dati continua.

Questa infrastruttura ha creato il substrato perfetto. L’AI non ha dovuto convincere nessuno a installare telecamere o cedere dati. Era già tutto pronto. Come nota Maas (Cap. 1.3.2.3): mentre l’elettrificazione richiese decenni di rollout infrastrutturale per raggiungere gli utenti, l’AI sfrutta infrastrutture già deployate. Il risultato è che un sistema di sorveglianza può passare da "stupido" (telecamere CCTV tradizionali che registrano) a "intelligente" (riconoscimento facciale AI che identifica, traccia, predice) con un semplice aggiornamento software.

A questo punto emerge la domanda che la governance AI non si pone mai: può esistere governance democratica dell’AI senza prima governare il capitalismo estrattivo che la alimenta nella platform society? Possono le istituzioni internazionali regolare sistemi il cui business model dipende strutturalmente dall’accumulazione di dati comportamentali senza consenso informato genuino?

Evgeny Morozov chiama questa dinamica "digital colonialism". Il Global North progetta le istituzioni di governance AI (con l’expertise, le conferenze, i paper pubblicati su Nature). Il Global South, invece, fornisce i dati (attraverso piattaforme che estraggono gratuitamente), il lavoro invisibile (data labeling, content moderation), i territori per l’estrazione mineraria (cobalto, litio, terre rare), e poi subisce sorveglianza implementata con tecnologie che non ha mai votato. Di fatto, la "global AI governance" replica le strutture coloniali chiamandole multilateralismo.


Potere dei dati e Predatory Formations

Saskia Sassen, in Expulsions: Brutality and Complexity in the Global Economy (2014), ci diede il concetto di "predatory formations" – configurazioni istituzionali che sembrano costruire ordine ma in realtà estraggono valore distruggendo. Sembrano governance ma sono espulsione: dal sistema economico, dalla cittadinanza sociale, dalla dignità.

Nello stesso modo, l’AI governance è una predatory formation: sembra costruire regole per proteggere i cittadini, ma in realtà estrae legittimità per un sistema di controllo già operante. Produce l’illusione di partecipazione democratica ("multistakeholder dialogue", "public consultation") mentre decisioni critiche vengono prese altrove – in boardroom di chip makers, in export control agencies, in laboratori di frontier AI che shipano modelli più velocemente di quanto i parlamenti possano legiferare.

I tre scenari di disruption che sono già realtà

Maas documenta onestamente questa dinamica quando descrive i tre scenari possibili di "governance disruption" (Cap. 5):

  1. Development – l’AI crea nuove lacune normative, ambiguità, overlap tra regimi esistenti;
  2. Displacement – l’AI sostituisce funzioni governative umane con automazione (automated enforcement, AI judges, predictive policing);
  3. Destruction – l’AI erode le condizioni politiche per la governance stessa (concentration of power in few actors, erosion of state capacity).

Tuttavia, questi scenari non descrivono un futuro ipotetico. Nella realtà, sono già qui. Sono operativi. Development: mentre il mondo discute di regolare l’AI, le aziende shipano GPT-5, Claude Opus 4, Gemini Ultra. La velocità di innovazione supera di ordini di grandezza la velocità legislativa. Displacement: algoritmi già decidono chi riceve welfare benefits, chi viene fermato dalla polizia, chi ottiene credito, chi viene assunto. Destruction: la concentrazione di compute power nelle mani di 3-4 aziende sta già erodendo la capacità regolatoria degli stati. Come regoli un sistema che non puoi comprendere (black box), non puoi verificare (proprietario), non puoi ispezionare (trade secret)?

Di conseguenza, chi viene "espulso" dalla governance AI? Miliardi di persone nel Global South, sorvegliate da sistemi AI che non hanno mai votato, tracciate per training data che non hanno mai consensato, impoverite da automazione che non hanno mai discusso.


L’assimmetria tra Stati e Piattaforme: il potere dei dati

James C. Scott, in Seeing Like a State (1998), ci mostrò come gli stati modernizzatori impongano "legibilità" alla società per poterla governare: catasti (rendere leggibile la proprietà), censimenti (rendere leggibili le popolazioni), standardizzazione (rendere leggibili pratiche locali). Il potere statale richiede semplificazione, mappatura, quantificazione.

Oggi, però, l’AI ha creato una asimmetria inversa devastante: ha reso la società illeggibile allo stato ma perfettamente leggibile ai proprietari degli algoritmi che governano la platform society.

Quando Maas descrive la "governance disruption", sta documentando il momento storico in cui lo stato scopre di essere diventato cieco. Non capisce come GPT-4 prende decisioni (è una black box anche per chi l’ha creato). Non sa quanti dati ha raccolto Google su ogni cittadino (è un segreto commerciale). Non può verificare se gli algoritmi discriminano (sono proprietari, inspection is IP theft). Non può nemmeno vedere il codice dei sistemi che prendono decisioni sulla vita dei suoi cittadini.

La trasparenza algoritmica che leggi come GDPR o EU AI Act provano a imporre si scontra con un’opacità strutturale: il machine learning produce sistemi che nessuno comprende davvero, nemmeno chi li crea. Emergent capabilities, inscrutable representations, alignment failures. Come scrivono i ricercatori di Anthropic: "We don’t fully understand how these models work."

Nel frattempo, Google vede tutto. Non perché sia malvagio, ma perché il modello di business del capitalismo di piattaforma richiede asimmetria informativa totale. Zuboff lo chiamò "surveillance dividend" – il profitto derivante dal vedere ciò che altri non vedono, dal sapere ciò che altri non sanno.

In definitiva, l’AI governance arriva a un tavolo dove non ha carte da giocare. Non ha expertise tecnico (che risiede in poche aziende private). Non ha leva economica (che risiede nel controllo dell’infrastruttura cloud). Non ha velocità (i cicli legislativi sono anni, i cicli di sviluppo AI sono mesi, i deployment sono istantanei). Non ha nemmeno visibilità su cosa sta governando. A questo punto, la domanda si ripete: come puoi governare ciò che non puoi vedere?


La Vera Architettura: Export Controls > Soft Law

Torniamo al punto di partenza. NVIDIA. 86% del mercato chip AI. 77% dei wafer globali nel 2025. Intera produzione Blackwell sold out fino a Q4 2025.

Il libro di Maas documenta centinaia di iniziative di governance: Bletchley Declaration, Seoul Summit, Hiroshima AI Process, UNESCO Ethics Recommendation, OECD AI Principles, Global Digital Compact, proposte per World AI Organization, International Scientific Panel on AI, Annual Global Dialogue. Migliaia di ore-persona di diplomazia. Tonnellate di carta (o meglio, PDF).

Eppure, una singola decisione USA su export controls ha più impatto sul futuro dell’AI di qualsiasi risoluzione ONU. Quando Washington dice "NVIDIA cannot sell Blackwell to China", quella è governance reale. Quando Jensen Huang afferma "Currently, we are not planning to ship anything to China" (7 novembre 2024), sta esercitando più potere sul panorama AI globale di quanto ne abbiano 11.000 partecipanti a Riyadh.

Non è cinismo. È materialismo.

Un’oligarchia inscritta nel silicio

Come nota Langdon Winner in "Do Artifacts Have Politics?" (1980), le tecnologie non sono neutrali – sono politica congelata in silicio. L’architettura fisica dell’AI – centralizzata (richiede datacenter massivi), energy-intensive (GW di potenza), capital-intensive (miliardi di dollari di training cost) – determina la sua governance più di qualsiasi architettura istituzionale.

Un sistema che richiede miliardi di dollari di compute per essere trainato tende naturalmente verso monopolio e concentrazione. Non serve teoria critica marxista per capirlo, bastano i numeri: oltre 100 milioni di dollari per una training run di un frontier model. Solo poche organizzazioni al mondo possono permetterselo: OpenAI (backed by Microsoft 13 miliardi di dollari), Google DeepMind, Anthropic (backed by Amazon 4 miliardi + Google 2 miliardi), Meta, xAI (Musk), alcune aziende cinesi. L’AI è intrinsecamente oligopolistica per vincoli materiali, non per scelte regolatorie.

In più, questa oligopolia controlla non solo i modelli ma l’infrastruttura stessa. AWS, Azure, Google Cloud: insieme controllano oltre il 60% del cloud computing globale. Sei hyperscalers (USA + Cina) dominano i datacenter AI. TSMC produce oltre il 90% dei chip avanzati. ASML (Olanda) ha monopolio su EUV lithography machines necessarie per produrre chip <7 nm.

A ben vedere, la governance AI non sta fallendo. Semplicemente non può fallire perché non è mai stata possibile. Le "architectures of global AI governance" sono carta stampata che fluttua sopra un’infrastruttura materiale già solidificata. È come se cercassimo di regolare la gravità organizzando conferenze sulla fisica teorica, mentre la platform society continua a funzionare per conto proprio.


E Ora? Il Coraggio dell’Onestà Intellettuale

Chiamare il potere con il suo nome nella platform society

Maas conclude il suo libro con una chiamata all’azione per migliorare la coordinazione internazionale, rafforzare i meccanismi di enforcement, costruire nuove istituzioni. È un intento nobile. Necessario, forse. Eppure, forse la lezione più preziosa del suo lavoro è quella che non voleva insegnare: l’impossibilità dell’architettura che documenta è la rivelazione necessaria per vedere finalmente dove risiede il vero potere.

In altre parole, il potere reale dell’AI nella platform society sta altrove:

  • Non nei trattati, ma nei chip.
  • Non nelle conferenze, ma nei datacenter.
  • Non nel soft law, ma nel silicio.
  • Non nello space of places, ma nello space of flows.
  • Non nelle governance architectures, ma nello Stack materiale e nelle piattaforme che lo orchestrano.

Dal mito della regolazione alla politica del materiale

Questo non significa rassegnazione. Significa, piuttosto, onestà intellettuale. Significa smettere di pretendere che istituzioni del XX secolo possano governare infrastrutture del XXI secolo usando strumenti del XIX secolo (trattati internazionali, soft law, voluntary commitments).

Di conseguenza, una politica onesta dell’AI dovrebbe accettare alcuni punti scomodi:

  • Forse l’unica governance onesta è ammettere che l’AI non si governa: si subisce o si possiede.
  • Gli stati con compute sovereignty (USA, Cina, parzialmente UE se il TSMC Arizona scale-up va a buon fine) possono negoziare; gli altri possono solo scegliere quale padrone servire.
  • Il problema centrale non è "come governare l’AI", ma "come governare il capitalismo estrattivo, il colonialismo digitale, la concentrazione oligopolistica del potere computazionale che rende l’AI possibile nella platform society".
  • Senza affrontare questi nodi strutturali, ogni framework di "AI ethics" resta performativo, decorativo, add-on comunicativo.

Significa anche vedere che quando IGF Riyadh celebra "the first universal agreement on AI governance", sta celebrando teatro. Il vero show è altrove. In cleanroom TSMC dove i wafer diventano destino. In boardroom dove si decide chi può comprare Blackwell. In cavi sottomarini che trasportano il traffico dati. In miniere congolesi dove si estraggono le terre rare.

Il teatro della governance può continuare. Il pubblico può anche applaudire. Le standing ovations per il Global Digital Compact possono riempire le foto ufficiali. Tuttavia, lo spettacolo vero si recita altrove.

E lì, in quelle cleanroom, in quei datacenter da 2 GW, in quegli headquarters dove Jensen Huang decide, in quegli uffici export control dove Washington disconnette Pechino – lì, nessun diplomatico ha mai messo piede. Nessun International Scientific Panel può ispezionare. Nessun Global Dialogue può influenzare.

L’architettura è già costruita. Non l’hai votata, ma la abiti ogni giorno. Benvenuto nello Stack. Benvenuto, soprattutto, nella platform society.


Il potere dei dati: Fonti e Riferimenti

Framework Teorici: il potere dei dati/h3>

Leggi altri contenuti che alterano la percezione

Articoli simili