Machine Learning: l’Ontologia Sociale Incorporata nel Codice

Machine learning: casi reali, e la politica nascosta dietro la tecnica

Machine learning: La Promessa Democratica e la Realtà Asimmetrica

Arthur Samuel definì il machine learning come la capacità di una macchina di imparare senza essere esplicitamente programmata — una formula che risuona con una seduzione quasi emancipatoria. L’idea di macchine che apprendono autonomamente evoca l’immagine di un’intelligenza neutra, oggettiva, capace di superare i limiti della programmazione umana.

Ma questa narrativa nasconde una verità più scomoda: le macchine non imparano nel vuoto. Imparano dai dati che gli forniamo, e quei dati sono sempre già intrisi di ogni pregiudizio, ogni asimmetria di potere, ogni gerarchia sociale che li ha generati.

Il problema, però, non si ferma alla qualità dei dataset. Anche quando i dati fossero “puliti” — ammesso che tale purezza sia concepibile in una società stratificata — l’architettura stessa delle reti neurali, l’infrastruttura computazionale, i protocolli di accesso e distribuzione sono asserviti agli interessi proprietari di chi controlla l’ecosistema digitale. Il machine learning non è una tecnologia autonoma: è un dispositivo di potere implementato attraverso reti proprietarie.

Bias Algoritmici: Feature, Non Bug

I bias algoritmici non sono un malfunzionamento da correggere in una futura versione più etica del software. Sono una caratteristica strutturale del machine learning quando viene applicato a società profondamente diseguali.

Prendiamo i sistemi di predictive policing: concentrano la sorveglianza in aree già iper-poliziate, creando feedback loops che confermano e amplificano i pregiudizi iniziali, trasformandoli in profezie che si autoavverano. Più sorveglianza genera più arresti, più arresti giustificano più sorveglianza. Il cerchio si chiude, la violenza epistemica si normalizza.

Marvin Minsky, uno dei padri dell’intelligenza artificiale, comprese che ogni sistema di rappresentazione della conoscenza incorpora necessariamente un modello del mondo. La sua teoria dei “frames” ci mostra come ogni algoritmo sia sempre già carico di assunzioni ontologiche. Non esistono modelli neutri: ogni modello incorpora una ontologia sociale, una gerarchia di valori trasformata in funzione matematica.

Nessuno ha mai votato per quell’ontologia. Nessuno ha mai discusso pubblicamente se questa fosse la società che volevamo costruire. La governance algoritmica opera come un colpo di stato epistemologico: sostituisce il dibattito politico con l’ottimizzazione matematica.

L’Architettura Come Ideologia: Fuller e la Geometria del Potere

Buckminster Fuller ci ha insegnato che l’architettura non è mai neutra: ogni struttura incorpora un sistema di valori, una visione del mondo, una distribuzione di risorse e possibilità. Applicato all’infrastruttura digitale, questo significa una cosa semplice: il design è governance.

Le Big Tech hanno costruito un modello che ha reso obsolete le forme precedenti di comunicazione e organizzazione sociale, non per emancipare l’umanità, ma per estrarre valore da ogni interazione, da ogni dato, da ogni traccia dell’esistenza digitale. L’architettura delle piattaforme — ranking, raccomandazioni, economie dell’attenzione — non è un dettaglio tecnico. È ideologia resa struttura.

Fuller parlava di “tensegrità”: l’integrità tensionale, la capacità di distribuire forze attraverso una struttura. L’infrastruttura digitale contemporanea opera attraverso una tensegrità inversa: concentra il potere in pochi nodi proprietari mentre distribuisce la responsabilità (e il rischio) su miliardi di utenti. I dati sono estratti dal basso, il valore è accumulato in alto, le esternalità negative sono scaricate sulla società.

Colombo e il Circuito della Comunicazione Spezzato

Fausto Colombo ha evidenziato come la convergenza digitale non sia stata una semplice evoluzione tecnologica, ma una ristrutturazione del circuito comunicativo. Il controllo dell’infrastruttura comunicativa è sempre anche controllo sulla produzione del senso sociale.

Nel contesto del machine learning, questo significa che chi controlla i modelli — chi decide quali dati raccogliere, come preprocessarli, quali obiettivi ottimizzare, quali metriche massimizzare — controlla anche i parametri attraverso cui la realtà viene interpretata e agita.

Machine learning come infrastruttura di potere: dati, sorveglianza e architetture digitali che modellano comportamento e visibilità.
Quando il machine learning non descrive il mondo: lo riscrive.

L’Intelligenza Artificiale Come sistema auto confermativo

Riprendendo Foucault, potremmo dire che il machine learning opera come un regime di veridizione: un sistema che produce verità, che definisce cosa conta come conoscenza valida, cosa può essere oggetto di affermazione legittima. Ma a differenza dei regimi di verità più visibili e contestabili, il regime algoritmico agisce spesso come black box epistemica.

L’opacità non è solo un limite temporaneo: in molti sistemi complessi è una caratteristica intrinseca. Qui si innesta la lettura di Kate Crawford: l’AI come infrastruttura materiale ed estrattiva — lavoro, risorse, dati — presentata però come inevitabile destino tecnologico.

Predictive Policing: La Violenza Epistemica Formalizzata

Il predictive policing rappresenta il caso paradigmatico: il modello è addestrato su dati storici che riflettono decenni di policing stratificato. Impara che certi quartieri e popolazioni sono “ad alto rischio”, concentra lì la sorveglianza, produce più arresti, reinserisce quei dati nel dataset: il loop si rinforza.

Questo non è un bug: è il funzionamento previsto di un sistema che trasforma correlazioni in apparenti causalità naturali. Legittima la violenza strutturale attraverso l’autorità della matematica.

Machine learning: La Gerarchia di Valori Trasformata in Funzione Matematica

Ogni modello incorpora una loss function: una metrica che definisce cosa significa “imparare bene”. Ma chi decide la metrica? Chi stabilisce i trade-off tra accuratezza e fairness, tra efficienza e privacy, tra performance e interpretabilità?

Sono domande politiche. Eppure vengono risolte da team interni a corporation private, guidati da logiche di ottimizzazione del profitto e accountability verso azionisti, non verso cittadini.

Il risultato è una gerarchia di valori che riflette gli interessi del capitale digitale: massimizzare l’engagement diventa più importante che preservare l’integrità informativa; ottimizzare la conversione più importante che proteggere l’autonomia cognitiva; ridurre i costi più importante che garantire dignità lavorativa.

Verso un’Ecologia Critica degli Algoritmi

Il problema non è il machine learning come tecnica — utile, per esempio, in diagnostica medica o modellazione climatica. Il problema è il machine learning come dispositivo di potere implementato su reti proprietarie, orientato all’estrazione di valore, sottratto a controllo democratico.

Serve un’ecologia critica degli algoritmi che lavori su quattro assi:

  • Trasparenza radicale: apertura della pipeline (raccolta, training, deployment, auditing).
  • Accountability democratica: governance partecipativa e diritto di contestazione per le comunità impattate.
  • Infrastruttura pubblica: alternative commons-based alle piattaforme estrattive.
  • Alfabetizzazione critica: non solo tecnica, ma literacy politica sulle ontologie incorporate nel codice.

Decode. Resist. Reclaim.

Le macchine imparano, sì. Ma imparano a replicare e amplificare le strutture di potere esistenti. Imparano a trasformare l’esperienza vissuta in data points. Imparano a predire comportamenti in modi che trasformano la predizione in prescrizione. Imparano, in ultima analisi, a governare senza essere governate.

La vera domanda non è “come rendiamo gli algoritmi più equi?”, ma “chi deve controllare i sistemi che governano la nostra vita collettiva?”.

Machine learning: Fonti essenziali

Tags: #MachineLearning #BiasAlgoritmici #IntelligenzaArtificiale #PredictivePolicing #InfrastruttureDigitali #CapitalismoDelSorveglianza #MediaTheory #DigitalPoliticalEconomy

Parole chiave: machine learning, bias algoritmici, ontologia sociale, Marvin Minsky, Buckminster Fuller, Fausto Colombo, predictive policing, infrastruttura digitale, governance algoritmica, piattaforme digitali, capitalismo sorveglianza

Articoli simili