Algorithm decoded: Dall’astrazione matematica al potere computazionale

ALGORITMI: l’algortimo è nudo

Algorithm Decoded: il sogno della ragione calcolabile

Nel XVII secolo, Gottfried Wilhelm Leibniz concepiva un progetto ambizioso quanto utopico: la Characteristica Universalis, un linguaggio universale del pensiero capace di ridurre ogni ragionamento a operazione calcolabile. Il suo Calculus Ratiocinator avrebbe dovuto meccanizzare la logica stessa, trasformando le controversie filosofiche in semplici computazioni aritmetiche: Calculemus!, diceva Leibniz, invitando a risolvere i disaccordi attraverso il calcolo piuttosto che la disputa.

Questa visione razionalista – la convinzione che il pensiero stesso possa essere formalizzato in procedimenti meccanici – attraversa due secoli di storia della logica e della matematica fino a materializzarsi, nel XX secolo, in dispositivi computazionali che oggi governano ogni aspetto delle nostre esistenze. Ma ciò che si materializza non è la razionalità universale immaginata da Leibniz: è una razionalità particolare, situata, incorporata nei rapporti di potere del capitalismo digitale. È qui che l’idea di algorithm decoded diventa necessaria: decifrare come questi modelli di calcolo si trasformano in infrastrutture di governo delle vite.

La genealogia teorica: dalla crisi dei fondamenti alla svolta computazionale

Le radici: Al-Khwarizmi e la procedura sistematica

Prima di diventare codice, l’algoritmo era procedura. L’etimologia del termine deriva dal nome del matematico persiano Muhammad ibn Mūsā al-Khwārizmī (IX secolo), i cui trattati di aritmetica vennero tradotti in latino come Algoritmi de numero Indorum. In questa fase pre-moderna, l’algoritmo designa una sequenza finita di operazioni aritmetiche sistematiche per risolvere classi di problemi – la divisione, l’estrazione di radici, la risoluzione di equazioni. È una tecnica, non ancora una teoria.

L’Entscheidungsproblem: il programma di Hilbert

Nel 1928 David Hilbert riprende esplicitamente il progetto leibniziano, formulando il famoso Entscheidungsproblem, il problema della decisione. Hilbert cerca di dimostrare la coerenza di un sistema logico formale attraverso l’individuazione degli assiomi dell’aritmetica, sulla base del principio di non contraddittorietà già utilizzato da Grégonne per gli “assiomi” della geometria euclidea.

L’obiettivo del programma di Hilbert è ambizioso: dimostrare che esiste un algoritmo capace di determinare meccanicamente, per ogni enunciato matematico ben formato, se esso sia vero o falso, dimostrabile o indimostrabile. Se un tale algoritmo esistesse, il sogno di Leibniz sarebbe realizzato: la verità matematica diventerebbe questione di calcolo automatico.

La negazione: Gödel e Church

Ma ciò risulta impossibile. Nel 1931, il teorema dell’incompletezza di Kurt Gödel frantuma il programma di Hilbert dimostrando che in ogni sistema formale sufficientemente potente da contenere l’aritmetica esistono proposizioni vere ma indimostrabili all’interno del sistema stesso. Non è possibile, in altre parole, dimostrare la coerenza del sistema dall’interno.

Pochi anni dopo, la tesi di Alonzo Church conferma “l’indecidibilità logica del primo ordine”, dimostrando l’inesistenza di un algoritmo in grado di determinare la correttezza logica di ogni “espressione numerica”.

Questo non significa che gli algoritmi siano inutili. Significa che il loro dominio è più limitato di quanto Hilbert sperasse. Gli algoritmi – intesi come sistema logico-aritmetico – possono essere usati per calcolare solo funzioni ricorsive, con cui è possibile risolvere problemi complessi attraverso la riduzione e risoluzione di questi in problemi più semplici, in una concatenazione che porta a ottenere risultati significativi.

Le funzioni sono dunque legate tra loro mediante passaggio logico elementare per cui l'”argomento” della prima funzione viene assunto come parametro formale per l’operazione successiva e così a procedere. Un problema è dunque decidibile solo quando è codificabile in linguaggio decidibile, di cui cioè si possa stabilire la logicità del primo ordine.

Turing: dalla calcolabilità alla macchina universale

Intorno al 1936 Alan Turing, riducendo la questione della calcolabilità a una procedura meccanica, concordava circa l’esistenza di problemi di indecidibilità provando l’esistenza dei numeri “non calcolabili” attraverso il cosiddetto “problema dell’arresto” (halting problem). Questo problema evidenzia l’impossibilità di sapere a priori se un algoritmo, operando su un’equazione, porti a un risultato o continui indefinitamente senza terminare.

Benché sia dunque impossibile costruire un calcolatore in grado di dimostrare la logicità dei processi cognitivi, Turing riteneva che fosse possibile realizzare diverse macchine da calcolo in grado di rappresentare attraverso meccanismi elementari tutti i modelli di calcolo. Come Church, non riteneva necessario provare la logicità formale interna di un sistema per ottenere risposte logicamente significative: era sufficiente la correttezza della risposta rispetto ai parametri di riferimento.

Questo spostamento epistemologico è cruciale. Non più la ricerca di una verità formale assoluta, ma la pragmatica della computazione: un algoritmo funziona se produce output corretti dati determinati input, indipendentemente dalla dimostrabilità della sua logica interna. La verità viene sostituita dalla correttezza operazionale. Qui l’espressione algorithm decoded indica esattamente questo: leggere dietro la correttezza operativa le logiche di potere che strutturano i sistemi.

La congettura di Church-Turing e i limiti della computazione

Prende forma così la cosiddetta congettura di Church-Turing, in base a cui esiste, idealmente, una macchina di Turing (calcolatore analogico) per ogni algoritmo in grado di manipolare significativamente simboli per ottenere un risultato diverso dai dati immessi. La macchina universale di Turing consiste dunque in un “calcolatore ideale” il cui supporto di memoria è costituito da un nastro lineare, potenzialmente infinito, in grado di simulare l’analisi cognitiva umana e animale, di raggiungere cioè i limiti della computazione.

I processi di elaborazione del dato informativo dunque non coincidono in macchine e animale, ma queste possono correttamente simulare i processi cognitivi umani portando a risultati analoghi. Infatti una funzione complessa la cui correttezza formale interna non sia definibile algoritmicamente può essere scomposta in una serie finita di passaggi logico-matematici elementari la cui correttezza è basata sul risultato del calcolo precedente assunto come parametro.

In questo passaggio emerge come Spazio e Tempo diventano misure della “complessità” (capacità di fornire risposte) del modello di calcolo delle macchine di Turing. Se infatti concepiamo il tempo come il numero di istruzioni impartite ed eseguite alla macchina e il numero delle celle del nastro la misura dello spazio, questi costituiscono i limiti della computazione. Non tutti i problemi sono risolvibili in tempo e spazio ragionevoli: nascono così le classi di complessità (P, NP, NP-completo) che distinguono tra problemi trattabili e intrattabili computazionalmente.

Dall’astrazione alla materializzazione: Von Neumann: dal modello teorico alla macchina degli algoritmi

La macchina di Turing era un dispositivo ideale, un’astrazione matematica. Nel 1945, John von Neumann progetta l’architettura che trasforma quel modello teorico in computer elettronico: memoria, processore, unità di input/output. L’intuizione fondamentale è il programma stored: le istruzioni algoritmiche vengono memorizzate come dati nella stessa memoria che contiene i dati da elaborare. L’algoritmo diventa così manipolabile quanto i dati che processa: può essere modificato, ottimizzato, copiato. Diventa software.

Shannon: la riduzione del mondo a 0 e 1

Nel 1948, Claude Shannon pubblica “A Mathematical Theory of Communication”, fondando la teoria dell’informazione. Shannon dimostra che qualsiasi informazione può essere codificata in sequenze di bit binari (0 e 1), riducendo la complessità del mondo a variazioni di stato discreto. Questo è il ponte definitivo tra logica formale e implementazione fisica: il bit diventa l’unità elementare con cui gli algoritmi manipolano la realtà digitalizzata.

Your browser can’t display embedded PDFs. Open PDF in a new tab

Dall’élite al domestico: la diffusione opaca degli algoritmi

Dagli anni ’50 agli anni ’80, gli algoritmi rimangono prerogativa di élite scientifiche e militari: simulazioni nucleari, crittografia, calcoli balistici. Sono strumenti specialistici, visibili solo a chi li programma. Con la rivoluzione del personal computer negli anni ’80 e ’90, gli algoritmi si diffondono nelle case ma si opacizzano: le interfacce grafiche separano l’utente dalla logica sottostante. Cliccare un’icona nasconde migliaia di righe di codice. L’algoritmo diventa invisibile proprio mentre diventa ubiquo.

La svolta della rete: PageRank il governo degli algoritmi

Nel 1998, Larry Page e Sergey Brin pubblicano l’algoritmo PageRank, che trasforma Google nel portiere del sapere mondiale. Non è più l’utente a decidere quali informazioni sono rilevanti: è l’algoritmo a classificare, gerarchizzare, rendere visibile o invisibile. Nasce la governamentalità algoritmica: il potere di organizzare l’accesso alla conoscenza attraverso procedimenti computazionali che si presentano come neutri, oggettivi, matematicamente necessari.

Parallelamente, i sistemi di raccomandazione (Amazon, Netflix, Facebook) introducono una mutazione qualitativa: l’algoritmo non recupera più ciò che l’utente cerca, ma predice ciò che l’utente vorrà. La profilazione comportamentale diventa il core business del capitalismo digitale: algoritmi che analizzano tracce digitali per costruire modelli predittivi del comportamento umano. In chiave SEO, è qui che “algorithm decoded” significa decodificare chi decide cosa vedi, quando lo vedi e a quali condizioni di visibilità accedi nello spazio digitale.

Algoritmi: evoluzione degli algoritmi da astrazione matematica a infrastruttura di potere digitale in stile neon
Algorithm Decoded: dall’astrazione logico-matematica alle infrastrutture di potere che governano attenzione, accesso alle informazioni e sorting sociale.

L’era del machine learning: Algoritmi che apprendono

Dagli anni 2010, il machine learning segna una rottura epistemologica. Gli algoritmi classici sono sequenze di istruzioni esplicite scritte da programmatori umani. Gli algoritmi di apprendimento automatico, invece, apprendono pattern da dataset massivi senza che il programmatore specifichi esplicitamente le regole. Le reti neurali artificiali – architetture computazionali ispirate (in modo molto lontano) al funzionamento del cervello – vengono “addestrate” su milioni di esempi fino a sviluppare capacità predittive.

Un algoritmo di riconoscimento facciale non contiene istruzioni tipo “se la distanza tra gli occhi è X e la forma del naso è Y, allora il soggetto è Z”. Contiene milioni di parametri (pesi sinaptici) che vengono progressivamente ottimizzati durante il training per minimizzare l’errore di classificazione. Il risultato è una black box: un sistema che funziona ma di cui nessuno – nemmeno i suoi creatori – può tracciare esattamente il ragionamento interno.

Il paradosso della simulazione incomprensibile

Torniamo così, paradossalmente, a una versione invertita del problema di Hilbert. Hilbert cercava un algoritmo per verificare la verità di ogni proposizione matematica. Oggi abbiamo algoritmi che risolvono compiti complessi (traduzione automatica, diagnosi mediche, guida autonoma) ma non possiamo dimostrare formalmente perché funzionino né garantire che funzioneranno sempre. La macchina di Turing prometteva la simulazione della cognizione; il deep learning realizza quella simulazione ma la rende opaca anche ai suoi costruttori.

Questa opacità non è accidentale. È strutturale: con miliardi di parametri e architetture distribuite, la complessità diventa irriducibile. Ed è anche strategica: il segreto industriale protegge gli algoritmi proprietari dall’esame pubblico.

Applicazioni pervasive: classificare, predire, ottimizzare, generare

Oggi gli algoritmi si articolano in quattro funzioni principali:

  • Classificazione: riconoscimento di pattern per categorizzare entità (volti, testi, comportamenti). Usata nella moderazione dei contenuti social, nei sistemi di sorveglianza, nel credit scoring.
  • Predizione: stima probabilistica di eventi futuri sulla base di correlazioni statistiche nei dati storici. Applicata nel predictive policing, nel targeting pubblicitario, nelle assicurazioni basate su profili di rischio.
  • Ottimizzazione: ricerca della configurazione ottimale di variabili per massimizzare o minimizzare una funzione obiettivo. Governa il pricing dinamico dell’e-commerce, la curation dei feed social per massimizzare l’engagement, la logistica just-in-time.
  • Generazione: produzione di contenuti sintetici (testi, immagini, audio) che imitano pattern appresi da corpus esistenti. È il dominio delle AI generative come GPT, DALL-E, Midjourney.

In tutti i casi, l’algoritmo non è più strumento neutro ma attore socio-tecnico che produce realtà: decide chi vede cosa, chi ottiene credito, chi viene fermato dalla polizia, quale prezzo viene offerto a quale cliente.

Implicazioni critiche: potere, governamentalità, economia politica

Il movimento storico da Leibniz a oggi rivela uno slittamento fondamentale. Leibniz immaginava la meccanizzazione della razionalità universale, disinteressata, al servizio della verità. Hilbert cercava la certezza matematica assoluta. Turing formalizzava i limiti della computazione. Ma gli algoritmi contemporanei non implementano “razionalità pura”: implementano razionalità situata, incorporata in obiettivi economici e politici specifici.

L’algoritmo di Facebook non massimizza il benessere degli utenti né la qualità del dibattito pubblico: massimizza il “time on platform” perché il tempo di attenzione è la merce che Facebook vende agli inserzionisti. L’algoritmo di Amazon non ottimizza la soddisfazione del cliente in astratto: ottimizza il profitto attraverso la variabilità dei prezzi e la personalizzazione delle offerte. Gli algoritmi di predictive policing non riducono il crimine: concentrano le risorse poliziesche in aree già sovra-sorvegliate, amplificando discriminazioni sistemiche.

La domanda critica diventa: quale razionalità viene meccanizzata? E nell’interesse di chi?

Asimmetrie epistemologiche: l’oggettività apparente

Gli algoritmi si presentano come oggettivi, neutrali, matematicamente necessari. “I dati non mentono”, proclama la retorica del data-driven decision making. Ma questa presunta oggettività nasconde scelte progettuali, valori incorporati, rapporti di forza cristallizzati nel codice.

I bias algoritmici non sono malfunzionamenti ma conseguenze strutturali. Se un algoritmo di selezione del personale discrimina le donne, è perché è stato addestrato su dati storici che riflettono discriminazioni di genere già esistenti nel mercato del lavoro. L’algoritmo automatizza e amplifica il pregiudizio, presentandolo come decisione tecnica neutra. Come osserva Cathy O’Neil in Weapons of Math Destruction, gli algoritmi oppressivi hanno tre caratteristiche: sono opachi, operano su larga scala, e danneggiano le persone senza possibilità di appello.

Concentrazione del potere computazionale

La produzione di algoritmi avanzati richiede risorse computazionali enormi (server farm, GPU clusters), dataset massivi (miliardi di punti dati), e expertise specializzata. Questo crea barriere all’ingresso insormontabili che concentrano il potere algoritmico in poche corporation: Google, Meta, Amazon, Microsoft, Apple in Occidente; Alibaba, Tencent, Baidu in Cina.

Questa concentrazione ha tre effetti:

  1. Opacità strategica: gli algoritmi proprietari sono protetti dal segreto industriale, sottratti all’esame pubblico e alla accountability democratica.
  2. Estrattivismo dei dati: gli algoritmi richiedono sorveglianza di massa come condizione operativa. Ogni interazione diventa dato da estrarre, ogni comportamento traccia da analizzare.
  3. Network effects: gli algoritmi migliorano con la quantità di dati, creando monopoli naturali auto-rinforzanti. Chi ha più utenti ha più dati, quindi algoritmi migliori, quindi attrae più utenti.

Governamentalità algoritmica: preemption e soggettivazione

Antoinette Rouvroy, riprendendo Foucault, parla di governamentalità algoritmica per designare una forma di potere che governa attraverso la predizione e la preemption. Non si tratta più di disciplinare i corpi o di modulare le condotte (biopotere), ma di anticipare i comportamenti futuri sulla base di correlazioni statistiche, intervenendo prima che l’evento si verifichi.

Il predictive policing arresta “potenziali criminali” sulla base di profili di rischio. I sistemi di credit scoring negano prestiti a soggetti classificati come “ad alto rischio di default” prima che qualsiasi inadempienza si sia verificata. I feed algoritmici dei social media modulano ciò che vediamo per massimizzare l’engagement, plasmando le nostre preferenze e le nostre identità.

Questa forma di potere opera una soggettivazione algoritmica: le identità vengono costruite come insiemi di pattern computazionali. Non sei più un individuo irriducibile ma un “cluster demografico”, un “profilo comportamentale”, un insieme di probabilità. Come nota Rouvroy, questa governamentalità produce un collasso della contingenza: il futuro viene trattato come già-calcolato, le possibilità alternative come statisticamente improbabili quindi politicamente irrilevanti.

Il sorting sociale – la categorizzazione automatizzata delle popolazioni in classi di rischio, merito, valore – diventa meccanismo di discriminazione sistemica che opera senza bisogno di intenzione discriminatoria esplicita. È l’automazione della stratificazione sociale.

Economia politica dell’algoritmo

Gli algoritmi sono i mezzi di produzione del capitalismo digitale. Come le macchine industriali nel XIX secolo, gli algoritmi estraggono valore dal lavoro (oggi: attenzione, dati comportamentali, contenuti user-generated) e lo concentrano in profitti di chi controlla l’infrastruttura computazionale.

Gli algoritmi sono il macchinario di questa estrazione.

La precarizzazione del lavoro passa attraverso algoritmi: Uber, Deliveroo, TaskRabbit usano algoritmi per assegnare compiti, valutare performance, determinare compensi. Il lavoratore della gig economy è soggetto a un management algoritmico che opera 24/7, senza negoziazione possibile, senza supervisione umana, senza possibilità di appello. Il taylorismo digitale è più pervasivo e implacabile di quello analogico.

Oltre il determinismo tecnologico: quale futuro per gli algoritmi?

Il movimento da Leibniz a oggi mostra come il sogno razionalista della meccanizzazione del pensiero si sia materializzato ma tradendo la promessa originaria. Non abbiamo ottenuto la razionalità universale ma razionalità del profitto. Non la certezza matematica ma l’opacità proprietaria. Non l’emancipazione cognitiva ma nuove forme di assoggettamento computazionale.

I limiti teorici dimostrati da Gödel, Church e Turing vengono sistematicamente ignorati nella retorica dell’intelligenza artificiale. Si parla di “AI generale” che raggiungerà presto capacità cognitive umane, dimenticando che esistono problemi formalmente indecidibili, funzioni non computabili, complessità intrattabili. L’hype tecnologico cancella la consapevolezza dei limiti fondamentali della computazione.

Algoritmi: Quale razionalità?

Se David Hilbert nel 1928 cercava un algoritmo per determinare la verità matematica, oggi gli algoritmi producono regimi di verità – nella formulazione foucaultiana: non la verità come corrispondenza con il reale, ma la verità come effetto di procedure di potere. L’algoritmo di Google determina cosa è rilevante. L’algoritmo di Facebook determina cosa è virale. L’algoritmo di credit scoring determina chi è affidabile. Non descrivono la realtà: la performano.

La storia dell’algoritmo da Leibniz a oggi è la storia di come un’astrazione matematica – la formalizzazione di procedure di calcolo – si sia materializzata in infrastruttura di potere. Il compito della critica è duplice: da un lato, decostruire la retorica dell’oggettività algoritmica mostrando le scelte politiche incorporate nel codice; dall’altro, immaginare e costruire forme alternative di computazione che servano l’emancipazione anziché l’estrazione di valore.

La questione non è se usare algoritmi – sono ormai infrastruttura inevitabile delle società contemporanee – ma quale razionalità gli algoritmi implementano e nell’interesse di chi. Decodificare questa razionalità, contestarne le pretese di neutralità, resistere alla sua naturalizzazione: questo è il lavoro critico necessario. In altre parole, algorithm decoded è un progetto politico prima ancora che teorico.

Perché se è vero, come sosteneva Turing, che le macchine possono simulare il pensiero umano, è altrettanto vero che gli esseri umani possono rifiutare di pensare come macchine.

Bibliografia: ALGORITMI

Articoli simili