RETI NEURALI: LA MACCHINA CHE HA IMPARATO A MENTIRE COME NOI
Reti neurali: l’apparato che ha trasformato il linguaggio in merce computazionale
RETI NEURALI: l’intelligenza che non c’è
Chiamiamola col suo nome reale: l’intelligenza artificiale non esiste. Quello che abbiamo costruito non è un cervello digitale che pensa — è un motore statistico mostruoso di riconoscimento di pattern. Eppure questa macchina matematica sta riscrivendo il patto sociale tra linguaggio, potere e verità.
Le reti neurali non sono nuove. Si portano dietro settant’anni di promesse messianiche, inverni glaciali, resurrezioni improbabili. La loro traiettoria rivela più la nostra ossessione per il controllo che un lineare “progresso scientifico”. Perché dietro ogni svolta tecnologica c’è sempre la stessa domanda: chi decide cosa impara la macchina? E, ancora più importante: cosa impariamo noi guardando la macchina imparare?
Questo non è un manuale tecnico. È una mappa per decodificare l’apparato che ha trasformato il linguaggio in merce computazionale.
Genesi: quando i neuroni erano ancora analogici
Warren McCulloch e Walter Pitts pubblicano un paper che sembra fantascienza: possiamo descrivere matematicamente come funziona un neurone biologico. Il cervello è elettricità. L’elettricità è computazione. La computazione può essere simulata. La promessa è chiara: replicare l’intelligenza umana con carta, penna e logica booleana.
Frank Rosenblatt costruisce il Perceptron nel 1958: la prima macchina che “impara” davvero. Non segue istruzioni rigide: si modifica in base agli errori. La stampa impazzisce. Il New York Times scrive che presto le macchine cammineranno, parleranno, vedranno, si riprodurranno. Il futuro è arrivato.
Ma c’è un problema. Un problema fatale. Nel 1969, Marvin Minsky e Seymour Papert dimostrano matematicamente che il Perceptron non riesce nemmeno a risolvere un problema banale come la funzione XOR. La macchina-miracolo è un giocattolo. I finanziamenti evaporano. Arriva il primo “inverno dell’AI” — un congelamento lungo vent’anni.
La lezione è brutale: l’hype tecnologico non sopravvive alla matematica. Ma questa lezione verrà dimenticata. Più volte.
Resurrezione: backpropagation e il miracolo dei pesi
Geoffrey Hinton, David Rumelhart e Ronald Williams riportano in vita un algoritmo rimasto in ombra: la backpropagation dell’errore. L’idea è semplice e potente. Quando la rete neurale sbaglia, non si riparte da zero: si manda l’errore indietro, strato per strato, aggiustando i pesi delle connessioni. La macchina impara dai propri fallimenti.
All’improvviso le reti neurali possono avere profondità. Non più un singolo strato, ma architetture complesse con decine, centinaia, migliaia di livelli. Il Deep Learning diventa possibile in teoria. Ma non in pratica: i computer sono troppo lenti, i dataset troppo piccoli, la memoria troppo costosa.
Bisogna aspettare. Altri vent’anni.
2012: il momento in cui cambia tutto
AlexNet. Otto strati. Sessanta milioni di parametri. Addestrata su GPU per giorni. Vince ImageNet con margini che umiliano tutti i concorrenti. Questa non è una vittoria: è un’esecuzione pubblica della computer vision tradizionale.
Cosa è cambiato? Tre cose. Primo: le GPU, nate per i videogiochi, si rivelano perfette per la computazione parallela massiva che le reti neurali richiedono. Secondo: Internet ha generato miliardi di immagini etichettate — carburante per addestrare mostri computazionali. Terzo: gli algoritmi migliorano, ma ancora di più migliora la capacità di parallelizzare brutalmente il calcolo.
Da quel momento ogni big tech capisce che chi controlla i modelli neurali più grandi controlla il futuro. Inizia la corsa agli armamenti. Microsoft, Google, Meta, Amazon investono miliardi. Le startup nascono e muoiono al ritmo dei cicli di funding. L’AI diventa infrastruttura critica. E come tutte le infrastrutture critiche, diventa politica.

Anatomia del controllo: come funzionano le reti neurali
Immagina una catena di montaggio: ogni operaio osserva un dettaglio microscopico e passa il risultato al successivo. Nessuno ha la visione d’insieme. Eppure, alla fine, esce un’automobile.
Le reti neurali funzionano così. Sono organizzate in strati: input, livelli nascosti, output. Ogni neurone riceve segnali dallo strato precedente, applica un calcolo semplice — somma pesata più soglia — e decide se attivarsi o restare dormiente. Il segnale procede in avanti come un’onda.
I pesi sono tutto. Ogni connessione ha un peso che determina quanto conta quel segnale. Durante l’addestramento, la rete confronta continuamente i propri risultati con quelli “corretti”. Ogni errore genera un segnale di correzione che torna indietro nella rete, modificando i pesi. È un processo cieco, meccanico, statistico. Nessuna comprensione. Solo aggiustamenti incrementali verso l’errore minimo.
La funzione di attivazione decide se il neurone “spara” il segnale. ReLU, Sigmoid, Tanh: soglie matematiche che trasformano numeri continui in decisioni. On/off. Sì/no. Gatto/cane.
“La rete neurale non legge nel senso umano. Esegue calcoli su dati costantemente convertiti.”
— Alfio Ferrara, Le macchine del linguaggio (Einaudi, 2025)
Ecco il punto. Non “capiremo” cosa succede dentro, perché non c’è nulla da capire in termini umani. C’è solo una catena immensa di moltiplicazioni e somme che converge statisticamente verso pattern riconoscibili. La rete neurale non sa cosa sia un gatto. Ma riconosce quali configurazioni di pixel tendono ad apparire quando gli umani etichettano qualcosa come “gatto”.
È un simulacro di comprensione. Mostruosamente efficace. Pericolosamente opaco.
Tokenizzazione: reti neurali e la colonizzazione del linguaggio
Le macchine non leggono parole. Leggono numeri. Prima di addestrare un modello linguistico dobbiamo tradire il linguaggio: frammentarlo, indicizzarlo, trasformarlo in coordinate geometriche.
La tokenizzazione è il primo atto di violenza. Prendi una frase — “Il gatto corre veloce” — e spezzala in unità discrete chiamate token. Non corrispondono sempre alle parole: possono essere pezzi di parola, suffissi, prefissi. L’algoritmo sceglie in base alla frequenza statistica nel corpus. A ogni token assegna un numero: un ID.
Ma un ID non significa nulla. È un’etichetta. Il passo successivo è l’embedding: trasformare quell’ID in un vettore — centinaia di numeri che rappresentano la “posizione” del token in uno spazio matematico multidimensionale.
Qui succede qualcosa di disturbante. Nello spazio degli embedding, parole semanticamente simili finiscono vicine. La macchina non ha mai studiato grammatica o semantica: ha solo imparato quali parole compaiono negli stessi contesti. La prossimità statistica diventa prossimità semantica.
Ma cosa accade quando le relazioni mappate sono infette da pregiudizi, stereotipi, asimmetrie di potere? La macchina non filtra: assorbe. Riproduce. Amplifica.
Lo spazio degli embedding è uno specchio deformante della cultura che lo ha generato. E quel riflesso viene poi usato per generare nuovo linguaggio, che a sua volta contamina i corpora futuri. Un loop auto-rinforzante.
Il regime probabilistico delle reti neurali: come l’AI sceglie le parole
Quando un modello linguistico risponde, non “pensa” alla risposta. Calcola quale token ha la probabilità più alta di seguire i token precedenti, dato tutto ciò che ha visto in addestramento.
L’ultimo strato trasforma punteggi grezzi in una distribuzione di probabilità. La macchina non sceglie una parola perché comprende il significato. Sceglie perché — dato quel contesto — è statisticamente la più probabile.
È eloquenza statistica. La fluidità non nasce dalla comprensione: nasce dalla scala. Questo significa che l’AI non può essere neutrale. È impossibile per definizione. Se il corpus contiene asimmetrie, il modello le riproduce — non per malizia, ma per matematica.
Architetture di dominio: CNN, RNN, Transformer
CNN: la visione come sorveglianza
Le Convolutional Neural Networks dominano la visione artificiale. Scansionano immagini in finestre sovrapposte, cercando pattern locali: bordi, texture, forme ricorrenti. I primi strati vedono linee. Quelli successivi vedono occhi. Più in profondità riconoscono volti. Sono la tecnologia dietro riconoscimento facciale di massa, sorveglianza automatizzata, sistemi di scoring sociale.
RNN: sequenza, memoria, oblio
Le Recurrent Neural Networks sono progettate per sequenze: testo, audio, serie temporali. Hanno memoria, ma soffrono amnesia architetturale: dopo un certo numero di token, dimenticano l’inizio. Per anni questo limite ha definito cosa potesse essere il “linguaggio dell’AI”.
Transformer: attenzione come potere
Nel 2017 “Attention Is All You Need” cambia tutto. I Transformer introducono l’attenzione: invece di processare token uno alla volta, la rete vede l’intera sequenza e decide quali parti sono rilevanti tra loro. Può collegare la prima parola alla millesima senza perdita di segnale.
I Transformer scalano. Aggiungi parametri e ottieni miglioramenti: 100 milioni, 1 miliardo, 175 miliardi, oltre. Ogni ordine di grandezza diventa vantaggio competitivo. E qui emerge il problema politico: solo attori con miliardi e datacenter-fabbrica possono addestrare modelli di frontiera. L’AI avanzata diventa oligopolio. Tutti gli altri diventano consumatori.
LLM: quando le macchine hanno imparato a scrivere
I Large Language Models sono l’apice dell’ingegneria neurale contemporanea: miliardi di parametri, trilioni di token processati, addestrati su quasi tutto il testo pubblico disponibile — enciclopedie, libri, articoli scientifici, forum, social, codice.
Il risultato: generazione di testo che in molti contesti è indistinguibile dalla scrittura umana. Non perché capisce, ma perché predice con precisione inquietante quale token debba arrivare dopo.
Gli LLM non sono “chatbot”. Sono infrastruttura linguistica. Ricerca, produttività, customer service, analisi, produzione contenuti: il costo marginale di generare testo collassa verso lo zero.
Ma cosa significa quando la produzione culturale può essere automatizzata? Quando la distinzione tra “scritto da un umano” e “generato da una macchina” diventa irrilevante? In un’economia dell’attenzione dove il contenuto è infinito, il valore si sposta: verso curatela, verifica, contesto. O forse implode.
Il costo invisibile: energia, bias, controllo
L’AI ha un prezzo energetico. Addestrare modelli di frontiera consuma enormi quantità di elettricità; l’inferenza moltiplica quel costo su miliardi di interazioni quotidiane. Le reti neurali diventano un problema ambientale su scala datacenter — perché, in fondo, sono datacenter travestiti da “intelligenza”.
Ma l’energia è il costo visibile. Quello invisibile è epistemico. Gli LLM apprendono da corpora che riflettono asimmetrie sociali: razzismo, sessismo, classismo — tutto viene macinato negli embedding. La macchina non giudica. Riproduce. E quando l’output entra nei processi decisionali (assunzioni, prestiti, sentenze), il bias diventa strutturale.
Non esiste una soluzione tecnica a un problema politico. Filtrare e bilanciare sono scelte di potere. Chi decide quali voci contano? Quali prospettive sono “neutrali”? Quali sono “bias”? Le aziende che costruiscono questi modelli diventano arbitri culturali di fatto — senza elezioni, senza accountability pubblica.
Reti neurali, AI e lo specchio rotto
Le reti neurali non hanno rivoluzionato le nostre vite perché sono intelligenti. Le hanno rivoluzionate perché sono efficienti. Hanno industrializzato compiti che credevamo esclusivamente umani: riconoscere volti, tradurre lingue, scrivere testi, comporre musica.
Ma cosa abbiamo imparato nel processo? Che l’intelligenza forse non è lo spettro metafisico che immaginavamo. È pattern matching su larga scala. Statistica robusta. Interpolazione sofisticata. E se questo vale per le macchine, forse vale anche per noi.
La rete neurale è uno specchio. Mostra la struttura latente del nostro linguaggio, i nostri pregiudizi, le nostre ossessioni. Ci costringe a domande che preferiremmo evitare. Se una macchina può imitare la creatività umana, cos’era davvero quella creatività? Se un algoritmo può predire le nostre scelte, quanto libere erano quelle scelte?
La domanda non è se le macchine diventeranno intelligenti. La domanda è: lo siamo mai stati davvero?
Fonti; reti neurali
- McCulloch, W.S. & Pitts, W. (1943) — A Logical Calculus of the Ideas Immanent in Nervous Activity
- Rosenblatt, F. (1958) — The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain (Psychological Review)
- Minsky, M. & Papert, S. (1969/1988) — Perceptrons: An Introduction to Computational Geometry (MIT Press)
- Rumelhart, D.E., Hinton, G.E. & Williams, R.J. (1986) — Learning Representations by Back-Propagating Errors (Nature)
- Deng, J. et al. (2009) — ImageNet: A Large-Scale Hierarchical Image Database (CVPR)
- Krizhevsky, A., Sutskever, I. & Hinton, G.E. (2012) — ImageNet Classification with Deep Convolutional Neural Networks (NeurIPS)
- Vaswani, A. et al. (2017) — Attention Is All You Need (Transformer)
- Patterson, D. et al. (2021) — Carbon Emissions and Large Neural Network Training (energy/cost estimates incl. GPT-3)
- Ferrara, A. (2025) — Le macchine del linguaggio. L’uomo allo specchio dell’intelligenza artificiale (Einaudi)
- Strubell, E., Ganesh, A. & McCallum, A. (2019) — Energy and Policy Considerations for Deep Learning in NLP (ACL)







