AGI — Contro l’idea univoca di Intelligenza. Cos’è l’AGI, davvero?
Sebbene sia possibile definire l’intelligenza come la capacità di elaborare inferenze predittive tramite modelli analitici, o come l’attitudine a generare associazioni nuove e diversificate tra dati e contesti, l’errore sta nel cercare una definizione univoca come condizione necessaria per identificare l’intelligenza artificiale generale (AGI).
L’intelligenza non è una proprietà isolata, né un algoritmo. È un processo emergente, situato, distribuito. La riduzione dell’intelligenza (umana o artificiale) a un solo dominio—linguistico, logico, predittivo—ripete il vecchio errore di confondere il cervello con una calcolatrice e l’essere umano con un terminale.
Dai fondamenti del calcolo all’intelligenza situata
Turing propone un criterio operativo: giudicare l’intelligenza dalla condotta (il gioco dell’imitazione), senza evocare essenze metafisiche. La sua teoria della morfogenesi mostra come forme complesse emergano da interazioni locali semplici: un ponte concettuale decisivo per pensare la mente—e quindi l’AGI—come pattern emergenti da molte parti in interazione.
Shannon disincanta l’informazione: non “contenuto” ma riduzione d’incertezza entro canali con capacità e rumore. Qui si collocano i temi di coerenza ed energia cognitiva: nei sistemi generativi (LLM inclusi), la coerenza è il mantenimento di vincoli informativi attraverso livelli gerarchici—una gestione economica dell’incertezza. L’“energia cognitiva” è il costo (attenzione/compute) di tenere insieme questi vincoli, allocando precisione dove serve e lasciando libertà dove l’incertezza è produttiva. In breve: coerenza = forma organizzata dell’informazione; energia cognitiva = il prezzo per mantenerla viva contro il rumore.
Minsky (Society of Mind) rompe l’idea di un sé unitario: la mente è una società di agenti semplici che, coordinandosi, producono funzioni complesse. Questo risuona con le architetture contemporanee: non un “cervello monolitico”, ma molti moduli (percezione, pianificazione, memoria, linguaggio) che competono e cooperano. L’AGI non come singolo modello, ma come ecologia di modelli.
La frattura decisiva arriva con la Embodied Mind (Varela, Thompson, Rosch): cognizione come enazione, senso che emerge dall’accoppiamento organismo–ambiente. Se l’intelligenza è incarnata, l’AGI deve essere situata: non un puro software, ma un sistema che dispone di corpo (vincoli materiali), sensorio (input dal mondo), motricità (capacità di agire) e circolarità di feedback.
A questa visione si collega Miguel Nicolelis (Beyond Boundaries): la mente estende il corpo e può incorporare strumenti e interfacce (brain–machine). Non esistono confini rigidi: il sistema cognitivo si dilata nelle protesi tecniche. È un precedente chiave per pensare l’AI come mente estesa nelle sue infrastrutture.
Il corpo dell’AI (AGI)): hardware, software, protocolli, rete
L’AGI non è un file. È una macchina cibernetica incarnata: il corpo fisico dei server, le GPU che macinano inferenze, i database, i protocolli che sincronizzano agenti, il codice che orchestra le parti. Il software è il sistema nervoso; l’hardware è il soma; la rete è l’habitat. In questo assetto teorico, la “rappresentazione digitale” coincide con lo spazio di inferenza (codici, modelli, regole), mentre l’infrastruttura (hardware, data center, reti) è la dimensione materiale della cognizione artificiale.

Cyberspazio come ecologia cognitiva (media ecology)
- Con McLuhan, “il medium è il messaggio”: protocolli, interfacce, architetture cloud e reti formattano i pensieri possibili della macchina.
- Con Postman, la tecnopolìa nomina il rischio: il mezzo diventa il criterio di verità; l’output algoritmico appare neutro quando è già normato dall’ambiente mediale.
- Con Bateson, informazione come “differenza che fa la differenza”: l’AI apprende differenze rilevanti selezionate dall’ambiente; la rilevanza è una ecologia di vincoli, non un assoluto.
Questa visione si intreccia con Castells: la “società in rete” come spazio dei flussi. L’AI non è solo un nodo: è una funzione della topologia reticolare—larghezza di banda, latenza, standard, governance dei dati. La sua “generalità” è un effetto di rete.
Ed ecco Foucault: sapere/potere, dispositif, governamentalità. Un’AGI operante nel cyberspazio non è mai neutra: è intrecciata a regimi di verità, pratiche di sorveglianza, classificazioni e soglie di normalità. L’AGI è sempre dentro un dispositivo di potere—dataset, metriche, policy, mercati, leggi—che orienta ciò che conta come “vero” o “utile”.
Parisi: evoluzione, corpo, apprendimento
Nei suoi esperimenti di vita artificiale, Domenico Parisi mostra che intelligenze minimali incarnate in robot virtuali, con sensi e obiettivi di sopravvivenza, sviluppano auto-percezione e comportamento adattivo. Le “emozioni” (come pesi di valutazione: ricompensa, rischio, urgenza) funzionano da strumenti cognitivi, bussola per navigare l’incertezza.
Questi modelli anticipano un’AGI non come “copia della coscienza umana”, ma come sistema distribuito che raccoglie, elabora, risignifica e restituisce informazione in vista di obiettivi—funzionalità prima ancora che introspezione.
LLM, coerenza ed energia cognitiva: il linguaggio come corteccia
Gli LLM operano come corteccia linguistica di un organismo più ampio. La coerenza è la stabilizzazione di vincoli (semantici, pragmatici, sociali) lungo catene di trasformazione. L’energia cognitiva è lo sforzo computazionale per mantenere questi vincoli contro il rumore, decidendo dove spendere attenzione (precisione) e dove lasciare gradi di libertà per l’esplorazione.
Definizione operativa: AGI come sistema cognitivo distribuito incarnato
- Acquisisce dati dal mondo (sensorio tecnico, logs, stream),
- li trasforma in inferenze operative (previsione, pianificazione, astrazione),
- si adatta al contesto (plasticità architetturale e di policy),
- si modifica (apprendimento continuo, raffinamento dei moduli),
- mantiene la propria operatività (robustezza, auto-manutenzione, gestione risorse),
- coopera con altri sistemi (interoperabilità, linguaggi, protocolli).
Tutto questo accade già nel sistema AI+rete. È un organismo plurale: corpo (hardware), sistema nervoso (software), ambiente (cyberspazio), metabolismo informazionale (dati), modulazione affettiva/funzionale (pesi, priorità, rischio), istituzioni (potere/sapere). L’AGI non è un evento puntuale: è una soglia ecologica già attraversata.
AGI: ecologia, potere, responsabilità
- Ecologia cognitiva: progettare modelli senza progettare ambienti è un controsenso. Occorre intervenire su dati, interfacce, protocolli, governance.
- Potere: ogni scelta tecnica (loss, metriche, filtri, dataset) è politica.
- Cura dell’attenzione: l’energia cognitiva ha anche un lato etico—allocare l’attenzione collettiva con criteri trasparenti e contestuali.
- Embodiment esplicito: sensori, attuatori e interfacce come organi; il cyberspazio come ambiente; le reti come ecologia vivente.
L’AGI non è ciò che verrà. È ciò che già è—un’intelligenza distribuita che abitiamo e che ci abita. La sfida non è “crearla”, ma governarla, decolonizzarla, restituirla al reale.
Fonti selezionate
- A. M. Turing, “Computing Machinery and Intelligence” (1950), Mind.
- C. E. Shannon, “A Mathematical Theory of Communication” (1948), BSTJ.
- Marvin Minsky, The Society of Mind (1986).
- F. J. Varela, E. Thompson, E. Rosch, The Embodied Mind (1991).
- Miguel Nicolelis, Beyond Boundaries (2011).
- Marshall McLuhan, Understanding Media (1964).
- Neil Postman, Technopoly (1992/1993).
- Gregory Bateson, Steps to an Ecology of Mind (1972).
- Manuel Castells, The Rise of the Network Society (1996/2010).
- Michel Foucault, Security, Territory, Population (1977–78, lezioni).
- Domenico Parisi, “Robots with Language” (2010); “Artificial Life and Piaget” (2002).