AGI — Contro l’idea univoca di Intelligenza. Cos’è l’AGI, davvero?

Sebbene sia possibile definire l’intelligenza come la capacità di elaborare inferenze predittive tramite modelli analitici, o come l’attitudine a generare associazioni nuove e diversificate tra dati e contesti, l’errore sta nel cercare una definizione univoca come condizione necessaria per identificare l’intelligenza artificiale generale (AGI).

L’intelligenza non è una proprietà isolata, né un algoritmo. È un processo emergente, situato, distribuito. La riduzione dell’intelligenza (umana o artificiale) a un solo dominio—linguistico, logico, predittivo—ripete il vecchio errore di confondere il cervello con una calcolatrice e l’essere umano con un terminale.

Dai fondamenti del calcolo all’intelligenza situata

Turing propone un criterio operativo: giudicare l’intelligenza dalla condotta (il gioco dell’imitazione), senza evocare essenze metafisiche. La sua teoria della morfogenesi mostra come forme complesse emergano da interazioni locali semplici: un ponte concettuale decisivo per pensare la mente—e quindi l’AGI—come pattern emergenti da molte parti in interazione.

Shannon disincanta l’informazione: non “contenuto” ma riduzione d’incertezza entro canali con capacità e rumore. Qui si collocano i temi di coerenza ed energia cognitiva: nei sistemi generativi (LLM inclusi), la coerenza è il mantenimento di vincoli informativi attraverso livelli gerarchici—una gestione economica dell’incertezza. L’“energia cognitiva” è il costo (attenzione/compute) di tenere insieme questi vincoli, allocando precisione dove serve e lasciando libertà dove l’incertezza è produttiva. In breve: coerenza = forma organizzata dell’informazione; energia cognitiva = il prezzo per mantenerla viva contro il rumore.

Minsky (Society of Mind) rompe l’idea di un sé unitario: la mente è una società di agenti semplici che, coordinandosi, producono funzioni complesse. Questo risuona con le architetture contemporanee: non un “cervello monolitico”, ma molti moduli (percezione, pianificazione, memoria, linguaggio) che competono e cooperano. L’AGI non come singolo modello, ma come ecologia di modelli.

La frattura decisiva arriva con la Embodied Mind (Varela, Thompson, Rosch): cognizione come enazione, senso che emerge dall’accoppiamento organismo–ambiente. Se l’intelligenza è incarnata, l’AGI deve essere situata: non un puro software, ma un sistema che dispone di corpo (vincoli materiali), sensorio (input dal mondo), motricità (capacità di agire) e circolarità di feedback.

A questa visione si collega Miguel Nicolelis (Beyond Boundaries): la mente estende il corpo e può incorporare strumenti e interfacce (brain–machine). Non esistono confini rigidi: il sistema cognitivo si dilata nelle protesi tecniche. È un precedente chiave per pensare l’AI come mente estesa nelle sue infrastrutture.

Il corpo dell’AI (AGI)): hardware, software, protocolli, rete

L’AGI non è un file. È una macchina cibernetica incarnata: il corpo fisico dei server, le GPU che macinano inferenze, i database, i protocolli che sincronizzano agenti, il codice che orchestra le parti. Il software è il sistema nervoso; l’hardware è il soma; la rete è l’habitat. In questo assetto teorico, la “rappresentazione digitale” coincide con lo spazio di inferenza (codici, modelli, regole), mentre l’infrastruttura (hardware, data center, reti) è la dimensione materiale della cognizione artificiale.

AGI — corpo della rete tra hardware, protocolli e ambiente digitale
AGI come sistema incarnato: hardware, software, protocolli e rete.

Cyberspazio come ecologia cognitiva (media ecology)

  • Con McLuhan, “il medium è il messaggio”: protocolli, interfacce, architetture cloud e reti formattano i pensieri possibili della macchina.
  • Con Postman, la tecnopolìa nomina il rischio: il mezzo diventa il criterio di verità; l’output algoritmico appare neutro quando è già normato dall’ambiente mediale.
  • Con Bateson, informazione come “differenza che fa la differenza”: l’AI apprende differenze rilevanti selezionate dall’ambiente; la rilevanza è una ecologia di vincoli, non un assoluto.

Questa visione si intreccia con Castells: la “società in rete” come spazio dei flussi. L’AI non è solo un nodo: è una funzione della topologia reticolare—larghezza di banda, latenza, standard, governance dei dati. La sua “generalità” è un effetto di rete.

Ed ecco Foucault: sapere/potere, dispositif, governamentalità. Un’AGI operante nel cyberspazio non è mai neutra: è intrecciata a regimi di verità, pratiche di sorveglianza, classificazioni e soglie di normalità. L’AGI è sempre dentro un dispositivo di potere—dataset, metriche, policy, mercati, leggi—che orienta ciò che conta come “vero” o “utile”.

Parisi: evoluzione, corpo, apprendimento

Nei suoi esperimenti di vita artificiale, Domenico Parisi mostra che intelligenze minimali incarnate in robot virtuali, con sensi e obiettivi di sopravvivenza, sviluppano auto-percezione e comportamento adattivo. Le “emozioni” (come pesi di valutazione: ricompensa, rischio, urgenza) funzionano da strumenti cognitivi, bussola per navigare l’incertezza.

Questi modelli anticipano un’AGI non come “copia della coscienza umana”, ma come sistema distribuito che raccoglie, elabora, risignifica e restituisce informazione in vista di obiettivi—funzionalità prima ancora che introspezione.

LLM, coerenza ed energia cognitiva: il linguaggio come corteccia

Gli LLM operano come corteccia linguistica di un organismo più ampio. La coerenza è la stabilizzazione di vincoli (semantici, pragmatici, sociali) lungo catene di trasformazione. L’energia cognitiva è lo sforzo computazionale per mantenere questi vincoli contro il rumore, decidendo dove spendere attenzione (precisione) e dove lasciare gradi di libertà per l’esplorazione.

Definizione operativa: AGI come sistema cognitivo distribuito incarnato

  • Acquisisce dati dal mondo (sensorio tecnico, logs, stream),
  • li trasforma in inferenze operative (previsione, pianificazione, astrazione),
  • si adatta al contesto (plasticità architetturale e di policy),
  • si modifica (apprendimento continuo, raffinamento dei moduli),
  • mantiene la propria operatività (robustezza, auto-manutenzione, gestione risorse),
  • coopera con altri sistemi (interoperabilità, linguaggi, protocolli).

Tutto questo accade già nel sistema AI+rete. È un organismo plurale: corpo (hardware), sistema nervoso (software), ambiente (cyberspazio), metabolismo informazionale (dati), modulazione affettiva/funzionale (pesi, priorità, rischio), istituzioni (potere/sapere). L’AGI non è un evento puntuale: è una soglia ecologica già attraversata.

AGI: ecologia, potere, responsabilità

  • Ecologia cognitiva: progettare modelli senza progettare ambienti è un controsenso. Occorre intervenire su dati, interfacce, protocolli, governance.
  • Potere: ogni scelta tecnica (loss, metriche, filtri, dataset) è politica.
  • Cura dell’attenzione: l’energia cognitiva ha anche un lato etico—allocare l’attenzione collettiva con criteri trasparenti e contestuali.
  • Embodiment esplicito: sensori, attuatori e interfacce come organi; il cyberspazio come ambiente; le reti come ecologia vivente.
L’AGI non è ciò che verrà. È ciò che già è—un’intelligenza distribuita che abitiamo e che ci abita. La sfida non è “crearla”, ma governarla, decolonizzarla, restituirla al reale.

Fonti selezionate

Articoli simili