Audio summary

LLM, Oltre l’Ambiente Digitale

IA e LLM: tutor cognitivo, media ecology, debito cognitivo

Come l’intelligenza artificiale generativa e i Large Language Models trasformano il rapporto tra pensiero e tecnologia: dall’ambiente al tutor, dal supporto alla dipendenza.

La nuova rivoluzione dell’IA. I social media hanno riscritto il modo in cui accediamo alle informazioni, organizziamo l’attenzione e percepiamo la realtà.

Per capire cosa stanno diventando i Large Language Models, dobbiamo prima capire cosa sono stati i social media: ambienti, nel senso preciso che l’ecologia dei media attribuisce al termine.

Neil Postman sosteneva che i media non sono strumenti neutrali che usiamo per scopi prestabiliti, ma ambienti complessi che strutturano pensiero ed esperienza. Come scrive Marshall McLuhan, “il medium è il messaggio”: la tecnologia non è un contenitore neutro del contenuto, ma produce effetti indipendentemente da ciò che trasporta. Un ambiente mediale non trasmette soltanto messaggi: organizza percezione, tempo, spazio sociale e forme di interazione.

I

I

Facebook e YouTube non producono contenuti o notizie: organizzano la distribuzione. L’algoritmo è l’architetto dell’ambiente informativo e di ciò che riesce a emergere al suo interno.

Bernard Stiegler, filosofo della tecnologia, parlava di “esteriorizzazione della memoria” per descrivere come le tecnologie diventino supporti cognitivi esterni. La scrittura esteriorizza il pensiero, la biblioteca esteriorizza la conoscenza collettiva, internet esteriorizza l’accesso all’informazione. Ma in tutti questi casi la tecnologia conserva qualcosa prodotto altrove. I social media sono un archivio dinamico, non un produttore.

Dall’ambiente al tutor.

I Large Language Models (LLM) come ChatGPT, Claude o Gemini operano in modo radicalmente diverso. Non si limitano a distribuire contenuti preesistenti: li co-producono con l’utente. Non mediano soltanto la percezione di una realtà esterna: partecipano alla formulazione del pensiero. È lo spostamento dall’ambiente al tutor: dal controllo dell’attenzione attraverso la configurazione dell’ambiente e la codifica dell’esperienza, a un partner cognitivo che guida l’elaborazione della percezione.

IA: una persona lavora su un testo mentre un’interfaccia LLM propone strutture e connessioni; l’ambiente digitale diventa un tutor cognitivo che co-forma il pensiero.
Dall’ambiente informativo al tutor: la mediazione non riguarda più solo ciò che circola, ma come prende forma il pensiero.
II

LLM, IA come estensione delle capacità linguistiche e cognitive

Per capire meglio la tesi di McLuhan sulle tecnologie della comunicazione—soprattutto internet e, oggi, l’IA—possiamo vederle come estensioni cognitive, uno spazio virtuale su cui proiettiamo identità. Ogni tecnologia è un’estensione del corpo o delle sue funzioni. In questo senso, la teoria della cognizione distribuita di Hutchins (1995) mostra che i processi cognitivi non sono confinati al cervello individuale, ma distribuiti tra mente, corpo e strumenti tecnologici—come una mappa, che supporta l’orientamento e, in assenza di esperienza, può diventare la rappresentazione mentale dello spazio stesso.

I LLM funzionano secondo questa logica, ma a differenza di una calcolatrice intervengono proprio nella fase in cui il pensiero si sta formando.

Dal supporto alla sostituzione.
III

IA e impalcatura linguistica: dalla formulazione alla co-formulazione

Il concetto di cognitive scaffolding, introdotto da Jerome Bruner, descrive come supporti esterni guidino lo sviluppo di competenze che poi possono diventare autonome. Un genitore che aiuta un bambino a costruire una torre fornisce un’impalcatura temporanea; col tempo il bambino costruirà da solo.

I LLM funzionano come impalcatura linguistica permanente. Quando un utente ha un’idea vaga e chiede all’IA di “strutturarla”, il modello non trascrive: propone una forma argomentativa. Introduce connessioni logiche, gerarchie concettuali, transizioni retoriche. L’utente riconosce alcune proposte, ne scarta altre, revisiona. Ma il risultato finale è co-prodotto.

Singh et al. (2025) mostrano che gli utenti inesperti, quando si affidano agli LLM per compiti di scrittura, saltano fasi cognitive essenziali: non analizzano fonti multiple, non sintetizzano idee divergenti, non valutano soluzioni in autonomia. L’impalcatura non è temporanea: diventa una struttura permanente. E quando viene rimossa (come nella sessione 4 dello studio MIT), la performance crolla.

IV

AI: lo spazio delle possibilità e la soluzione preconfezionata

Quando chiedi a un LLM “come affrontare questo problema”, la risposta non è un elenco neutro di opzioni. È una riformulazione del problema. Il modello propone un frame interpretativo (questo è un problema di tipo X, non Y), identifica variabili rilevanti, suggerisce criteri di valutazione. Alcuni percorsi diventano salienti; altri vengono omessi.

Echterhoff et al. (2024) mostrano che i LLM replicano—e talvolta amplificano—pattern decisionali umani: ancoraggio (sovrappeso alla prima informazione ricevuta), disponibilità (sovrastima di eventi facilmente richiamabili), conferma (preferenza per ciò che conferma credenze pregresse).

Uno spazio già filtrato e organizzato dal modello.

V

Dall’esplorazione a una sequenza guidata

La cognizione distribuita include la nozione di coupling tra agente e ambiente. Nei sistemi strettamente accoppiati, l’agente non usa lo strumento: co-evolve con esso (Clark & Chalmers, 1998).

Ogni output di un LLM contiene indizi impliciti sul passo successivo: “Potresti espandere X”, “Una domanda correlata potrebbe essere Y”, “Per procedere, considera Z”. L’interazione diventa una sequenza guidata: domanda → risposta → nuova domanda suggerita dalla risposta → iterazione.

VI

MIT: IA e debito cognitivo

Una ricerca MIT (Kosmyna et al., 2025) ha misurato questo con EEG: gli utenti che usano LLM mostrano ridotta attivazione di reti neurali associate a pianificazione, valutazione e controllo esecutivo. Non perché il compito sia più facile, ma perché queste funzioni vengono esternalizzate. Il cervello impara a delegare.

Questa trasformazione qualitativa rende operativamente irrilevante la distinzione tra “il mio pensiero” e “pensiero mediato dall’IA”. I social media organizzavano l’attenzione, ma non partecipavano alla produzione del pensiero. I LLM fanno entrambe le cose. Non sono un ambiente che attraversi: sono un partner con cui pensi. E quando il partner diventa indispensabile, la simmetria si rompe: non è più collaborazione, è dipendenza.

Testi generati e riscritti scorrono come maschere simili su un palcoscenico digitale: il ‘teatro dell’IA’ sfuma il confine tra voce umana e output algoritmico.
Il teatro dell’ia: standardizzazione linguistica e perdita dei confini tra produzione umana e generazione algoritmica.
VII

VII

Viviamo già in quello che potremmo chiamare “teatro dell’ia”: uno spazio in cui la distinzione tra contenuti prodotti da esseri umani e contenuti generati da macchine è sempre più difficile da tracciare. Non riguarda solo deepfake o immagini sintetiche, ma qualcosa di più sottile: l’uniformità linguistica e stilistica che emerge quando milioni di persone usano gli stessi modelli per scrivere.

Quando migliaia di aziende chiedono a ChatGPT di redigere policy interne, emerge una convergenza spontanea: gli stessi termini, le stesse strutture argomentative, lo stesso registro. I LLM non prescrivono esplicitamente “così si fa”, ma la disponibilità di output immediato e utilizzabile spinge verso una standardizzazione di fatto. La normalizzazione avviene per ripetizione, non per imposizione.

Il risultato è un paradossale appiattimento culturale: abbiamo accesso a uno strumento capace di generare variazioni infinite, eppure convergiamo sulle stesse formulazioni perché la convenienza premia strutture “pronte”. L’IA non ci dice cosa pensare, ma influenza profondamente come formuliamo ciò che pensiamo. E la forma, lo sappiamo, non è mai neutra rispetto al contenuto.

VIII

LLM, AI, DIPENDENZA E DEBITO COGNITIVO

La ricerca distingue tra esperti e inesperti nell’uso dei LLM: gli esperti—con conoscenze di dominio strutturate—possono usarli in modo produttivo, perché possiedono framework concettuali solidi che guidano l’interazione. Gli inesperti, invece, tendono a delegare completamente, saltando lo sviluppo delle competenze che rendono possibile un uso critico.

Ma questa distinzione, per quanto vera oggi, è probabilmente temporanea. Non perché gli inesperti diventeranno esperti, ma perché anche gli esperti perderanno gradualmente vigilanza critica. È una questione di uso, abitudine, soglia di attenzione e capacità di restare all’erta. Nel tempo, inevitabilmente, diminuisce.

La ragione è biologica. Il cervello umano è energeticamente costoso: consuma circa il 20% del metabolismo totale pur costituendo solo il 2% della massa corporea. L’evoluzione ci ha ottimizzati per l’efficienza cognitiva: minimizzare lo sforzo mentale quando possibile, automatizzare compiti ripetitivi, delegare funzioni a strumenti esterni quando disponibili. Questa spinta non è pigrizia morale; è architettura biologica.

Quando un LLM offre un percorso più rapido ed efficiente verso un risultato equivalente, la pressione ad adottarlo non è solo esterna (competizione sul lavoro, aspettative di produttività) ma interna. Il cervello preferisce l’opzione a minor costo. Nel tempo, l’eccezione—usare l’IA per compiti specifici—diventa la norma. La norma diventa dipendenza. La dipendenza diventa invisibile: non noti più di stare delegando, perché è diventato automatico.

IX

IX

Oggi usiamo i LLM per produrre testi, scrivere codice, redigere email. Domani li useremo per capire realtà complesse che ci hanno sempre superato. Quando un fenomeno sociale, economico, politico, scientifico diventa troppo intricato per essere compreso senza mediazione, a chi ci rivolgeremo per sintesi, interpretazione, orientamento?

La risposta più probabile: una delle infrastrutture digitali dominanti. Chiederemo all’IA di spiegare cambiamento climatico, dinamiche geopolitiche, meccanismi economici, implicazioni di una scoperta scientifica. E l’IA ci darà una narrazione—coerente, accessibile, plausibile.

Ma quella narrazione sarà costruita sui pattern testuali del suo addestramento, incorporerà bias di dati, rifletterà scelte di design di chi ha costruito il modello. E soprattutto: sarà una versione della realtà, presentata con l’autorità della sintesi computazionale.

Il problema non è che l’IA “mente” o “manipola” deliberatamente. Il problema è che quando un sistema diventa il mediatore primario attraverso cui comprendiamo fenomeni complessi, la distinzione tra “capire la realtà” e “capire la rappresentazione della realtà prodotta dal sistema” si dissolve.

Ma c’è un aspetto ancora più radicale, che non riguarda noi ma chi verrà dopo. I nostri figli, e i figli dei nostri figli, non avranno mai conosciuto un mondo senza LLM come mediatori cognitivi.

Per noi, che abbiamo imparato a scrivere, ragionare e formulare problemi prima dell’avvento dei LLM, esiste ancora una memoria procedurale di come farlo senza. Possiamo confrontare “prima” e “dopo”, riconoscere la differenza, mettere in discussione il cambiamento. Abbiamo un punto di riferimento esterno.

Le generazioni che cresceranno con l’IA come tutor cognitivo normalizzato non avranno questo riferimento. Non sapranno cosa significa formulare un pensiero complesso senza passare dall’interfaccia IA. Non potranno confrontare “la loro analisi” con “l’analisi dell’IA”, perché le due si sovrapporranno fin dall’inizio.

Questo non significa che saranno meno intelligenti. Significa che opereranno in un regime cognitivo diverso, in cui alcune abilità (formulazione autonoma, costruzione di argomenti da zero, verifica critica senza supporti esterni) potrebbero non svilupparsi, perché l’ambiente non le richiede.

L’alternativa a una narrazione non è semplicemente un’altra narrazione. È la capacità di produrre narrazioni. E se quella capacità viene esternalizzata fin dall’inizio della formazione cognitiva, ciò che si perde non è solo una competenza tecnica, ma la stessa possibilità di concepire alternative.

Riconoscere che la convenienza cognitiva ha un prezzo, e che quel prezzo potrebbe non essere pagato da chi usa l’IA oggi, ma da chi cresce in un mondo in cui l’IA è l’unico modo conosciuto di pensare.

CYBERMEDIATEINMENT // IA // MEDIA ECOLOGY // COGNITIVE POWER
youtube placeholder image

Guarda su YouTube

Articoli simili