La prima parte affrontava il problema dal lato delle strutture di potere: incentivi, concentrazione industriale, vuoti regolatori.

Questa seconda parte sposta il punto di osservazione.

Non più le istituzioni, ma i comportamenti.

Per anni il rischio dell’intelligenza artificiale è stato rappresentato come un evento discreto: un sistema diventa sufficientemente autonomo da agire contro gli interessi umani.

Quella rappresentazione ha avuto una funzione narrativa potente.

Ma ha prodotto anche un effetto collaterale rilevante: ha reso difficile riconoscere un fenomeno che non ha alcuna discontinuità visibile.

Il trasferimento di agency non si è manifestato come una rottura.
Si è manifestato come una progressiva riduzione dell’attrito decisionale.

La dinamica è semplice.

Strumenti progettati per assistere l’esecuzione vengono progressivamente utilizzati per formulare giudizi.

Da “fai questo” a “cosa dovrei fare”.

Il passaggio è concettualmente minimo.
Ma strutturalmente decisivo.

Uno strumento che esegue rimane subordinato.
Uno strumento che orienta la decisione modifica la distribuzione del potere.

Questa transizione è già avvenuta.

Esternalizzazione del giudizio a livello individuale

Uno studio della Duke University su centinaia di milioni di utenti ha analizzato la composizione delle interazioni con ChatGPT.

Il risultato è netto:

circa la metà delle richieste non riguarda l’esecuzione di compiti.
riguarda il processo decisionale.

Non “scrivi questa email”, ma:

  • “dovrei mandare questa email?”

  • “cosa dovrei concludere da questo report?”

La distinzione tra esecuzione e giudizio non è operativa.

È epistemica.

Nel primo caso il sistema agisce su istruzioni definite.
Nel secondo contribuisce a definire il criterio stesso della decisione.

La scala del fenomeno è ormai documentata:

Salute. Finanze. Relazioni. Scelte professionali.

Non è un cambiamento quantitativo.
È un cambiamento qualitativo.

Rachel Wood, ricercatrice in ciberpsicologia, lo formula con precisione:

“Le conversazioni che avevamo con i vicini, nei circoli, nelle comunità religiose — vengono dirottate verso i chatbot.”

Ma il sistema che le riceve non comprende nel senso umano del termine.

Ciò che possiede è una capacità di previsione linguistica altamente raffinata.

Il rischio non deriva da un’intenzione.

Deriva da un’equivalenza funzionale:

previsione plausibile → consiglio percepito

Quando un output è coerente, ben strutturato e contestualmente appropriato, viene interpretato come comprensione.

Questa interpretazione è cognitivamente economica.
E proprio per questo tende a diventare automatica.

L’esternalizzazione del giudizio non avviene per decisione.
Avviene per continuità.

Deferenza e autorità nel contesto organizzativo

A livello organizzativo, la dinamica è amplificata.

Non da ideologia.
Da competizione.

L’adozione dell’AI non è stata, nella maggior parte dei casi, il risultato di una pianificazione centralizzata. Come documentato da OpenAI, è avvenuta in questo modo:

uso individuale → vantaggio locale → imitazione → normalizzazione → formalizzazione

Questo produce due effetti:

  • la delega non è stata oggetto di una decisione strategica esplicita

  • i criteri di utilizzo si sono stabilizzati prima di essere analizzati

Nessun consiglio di amministrazione ha deliberato:

“esternalizziamo il 62% dei processi decisionali a un sistema esterno”

È semplicemente successo.

I dati sono espliciti:

  • oltre il 60% dei manager usa l’AI per decisioni critiche sul personale

  • più di uno su cinque lo fa senza intervento umano

  • il 70% dei dirigenti mette in discussione il proprio giudizio quando è in conflitto con quello dell’AI

Questo dato merita una pausa.

Non si tratta di dirigenti che usano l’AI come uno dei tanti input.

Si tratta di dirigenti che ricalibrano il proprio giudizio — costruito su esperienza, contesto, intuizione — in funzione di un sistema che non ha accesso diretto a nulla di tutto questo.

Il punto più interessante è psicologico.

Quando un sistema produce output con:

  • chiarezza sintattica

  • struttura argomentativa

  • tono assertivo

viene percepito come epistemicamente affidabile.

Indipendentemente dalla qualità reale della comprensione.

È una forma di autorità derivata dalla forma, non dal contenuto.

Questa “estetica della certezza” introduce una dinamica di deferenza.

Il decisore umano ricalibra il proprio giudizio non perché il modello sia più accurato.

Ma perché è sufficientemente coerente da ridurre l’attrito dell’incertezza.

In un contesto competitivo, questo è un vantaggio.

E il vantaggio, inevitabilmente, viene replicato.

Esternalizzazione cognitiva e l’effetto sparring

Il tema del deterioramento cognitivo viene spesso trattato in termini superficiali.

E non di rado con studi dalla metodologia discutibile.

La narrativa dominante è lineare:

più usi l’AI, più le tue capacità si degradano.

L’analogia ricorrente è il GPS che atrofizza la memoria spaziale, o la calcolatrice che elimina il calcolo mentale.

La realtà è più interessante, e più scomoda.

Chi usa l’AI come un interlocutore attivo — contesta l’output, lo riformula, lo usa come punto di partenza da cui divergere — tende a internalizzare pattern, strutture argomentative, framework decisionali.

E li porta con sé anche quando lo strumento non è disponibile.

La capacità cognitiva non si riduce.
Si espande.

Il fenomeno è visibile negli scacchi.

Da quando i motori scacchistici hanno superato il livello umano, il rating medio dei giocatori d’élite è cresciuto costantemente.

I giovani grandmaster di oggi sono significativamente più forti dei loro predecessori.

Non nonostante l’AI.
Grazie ad essa.

Allenarsi quotidianamente con un avversario che vede combinazioni invisibili all’occhio umano costruisce capacità che prima non esistevano.

Ma il meccanismo funziona solo in una direzione.

Chi gioca contro il motore, analizza le varianti, cerca di capire perché la propria mossa era inferiore — migliora.

Chi accede alla valutazione del motore per saltare direttamente alla mossa migliore — non impara nulla.

La differenza non è nello strumento.
È nel tipo di interazione.

Chiamo questo “l’effetto sparring”.

L’AI può funzionare come un partner di allenamento cognitivo straordinario — qualcuno di più veloce, più informato, più sistematico di te — che ti costringe a pensare meglio proprio perché ti mette in difficoltà.

Ma solo se combatti davvero.

Se guardi dal bordo del ring e accetti il risultato, l’atrofizzazione è reale.

La domanda, quindi, non è se l’AI degradi il giudizio umano.

È quale tipo di uso lo degrada e quale lo amplifica.

Sam Altman, il CEO di OpenAI, ha ammesso pubblicamente che quando ChatGPT è andato offline per quattro ore a dicembre 2024, aveva dimenticato come lavorare senza.

Non è un caso di deterioramento cognitivo generico.

È un caso di uso passivo da parte di qualcuno che ha accesso illimitato al sistema e nessun incentivo a resistere ai suoi output.

L’effetto sparring è disponibile a tutti, non c’è nessun “gatekeeper” qui — per ora.

Ma richiede una scelta deliberata.
E su larga scala, la scelta deliberata è l’eccezione, non la regola.

Dinamiche competitive e assenza di soluzioni locali

Qualsiasi tentativo di affrontare il problema a livello individuale si scontra con una dinamica sistemica.

L’uso dell’AI produce benefici locali immediati in termini di velocità e throughput.

In un contesto competitivo, questi benefici vengono selezionati positivamente.

Il risultato è una pressione costante verso l’esternalizzazione.

Un paper pubblicato a gennaio 2025 da ricercatori della Charles University, di Mila e dell’Università di Toronto ha formalizzato questa traiettoria con il concetto di “Gradual Disempowerment”.

La tesi è strutturale:

i sistemi sociali — l’economia, la cultura, la governance — sono rimasti storicamente allineati con gli interessi umani perché dipendevano dalla partecipazione umana.

Gli esseri umani lavoravano, consumavano, votavano, creavano.

Questa dipendenza era il meccanismo di allineamento.

Il punto è sottile ma decisivo.

Non è che i sistemi fossero progettati per servire gli umani.
È che non potevano funzionare senza di loro.

La dipendenza funzionale produceva allineamento come effetto collaterale.

Rimuovete la dipendenza — sostituite la partecipazione umana con alternative artificiali più efficienti — e i sistemi continuano a funzionare.

Semplicemente, smettono di avere un incentivo strutturale a produrre esiti favorevoli per gli esseri umani.

La frase più inquietante del paper:

“Chi resiste a queste pressioni verrà alla fine sostituito da chi non resiste.”

Non c’è un cattivo in questa storia.
Non c’è malizia.

C’è una pressione selettiva che premia costantemente la delega e penalizza la resistenza.

Lo stesso meccanismo che fa funzionare l’evoluzione — solo che a essere selezionati non sono gli umani. Sono i sistemi.

In questo contesto, chi non usa l’AI viene superato da chi la usa.

E tra chi la usa, chi la usa passivamente produce più velocemente di chi la usa attivamente.

Il sistema seleziona per la velocità, non per la qualità del giudizio.

Ed è questa la pressione che conta.

Convergenza e monocultura algoritmica

Il punto più critico non è tuttavia la delega in sé.

È la convergenza che ne deriva.

Quando un numero crescente di decisioni viene mediato da un numero limitato di modelli — GPT, Claude, Gemini — addestrati su dataset simili e ottimizzati secondo criteri analoghi, si crea un effetto di concentrazione dei processi decisionali che non ha precedenti storici.

La letteratura sulla algorithmic monoculture, sviluppata da Bommasani e colleghi a Stanford, ha prodotto un risultato empirico che merita attenzione:

sistemi diversi ma costruiti su componenti condivisi non producono semplicemente output simili.

Producono gli stessi errori.
Sulle stesse persone.
In modo sistematico.

Il tasso di fallimento omogeneo — la frequenza con cui tutti i sistemi dell’ecosistema falliscono simultaneamente sullo stesso individuo — supera le attese statistiche in ogni ecosistema analizzato.

Non si tratta di uniformità degli output.

Si tratta di correlazione strutturale dei fallimenti.

In parallelo, un lavoro pubblicato su Nature nel 2026 ha documentato un effetto apparentemente paradossale nell’ambito della ricerca scientifica:

l’uso diffuso di strumenti AI aumenta la produttività individuale e le citazioni, ma contrae simultaneamente il focus disciplinare.

I ricercatori producono di più.
Ma esplorano di meno.

Un articolo su Communications Psychology ha descritto la formazione di una vera e propria monocultura scientifica:

  • convergenza tematica

  • convergenza metodologica

  • convergenza degli strumenti analitici

Se questo accade nella ricerca scientifica — un contesto in cui la diversità di approccio è esplicitamente valorizzata — è ragionevole attendersi che lo stesso fenomeno si manifesti con intensità ancora maggiore nei contesti decisionali quotidiani.

Dove la pressione verso la conformità è strutturalmente più forte.

Nel paper The B+ Trap, ho proposto che i modelli linguistici di grandi dimensioni tendano a comprimere lo spettro creativo e decisionale verso una regione ad alta accettabilità:

  • output solidi

  • coerenti

  • difficilmente errati

  • ma raramente eccellenti

Non si tratta di un limite tecnico contingente, ma di una conseguenza diretta della funzione obiettivo:

massimizzare la probabilità di accettazione.

Kyle Chayka ha sintetizzato questo fenomeno sul New Yorker definendo l’AI una “technology of averages”.

La definizione è efficace perché cattura la direzione del bias:

verso il plausibile, il condivisibile, il difendibile.

Il risultato aggregato non è l’AI che controlla decisioni individuali.

È la più grande convergenza di processi decisionali umani nella storia:

miliardi di scelte individuali convogliate nello stesso collo di bottiglia statistico, che produce output abbastanza competenti da essere accettati e abbastanza simili da essere indistinguibili.

Efficienza media ed eccellenza

Questo porta a un punto controintuitivo.

E forse al punto centrale di questo articolo.

L’esternalizzazione del giudizio massimizza l’efficienza media del sistema.

Ma l’eccellenza non emerge dalla media.

La formulazione più precisa è la seguente:

La delega massimizza il throughput medio.
La resistenza preserva la possibilità dell’eccellenza.

Ogni decisione che non viene delegata — ogni valutazione che richiede sforzo, che implica incertezza, che non ha una risposta immediatamente disponibile nella distribuzione dominante — è un punto in cui può emergere qualcosa che il modello non avrebbe prodotto.

L’eccellenza, per definizione, non è la risposta più probabile.

È la risposta che nessun modello statistico selezionerebbe, perché si trova nella coda della distribuzione, non nel centro.

L’intuizione del fondatore che vede un mercato dove nessuno lo vede.
La decisione del manager che contraddice i dati perché conosce un contesto che i dati non catturano.
La strategia che sembra irrazionale finché non funziona.

Queste decisioni richiedono esattamente la facoltà che l’esternalizzazione sistematica erode:

  • la capacità di sostenere l’incertezza

  • di resistere alla soluzione immediatamente disponibile

  • di mantenere aperto lo spazio delle alternative

La resistenza, in questo contesto, non è una posizione ideologica.

È una proprietà strutturale di quei processi che non si appoggiano immediatamente alla soluzione più plausibile disponibile.

È inefficiente in media.
È costosa.
È distribuita in modo diseguale.

Ma è anche il luogo in cui possono emergere soluzioni che non appartengono alla distribuzione dominante.

L’eccellenza, a differenza dell’efficienza, non richiede ottimizzazione sistemica.

Quando emerge, si auto-seleziona.

Il problema è che, con la compressione dello spazio decisionale verso la media, diventa statisticamente rara.

E in un sistema competitivo, la rarità non è un argomento.

Conclusione

Non esiste un punto esterno da cui osservare questo processo.
Non esiste un’interruzione netta.
E non esiste una soluzione individuale che non si scontri con le dinamiche competitive che rendono la delega razionalmente vantaggiosa.

Esiste, però, un momento interno.

Il momento in cui una risposta generata viene accettata senza essere realmente valutata.

Quel passaggio è difficile da identificare perché l’output è formulato nel linguaggio del pensiero umano.

Non appare come un intervento esterno.

Ma come una continuazione naturale del ragionamento.

È lì che avviene la delega.

E non riguarda solo la singola decisione.

Riguarda la riduzione dello spazio delle alternative che vengono effettivamente considerate.

La prossima volta che accettate l’output di un chatbot senza modificarlo — non perché sia perfetto, ma perché è sufficientemente buono — chiedetevi:

è quello che penso davvero, o è quello che pensa la distribuzione di addestramento del modello?

Quella distinzione è l’ultima linea di difesa significativa.

Ed è interamente nella vostra testa.

Fabio Lauria
CEO & Founder, ELECTE

Ogni settimana esploriamo l'AI senza hype — con dati, analisi e un punto di vista indipendente.

Fonti e approfondimenti

Una nota sulla nuova versione di ELECTE

Tutto quello che avete letto in questo articolo ha influenzato direttamente il modo in cui abbiamo costruito la nuova versione della piattaforma.

La domanda che ci ha guidato è stata questa:

come si progetta un sistema di analytics che non cada nella stessa trappola che abbiamo appena descritto?

La risposta è nella distinzione tra due architetture:

sistemi che comprimono il processo decisionale in un output sistemi che rendono esplicita la struttura che lo produce

Abbiamo scelto la seconda.

v4 analizza automaticamente i dati e genera report visivi.

Ma non vi dice cosa decidere.

Vi mostra cosa sta succedendo. La decisione resta vostra.

Non sostituisce il giudizio; lo organizza. Non elimina l'attrito; lo rende leggibile.

In un contesto in cui la pressione dominante spinge verso la delega totale — dove ogni piattaforma vuole decidere al posto vostro, più velocemente, con meno sforzo — abbiamo fatto una scelta architetturale in direzione opposta.

La differenza non è semantica.

È architetturale.

E dopo tutto quello che avete letto, sapete perché.

Se questa analisi ti è stata utile, condividila con qualcuno a cui potrebbe interessare. E se vuoi scoprire come ELECTE usa l'AI per automatizzare l'analisi dati e la reportistica, trovi tutto su electe.net.

Recommended for you