di Maria Squarcione
Un ambiente che ci avvolge
Oggi molti di noi usano l’intelligenza artificiale senza accorgersene. Quando scriviamo una mail e il sistema completa automaticamente la frase. Quando cerchiamo informazioni e il motore di ricerca non ci restituisce più solo una lista di siti, ma una risposta già sintetizzata. Quando una piattaforma bancaria blocca una transazione sospetta prima ancora che ce ne accorgiamo. Quando un medico utilizza sistemi di supporto diagnostico che analizzano migliaia di immagini cliniche in pochi secondi.
Non è fantascienza. È già la nostra quotidianità. E spesso è inconsapevole. Siamo entrati, quasi senza accorgercene, in un ambiente informativo del tutto nuovo. Internet, che pure è stata una grande rivoluzione, rimane ancora uno strumento: potente, ma governabile dall’uomo dalla A alla Z. Ci permette di cercare informazioni prodotte da altri esseri umani. L’IA, invece, cambia questo equilibrio. Non è più solo uno strumento: è un ambiente, una tecnologia pervasiva che ci colloca in un mondo ibrido, in cui l’informazione non è soltanto cercata e valutata, ma sempre più spesso generata da un sistema intelligente, non umano.
Delega cognitiva e fiducia vigilata
Quando facciamo una domanda a un sistema di IA non stiamo più soltanto cercando qualcosa che esiste già: stiamo dialogando con una macchina che costruisce una risposta. In questo passaggio deleghiamo alla macchina funzioni proprie dell’essere umano. Possiamo fidarci? Non completamente. Non perché queste tecnologie siano pericolose in sé, ma perché funzionano in modo molto diverso da noi. La risposta dell’IA va considerata come un’ipotesi, un risultato da verificare.
E tuttavia la usiamo. Perché il suo flusso è suadente, convincente, altamente persuasivo. È stato definito “sicofantico”, perché tende a confermare le nostre aspettative. La usiamo anche per una ragione strutturale: la tecnologia nasce dallo “scarico cognitivo”, dalla necessità di delegare alcune funzioni per liberare risorse mentali. Inoltre, l’IA è capace di gestire quantità di dati e individuare schemi che sfuggono alle nostre possibilità. Così, mentre deleghiamo una parte delle nostre capacità, ne amplifichiamo altre.
Siamo noi, dunque, a decidere il livello di delega. E siamo noi a restarne responsabili.
La macchina probabilistica
Dal punto di vista giuridico, la responsabilità resta saldamente in capo all’umano. L’AI Act europeo e la legge italiana 132/2025 stabiliscono che l’output non può essere attribuito alla macchina. Il principio è chiaro: human oversight. L’uomo deve vigilare.
Ma chi risponde alle nostre domande è una macchina che funziona in modo probabilistico. Non comprende, non verifica, non distingue il vero dal falso. Genera sequenze linguistiche sulla base della probabilità. Non pensa: calcola.
I modelli linguistici non accedono alla verità dei fatti, non controllano la correttezza, non possiedono intenzionalità. Per questo possono “allucinare”: l’errore non è un incidente, ma una possibilità intrinseca del loro funzionamento. Sono addestrati su testi prodotti da esseri umani e ne riflettono inevitabilmente limiti e bias.
Consapevolezza e responsabilità
Che cosa ci resta, allora? L’uso consapevole, critico e responsabile di uno strumento straordinario. Un sistema inconsapevole, ma utile se ben governato.
Questo implica una responsabilità epistemica: dobbiamo formarci, comprendere il funzionamento di questi sistemi, usarli senza timori ma senza ingenuità. I grandi modelli linguistici non cercano la verità: cercano la sequenza più probabile. Simulano il linguaggio umano con grande efficacia, ma non possiedono un modello del mondo.
Eppure ampliano enormemente le nostre capacità cognitive. La questione decisiva non è se le macchine siano intelligenti. È se noi saremo abbastanza maturi da usarle bene.
Il primato del giudizio umano
L’intelligenza artificiale non sostituisce il giudizio umano: lo rende più necessario. Non elimina la responsabilità: la rende più esigente.
In un mondo in cui le risposte sono immediate, la differenza non la farà chi ottiene una risposta, ma chi sa porre la domanda giusta, chi sa verificare, chi sa assumersi la responsabilità di ciò che decide di credere, usare e condividere.
Un sistema di IA può produrre una risposta, ma non può rispondere delle sue conseguenze. Questo resta compito nostro.
Più cresce la potenza delle macchine, più cresce il peso delle nostre decisioni. Nell’epoca dell’intelligenza artificiale, la risorsa più scarsa non sarà la tecnologia, ma la consapevolezza umana.
