L’intelligenza artificiale è sempre più integrata nel lavoro di professionisti e knowledge worker, da strumenti come ChatGPT e Copilot fino ad assistenti virtuali in ufficio. Questa rivoluzione tecnologica porta enormi benefici in termini di efficienza e automazione, ma solleva anche una domanda cruciale: come influisce l’AI sulle capacità cognitive e sul pensiero critico umano? Non è una preoccupazione nuova – basti pensare che già Socrate dubitava della scrittura e molti insegnanti temevano le calcolatrici – ma con l’AI generativa la questione è tornata al centro dell’attenzione. Un recente studio condotto da Microsoft Research in collaborazione con la Carnegie Mellon University ha cercato di dare risposta, analizzando l’effetto dell’AI sull’impegno cognitivo e sulle pratiche di pensiero critico di chi la utilizza nel lavoro quotidiano.
Lo studio Microsoft e i suoi risultati principali
Lo studio – intitolato “The Impact of Generative AI on Critical Thinking” – ha coinvolto 319 professionisti che usano strumenti di AI generativa almeno una volta a settimana. Ai partecipanti è stato chiesto di fornire esempi di attività lavorative in cui interviene l’AI (oltre 900 casi reali raccolti) e di riflettere su quando e come hanno applicato il pensiero critico durante questi compiti. I risultati offrono un quadro sfumato ma indicativo. In generale, i lavoratori della conoscenza dichiarano di impegnarsi in pratiche di pensiero critico soprattutto per garantire la qualità del proprio lavoro quando usano l’AI. In pratica, molti si affidano all’AI per generare una bozza di testo o per raccogliere informazioni, ma poi sentono il bisogno di verificare le risposte fornite, confrontandole con fonti esterne o con la propria esperienza. Questo atteggiamento di vigilanza serve ad assicurarsi che l’output dell’AI sia accurato, pertinente e affidabile.
Tuttavia, lo studio evidenzia anche un calo dell’impegno cognitivo in determinate circostanze. In particolare, quando le persone ripongono molta fiducia nelle capacità dell’AI, tendono a esercitare meno spirito critico sul risultato generato. Al contrario, chi mantiene un alto grado di fiducia nelle proprie competenze dimostra un approccio più critico: verifica, perfeziona e integra maggiormente le risposte dell’AI invece di accettarle passivamente. In altri termini, più un utente si fida ciecamente dell’AI, più rischia di accettarne le risposte senza un adeguato scrutinio; viceversa, chi si fida di sé stesso tende a usare l’AI come punto di partenza, ma poi applica un rigoroso controllo critico sul risultato.
Come l’AI cambia il lavoro e lo sforzo mentale
Un effetto chiave emerso dalla ricerca è la redistribuzione dello sforzo cognitivo. L’AI generativa semplifica alcuni aspetti del lavoro mentale, ma ne complica altri, alterando di fatto le nostre pratiche quotidiane. I ricercatori di Microsoft descrivono una trasformazione del ruolo umano in tre aree principali:
- Raccolta e verifica delle informazioni – L’AI automatizza gran parte del recupero e dell’organizzazione dei dati, riducendo lo sforzo necessario per trovare informazioni. D’altro canto, i lavoratori devono ora spendere più tempo a verificare l’accuratezza e l’affidabilità dei contenuti generati dall’AI, perché non possono darli per buoni a scatola chiusa.
- Risoluzione di problemi e integrazione delle risposte – Invece di risolvere i problemi da zero, spesso ci si concentra sul rifinire e adattare le soluzioni proposte dall’AI. Ad esempio, un professionista può usare l’AI per abbozzare un documento o una soluzione, poi interviene per aggiustarne il tono, contestualizzare meglio le informazioni e assicurarsi che siano rilevanti per lo specifico caso in questione. L’abilità principale diventa integrare le risposte dell’AI con il proprio giudizio.
- Esecuzione dei compiti e supervisione – Piuttosto che svolgere ogni compito manualmente, il lavoratore agisce sempre più da supervisore dei processi automatizzati. Significa guidare l’AI (ad esempio fornendo prompt ben definiti) e valutare criticamente i risultati per garantirne la qualità. L’AI può occuparsi del lavoro routinario, ma responsabilità e controllo finale restano umani – il che richiede comunque attenzione e discernimento.
In sostanza, diminuisce lo sforzo in attività come la ricerca di informazioni o la scrittura di prima stesura, ma aumenta l’impegno nel controllo qualità, nella verifica dei fatti e nella personalizzazione del risultato. Questo spostamento “dal fare al controllare” può dare un falso senso di semplicità: usare l’AI pare facile e veloce, ma mantenere alta la qualità richiede comunque pensiero critico. I ricercatori infatti avvertono che, mentre l’AI «riduce lo sforzo cognitivo in alcune aree, aumenta il bisogno di verifica, integrazione e supervisione, rafforzando l’importanza di mantenere vive le abilità di pensiero critico».
Il paradosso dell’automazione: rischio di “cervello atrofizzato”
Lo studio Microsoft richiama un concetto noto come ironia (o paradosso) dell’automazione: più delegiamo compiti alle macchine, meno alleniamo le nostre abilità in quei compiti, col rischio di trovarci impreparati nelle situazioni straordinarie. “Used improperly, technologies can and do result in the deterioration of cognitive faculties that ought to be preserved,” avvertono i ricercatori. “A key irony of automation is that by mechanising routine tasks and leaving exception-handling to the human user, you deprive the user of routine opportunities to practice their judgement and strengthen their cognitive musculature, leaving them atrophied and unprepared when the exceptions do arise.”. In altre parole, se abusiamo dell’automazione rischiamo di indebolire i nostri “muscoli” mentali: l’AI ci solleva dai compiti di routine, ma così facendo ci priva anche delle occasioni per esercitare giudizio e creatività quotidianamente. Il risultato a lungo termine può essere un impoverimento delle capacità critiche: quando poi si presenta un problema inaspettato (la famosa eccezione alla regola), la mente umana potrebbe rivelarsi “atrofizzata e impreparata” ad affrontarlo.
Non a caso, i ricercatori hanno osservato che chi usa assiduamente strumenti di AI tende a produrre soluzioni e risultati meno diversificati rispetto a chi non li utilizza. Questa sorta di convergenza meccanizzata suggerisce un appiattimento del pensiero: affidandoci alle stesse fonti algoritmiche, rischiamo di perdere quelle sfumature personali e contestuali che arricchiscono il problem solving umano. Una partecipante allo studio ha raccontato, ad esempio, di aver usato ChatGPT per scrivere la bozza di una valutazione di performance, ma di aver poi sentito il bisogno di rivederla attentamente per non inserire errori o toni inappropriati che avrebbero potuto metterla in cattiva luce. Un altro ha descritto come, nel mandare email formali al proprio capo, l’AI gli fornisse un testo ben strutturato ma troppo standard: ha dovuto modificarlo per rispecchiare la cultura aziendale e non risultare fuori luogo. Questi esempi mostrano che l’AI può dare una base utile, ma spetta poi all’essere umano applicare quella sensibilità critica che evita passi falsi. Se ci abituiamo invece ad accettare ogni risposta dell’AI senza revisione, col tempo diventerà più difficile riattivare le nostre capacità quando davvero servono.
Tecnologie human-centered: come preservare il pensiero critico
Visti i rischi, quali soluzioni o strategie possiamo adottare? Gli stessi autori dello studio Microsoft suggeriscono alcuni approcci per coniugare i benefici dell’AI con il mantenimento di solide capacità cognitive umane. Prima di tutto, occorre migliorare il design degli strumenti di AI generativa affinché incentivino, anziché sostituire, il pensiero critico degli utenti. In altre parole, l’AI dovrebbe funzionare come amplificatore della mente umana, non come un pilota automatico da seguire ciecamente.
Ad esempio, i ricercatori propongono di sviluppare AI in grado di spiegare il proprio ragionamento o fornire riferimenti a supporto delle sue risposte, così che l’utente sia incoraggiato a capire e valutare, non solo ad accettare passivamente. Inoltre, sarebbero utili funzionalità che segnalino all’utente dove e come intervenire per migliorare il risultato, offrendo una sorta di guida alla revisione. Come si legge nel report:
“GenAI tools could incorporate features that facilitate user learning, such as providing explanations of AI reasoning, suggesting areas for user refinement, or offering guided critiques.”
In italiano, i ricercatori auspicano che gli strumenti di AI integrino funzioni per facilitare l’apprendimento attivo dell’utente – ad esempio mostrando come l’AI ha ragionato, dove la sua risposta potrebbe essere migliorata, o offrendo critiche guidate sulle quali l’utente possa riflettere. L’obiettivo è mantenere l’essere umano mentalmente ingaggiato: l’AI deve stimolare il nostro pensiero, non addormentarlo.
Dal lato pratico, un approccio human-centered potrebbe includere formazione e linee guida nelle aziende su un uso consapevole dell’AI. I lavoratori dovrebbero essere incoraggiati a vedere l’AI come un collega virtuale: utile per dividere i compiti ripetitivi, ma da tenere sempre sotto supervisione. Imparare a interrogare l’AI (con prompt ben pensati), confrontarne le risposte con dati di realtà e non aver paura di correggerla sono abilità chiave da coltivare. In questo senso, il rapporto tra tecnologia e capacità umane diventa una collaborazione: l’intelligenza artificiale fornisce velocità e potenza di calcolo, l’intelligenza umana assicura giudizio, creatività ed etica.
Conclusioni
Lo studio di Microsoft offre uno specchio importante su come l’AI stia ridefinendo il lavoro cognitivo. I risultati ci ricordano che efficienza non sempre equivale a efficacia umana a lungo termine: delegare all’AI i compiti mentali può alleggerire la nostra giornata nell’immediato, ma serve equilibrio per non intaccare le nostre facoltà critiche. In un mondo in cui l’AI sarà sempre più presente, la sfida è creare un ecosistema in cui uomini e macchine pensanti si potenzino a vicenda. Come spesso accade con le tecnologie rivoluzionarie, tutto sta nell’uso che ne facciamo: mantenere un approccio vigile, continuare a porci domande e allenare il nostro spirito critico sarà fondamentale per trarre il meglio dall’AI senza perdere ciò che ci rende umani. Citando le parole dei ricercatori, “mentre l’AI può migliorare l’efficienza, non dobbiamo perdere di vista la necessità del pensiero critico umano, pena un’erosione graduale della nostra capacità di pensare in modo autonomo”. In definitiva, la tecnologia più avanzata dà il massimo quando riesce a esaltare le qualità umane, non a sostituirle.
L’Autore
Luigi Resta è un esperto di tecnologia e comunicazione, autore del libro “Pensiero Umano, Intelligenza Artificiale“. Da anni si occupa del rapporto tra uomo e tecnologia, con un’attenzione particolare al valore dell’intelligenza umana nell’era digitale.
0 commenti