
C’è un argento che pesa più di una medaglia. Perché dietro non c’è solo un atleta, c’è un’abitudine che sta diventando normalità. “Mi sono allenato con ChatGPT”, ha dichiarato con candore il biatleta ucraino ipovedente Maksym Murashkovskyi in zona mista.
Murashkovskyi ha attribuito parte della preparazione al suo “coach virtuale”. Tattica, piano di allenamento, motivazione. Perfino psicologo. E, a volte, medico. Non una persona in carne ed ossa. Non una o più professionalità. Ma ChatGPT.
La domanda inevitabile, scomoda, è: ChatGPT ci guida davvero o ci riflette?
Perché se un atleta trova in una chat una spalla, un metodo, un tono che lo tiene su, allora la questione non è più lo sport. È la vita quotidiana. È il lavoro. La solitudine. La fiducia.
In questo articolo:
-
cosa significa dire “mi guida” parlando di IA
-
l’IA come specchio: cosa tira fuori da noi
-
empatia, relazione, corpo: ciò che resta umano
-
quali lavori rischiano davvero (e perché non è una guerra “uomo vs macchina”)
-
attendibilità: dove l’IA aiuta e dove può far male
ChatGPT ci guida davvero o ci riflette: la differenza tra guida e stampella
“Mi guida” è una frase potente. Può avere il sapore della resa, oppure il retrogusto del sollievo. Va tradotta. Va contestualizzata.
Guidare implica intenzione, responsabilità, discernimento. Una guida vede il terreno, anticipa il rischio, paga un prezzo se sbaglia.
Un modello linguistico non “vede” il mondo, non ha esperienza, non ha coscienza morale. Funziona in un altro modo: riconosce pattern, prosegue frasi, organizza informazioni, simula una conversazione credibile.
Quindi, che cosa fa davvero?
Fa una cosa importantissima e ambigua: riduce attrito. Sottrae tensione. Organizza mente e linguaggio in funzione dell’azione.
Mette davanti una struttura quando il pensiero è confuso. Propone un piano, una sintesi, una lista. E, a volte, è proprio ciò che mancava: una forma, non la verità.
E qui nasce l’equivoco: scambiare la forma per la guida.
L’IA non è un’entità “solida”: è un riflettore puntato su di noi
L’idea dell’IA come entità autonoma è seducente. Ed è anche comoda. Perché sposta l’asse: il peso di scegliere scambia il baricentro. Deresponsabilizza, almeno in apparenza. Ma, nella maggior parte degli usi quotidiani, l’IA è più simile ad uno specchio che illumina alcune parti, lasciandone in ombra altre.
Tira fuori da noi ciò che già abbiamo? Spesso sì.
-
Se le chiedi disciplina, diventa calendario.
-
Se le chiedi consolazione, diventa amica compassionevole.
-
Se le chiedi di giustificarti, trova argomenti per farlo.
Il rischio non è “l’IA condottiera”. Il rischio è l’IA come acceleratore del nostro stile mentale. Se sei lucido, può renderti più lucido. Se sei confuso, può restituirti una confusione ben organizzata.
Ecco perché, paradossalmente, la domanda vera non è “quanto è intelligente”, ma: quanto sei presente quando la usi.
La presenza come filtro, non come morale
La mindfulness, quando è pratica e non slogan, serve a questo: creare uno spazio tra stimolo e risposta. Uno spazio bianco.
Se apri ChatGPT in modalità automatica, mentre scrolli, mentre hai già dieci notifiche addosso, la chat diventa un’altra scorciatoia.
Se invece ti fermi un istante, senti cosa stai cercando davvero, nomini l’intenzione (“voglio chiarezza”, “voglio conferme”, “voglio evitare una scelta”), allora l’IA cambia funzione. Non è più una guida. È un oggetto di attenzione. Uno strumento che passa attraverso di te, non al posto tuo.
È una differenza minima. Eppure decisiva.
IA nello sport: la frase che non si può automatizzare è “ti vedo”
Il direttore tecnico azzurro di biathlon sottolinea l’empatia dell’allenatore, i colloqui a quattr’occhi, l’equilibrio tra carico, motivazione e supporto.
In altre parole: c’è un tipo di competenza che passa dal corpo.
Dal tono della voce quando si è stanchi.
Dall’occhio che nota una micro-tensione, un cedimento, una paura sottaciuta.
Dalla relazione che regge anche quando non si rende.
L’IA può essere un ottimo strumento. Ma uno strumento non guarda. Non rischia insieme. Non perde sonno per te.
E se la chiami “coach”, forse stai dicendo un’altra cosa: ho bisogno di qualcuno che mi tenga insieme.
Quanto le persone sono sole, tanto da rivolgersi a lei?
Siamo onesti.
Molti si rivolgono a un chatbot perché:
-
è sempre disponibile
-
non giudica (o sembra non giudicare)
-
costa poco o nulla
-
non richiede reciprocità: non devi “esserci” per lui
È una relazione a consumo. Perfetta per una società che misura tutto, ottimizza tutto, e poi si stupisce se l’intimità si sbriciola.
La domanda non è “è triste parlare con l’IA?”. La domanda è: perché ci è diventato più facile parlare con una macchina che con una persona?
Forse perché con le persone c’è attrito, storia, responsabilità. Con l’IA c’è solo input-output. Non c’è impegno.
E attenzione: non serve essere “soli” in senso sociale per sentirsi soli. Si può essere circondati e non visti.
Quante figure professionali sta eliminando? Più che eliminare, sta riscrivendo i confini
Lo dicono i report: l’impatto maggiore non è soltanto sui lavori che spariscono, ma sui compiti che cambiano dentro i lavori.
L’ILO (Organizzazione Internazionale del Lavoro) ha sottolineato che, per la GenAI, l’effetto prevalente tende a essere di aumento o integrazione delle mansioni, con esposizione forte per il lavoro d’ufficio e componenti di genere (molti ruoli clerical sono femminili).
L’OCSE evidenzia che molte professioni più esposte sono i colletti bianchi e spesso richiedono istruzione terziaria, mentre mansioni manuali e in ambienti imprevedibili risultano meno esposte.
Il World Economic Forum, nello scenario 2025–2030, parla di una grande riallocazione: posti che si spostano, competenze che diventano obsolete, altre che esplodono. In una sintesi diffusa dal WEF: 92 milioni di ruoli “displaced” entro il 2030 e 170 milioni “created”, ma con un mismatch pesante tra persone, luoghi e competenze.
Tradotto: non è un film in cui l’IA “licenzia tutti”. È più simile a una ristrutturazione infinita, dove chi non si aggiorna scivola ai margini e chi può aggiornarsi corre.
E poi c’è un punto politico, non tecnologico: chi paga la transizione? Tempo, formazione, tutele. Non sono dettagli.
È attendibile? Sì, ma non nel modo in cui speri quando sei stanco
L’attendibilità dell’IA è situazionale. Dipende dal contesto e dal rischio.
Per riassumere, riscrivere, generare idee, organizzare materiale: spesso è utile.
Per decisioni ad alto impatto (salute, terapia, farmaci, diagnosi, questioni legali), l’uso “come medico” raccontato dall’atleta è precisamente ciò che richiede prudenza. È un segnale culturale: stiamo spostando fiducia dove dovremmo mantenere verifica.
Una regola pratica: se una risposta può cambiare il tuo corpo, il tuo denaro, la tua libertà, allora non basta che “suoni bene”. Deve essere verificabile.
L’IA è brava a produrre testi convincenti. Non è la stessa cosa che produrre verità.
Il punto non è “IA sì o IA no”. È: cosa stiamo delegando di noi
Il caso Murashkovskyi è affascinante perché mostra due facce della stessa medaglia: quella migliore e quella peggiore.
Quella migliore: usare strumenti per superare barriere, trovare metodo, sostenersi.
Quella peggiore: normalizzare l’idea che un chatbot possa fare da psicologo e medico, perché costa meno della relazione umana, perché è più rapido, perché non fa domande difficili. Perché non mette in discussione.
E allora torniamo all’inizio, con una frase che vale più di tanti convegni: ChatGPT ci guida davvero o ci riflette?
Forse entrambe le cose, ma a una condizione: che non si consegni il volante.
Che lo si usi come una mappa, non come una coscienza. Come un supporto, non come un sostituto. Come un attrezzo, non come un alibi.
Perché l’empatia non è un optional. È una tecnologia antica. E non ha bisogno di aggiornamenti, ha bisogno di tempo.
L’IA può darti una risposta, ma la domanda, quella vera, resta sempre nostra.
Domande frequenti (FAQ)
1) ChatGPT ci guida davvero o ci riflette?
Più spesso ci riflette: organizza e amplifica ciò che chiediamo, il tono che portiamo, le premesse implicite. Può “guidare” solo in senso operativo (struttura, idee, pianificazione), ma non sostituisce discernimento, esperienza e responsabilità.
2) Perché parlare con un’IA sembra più facile che parlare con una persona?
Perché non c’è reciprocità: l’IA è sempre disponibile, non giudica (o sembra non giudicare) e non chiede nulla in cambio. È una relazione senza attrito, utile in emergenza emotiva, rischiosa se diventa l’unico canale.
3) Quali lavori rischiano di più con la GenAI?
In molti studi risultano più esposte mansioni d’ufficio e compiti testuali ripetitivi, oltre a lavori impiegatizi con parti automatizzabili. Molto spesso non sparisce l’intero lavoro: cambiano i compiti e aumentano le competenze richieste.
4) L’IA eliminerà più lavori di quanti ne creerà?
Le previsioni variano, ma diversi scenari parlano di grandi spostamenti: ruoli che calano e ruoli nuovi che crescono, con un mismatch importante (non stessi lavoratori, non stessi luoghi, non stesse skill).
5) È sicuro usare ChatGPT per consigli medici o psicologici?
Per orientarsi e preparare domande da fare a un professionista può essere utile. Per diagnosi, terapie, farmaci o scelte delicate non è affidabile: può essere convincente anche quando sbaglia. Servono professionisti qualificati e fonti accreditate.
