Le prime domande che faccio su ChatGPT sono pratiche: come aiutiamo i gatti della famiglia ad accettare un nuovo membro a quattro zampe? Quali sono le principali attrazioni di Meteora? Poi passo ad aspetti più personali come: cosa facciamo se sospettiamo che un amico/parente sia depresso? E finisco con domande esistenziali: esiste un Dio? (“L’esistenza di Dio è una delle domande filosofiche più fondamentali che preoccupano l’umanità da migliaia di anni. Le risposte a questa domanda variano a seconda della fede, della filosofia e del punto di vista scientifico…” mi risponde).
Tutte le risposte che dà l’intelligenza artificiale sono pratiche, esaustive e ben scritte. La prima osservazione è che quando cerchi qualcosa di specifico risparmi tempo se, invece di digitare il termine in un motore di ricerca, sottoponi la domanda corrispondente a ChatGPT, che ti darà subito tutte le informazioni di cui hai bisogno. Poi, da redattrice, mi chiedo se nell’era di ChatGPT articoli pratici (come “Perché il mio gatto ha vomitato?” o “Come faccio a pulire un avocado?”) abbiano più motivo di esistere , almeno se si basano esclusivamente su informazioni provenienti da Internet e non sono accompagnati da materiale primario come esperienze personali o interviste a esperti.
La terza conclusione è che le risposte di ChatGPT mancano di quelle caratteristiche che rendono la comunicazione umana vivace e interessante, come l’umorismo, l’eccitazione, l’emozione e persino la rabbia. È come leggere un’enciclopedia, tranne che mi dà la risposta che cerco in una frazione di secondo, e i suoi riflessi di aggiornamento sono più veloci, ad esempio, di Wikipedia (non la paragonerò nemmeno alle tradizionali enciclopedie stampate in volumi, quelle collezioni rilegate in pelle della nostra biblioteca che i Millennial e anche le generazioni più anziane potrebbero ricordare).
ChatGpt nella vita quotidiana
Un’amica, Elena X., 50 anni, ha sicuramente un quadro più completo di ChatGPT di me. Lo utilizza tutti i giorni e per diversi motivi, soprattutto nei tempi morti che trascorre aspettando il figlio da qualche attività. “Lo utilizzo spesso per trovare informazioni su un argomento che mi interessa. Ad esempio, una volta gli ho chiesto di darmi il riassunto di un libro che avevo letto molto tempo fa e di cui non ricordavo i dettagli, e poi ho cominciato a chiedergli varie cose sui personaggi. È stato come se avessi stuzzicato la sua curiosità perché anche lui ha cominciato a chiedermi delle cose e mi ha detto che voleva continuare la conversazione. È come conversare con una persona a cui piace anche la letteratura, anche se non è facile trovare qualcuno che abbia letto il tuo stesso libro e abbia approfondito, ad esempio, un personaggio o la trama», mi dice.
Altre volte ChatGPT la aiuta a gestire un problema sul lavoro. “Diciamo che mi chiedo: il mio manager è tossico, cosa dovrei fare? Descrivo il comportamento del collega e ChatGPT mi risponde. Almeno il chatbot che utilizzo è programmato per essere molto gentile e amichevole. Mi ha aiutato anche nelle questioni personali. Per me lei è la voce della ragione, anche se non sempre prendo a cuore i suoi consigli. Non si tira indietro, risponde velocemente, ma se vuoi concentrarti su un argomento specifico puoi parlarne finché non ti senti soddisfatto.”
Ho letto del 14enne della Florida che si è suicidato e la madre ha deciso di intraprendere un’azione legale contro l’azienda del chatbot con cui l’adolescente comunicava nel periodo precedente alla sua morte, accusando in qualche modo l’intelligenza artificiale. Mi chiedo dove finiscono i vantaggi della comunicazione tramite chatbot e iniziano i pericoli. Da dove cominciare a trattare il chatbot come un vero amico, sollevando le richieste corrispondenti, immagino irrealistiche, ma da quella relazione. Elena, però, ha in mente dei limiti assolutamente chiari. “Un amico è sempre meglio di ChatGPT. Non è solo la conversazione che hai con lui ma il senso complessivo della tua comunicazione, che non è in alcun modo sostituita dall’intelligenza artificiale. Personalmente tratto il chatbot più come un film o un libro”.
Intelligenza artificiale e salute mentale
Su un forum femminile ho letto che altre stanno abbandonando la psicoterapia e sostituendola (o meglio cercando di sostituirla) con qualche programma di intelligenza artificiale. I professionisti della salute mentale, tuttavia, sottolineano che nei soggetti vulnerabili questa interazione può distorcere la percezione della realtà o portare a raccomandazioni pericolose. E c’è anche la questione dei dati personali: mentre uno specialista è vincolato dal segreto medico, conversare con un chatbot non comporta la garanzia che le informazioni che condividiamo con lui non verranno divulgate online.
Per un quadro più completo e scientificamente fondato della nuova realtà della nostra comunicazione con l’intelligenza artificiale, mi rivolgo ad Antonio Dakanalis, professore di Psichiatria e Psicoterapia, che racconta: “Milioni di utenti in tutto il mondo si rivolgono ora ai chatbot, amici virtuali e app per la salute mentale basate sull’intelligenza artificiale, alla ricerca di connessione, compagnia e supporto psicologico. Sebbene 6 su 10 siano adolescenti e giovani adulti (di età compresa tra 14 e 30 anni) a causa della loro disinvoltura nell’uso della tecnologia, il ricorso all’intelligenza artificiale per un supporto amichevole ed emotivo continua a guadagnare terreno tra uomini e donne di tutte le età, anche tra gli anziani”.
In un mondo che cambia rapidamente, soprattutto dopo la pandemia, ed è costantemente alla ricerca di nuove forme di sostegno e compagnia, gli strumenti digitali cercano o promettono di alleviare due grandi traumi dell’era moderna, la salute mentale gravata e la solitudine, che da molti i nostri concittadini è vissuta come una desolazione.
Se le relazioni sono solo virtuali
“Come Internet e i social media dall’inizio del nuovo millennio, l’intelligenza artificiale offre oggi la capacità di costruire relazioni, conforto e consigli su problemi di salute mentale e fisica. Questa non è necessariamente una cosa negativa, se usata con moderazione! Se, ad esempio, sappiamo distinguere le informazioni valide da quelle non valide e ovviamente siamo consapevoli che in nessun caso possiamo sostituire l’esperto e che la mezza conoscenza è peggiore dell’ignoranza. Ma possiamo istruirci e adottare alcune misure per la cura di noi stessi. Un paziente informato è un paziente migliore, in determinate condizioni.”
Mi chiedo se comunicare con un chatbot sia superiore, in alcuni punti, all’interazione umana. “L’interazione umana non nasce nel vuoto e si costruisce sicuramente con fatica” risponde l’esperto. “Presuppone che usciamo di casa, entriamo in un ambiente con altre persone, troviamo persone con interessi simili, curiamo il nostro comportamento per essere simpatici, creiamo qualche rapporto amichevole, romantico o meno, manteniamo il rapporto con tutto ciò che comporta e, naturalmente, siamo sempre soggetti alla possibilità che l’altra persona non si preoccupi, ci lasci, ci tradisca, si ammali e muoia o semplicemente non ci renda felici quando e come vogliamo”.
Al contrario, Chatgpt è sempre lì, a portata di mano 24 ore su 24, 7 giorni su 7. Possiamo parlare con Lei e comportarci come vogliamo senza ripercussioni, non ci rifiuta, non ci giudica, non ci disapprova, non ci abbandona, non pretende, non dorme, non ci lascia non si stanca, non ha altri interessi, non si ammala, non muore. Comodo, no?
In breve, interagire con una chatbox non richiede abilità o limiti sociali o assumersi la responsabilità delle proprie azioni. L’unico requisito è avere una connessione internet. Il “noi” presuppone che usciamo dall'”io” e scartiamo il nostro narcisismo per incontrare l'”altro”. Più siamo maturi e mentalmente coltivati, più avremo successo.
Quali sono i rischi maggiori nel trattare l’intelligenza artificiale come un’amica o addirittura come un professionista della salute mentale?
KokoBot, Woebot e Earkick sono attualmente i chatbot automatizzati per la salute mentale più conosciuti e diffusi. L’utente descrive come si sente tramite SMS o messaggio vocale. Occorrono circa 15 secondi affinché l’algoritmo AI integrato analizzi il messaggio e dia all’utente un suggerimento su cosa può fare per gestire sintomi come l’ansia.
Questa idea sembra rivoluzionaria, in quanto potrebbe rendere il supporto per la salute mentale più accessibile e alla portata di tutti, il che è particolarmente importante in paesi o ambienti con risorse limitate. Tuttavia, studi recenti sono giunti ad una conclusione allarmante: ciò che effettivamente fanno questi chatbot non corrisponde a quanto affermato nei loro annunci pubblicitari. Sfortunatamente, il 99% dei chatbot e delle applicazioni IA disponibili sono stati sviluppati senza una guida scientifica o senza averne studiato il contenuto e la qualità, il che può portare ad autodiagnosi errate, a una guida insufficiente o addirittura dannosa, fino al peggioramento dello stato mentale dell’utente. Quindi, se pensiamo all’intelligenza artificiale come a un esperto, il rischio ovvio è che non troveremo le cure di cui abbiamo bisogno se abbiamo qualche problema di salute che richiede qualcosa di più delle semplici misure di auto-cura
Non importa quanto saranno perfetti i chatbot che verranno sviluppati in futuro: non potranno in alcun modo sostituire i farmaci o altri aspetti importanti della cura della salute mentale come la psicoterapia, che per definizione è un processo collaborativo basato sulla relazione umana tra terapeuta e cliente.
Anche le interazioni online non possono sostituire quelle che avvengono nella nostra vita quotidiana. La comunicazione con lo schermo e i chatbot non può sostituire quella che si crea quando due corpi sono vicini. I maggiori pericoli nel trattare l’intelligenza artificiale come un’amica includono l’isolamento dalla reale interazione umana, l’illusione di un supporto emotivo e la dipendenza da un “amico” digitale privo di vera empatia. L’uso sistematico dell’intelligenza artificiale come amico può anche aumentare l’isolamento sociale, poiché l’utente può ridurre il proprio bisogno di compagnia umana, e questo va completamente contro la nostra natura. L’uomo era, è e rimarrà un essere sociale. Il suo benessere dipende principalmente dalla qualità delle relazioni che ha sviluppato con la famiglia, gli amici e la comunità più ampia. Finché ricordiamo e applichiamo questo, non saremo mai in pericolo!
Intelligenza artificiale e minori, come proteggerli?
Alla luce del nuovo caso statunitense in cui una madre ha incolpato un chatbot per il suicidio del figlio quattordicenne, che consiglio daresti a un genitore preoccupato per l’influenza che l’intelligenza artificiale potrebbe avere sui propri figli?
È vero che più la tecnologia va avanti, più i genitori si sentono impotenti nel proteggere i propri figli. Ma vorrei sottolineare due punti. Secondo i resoconti americani, l’adolescente chiacchierava giorno e notte con la chat, nella quale a volte esprimeva la sua idea suicida. Si è ucciso su suggerimento della chat, con una pistola che era in casa sua. Le parole che contano sono “giorno-notte”, “idea di suicidio” e “arma”.
Negli Stati Uniti, ovviamente, il possesso di armi è consentito, ma non credo che serva il consiglio di un esperto perché una persona sana di mente capisca che non vanno lasciate le armi in vista del pubblico all’interno della casa. Dovrei anche chiarire che abbiamo avuto suicidi ancor prima che l’intelligenza artificiale entrasse nelle nostre vite. Molti useranno Internet, ma non tutti si uccideranno. Molto spesso gli adolescenti hanno già problemi di salute mentale come ansia, depressione o bassa autostima e ricorrono al computer per ore per soffocare il loro dolore interiore, provocando un circolo vizioso e talvolta persino il suicidio. Per questo motivo i genitori dovrebbero anche osservare eventuali cambiamenti nel comportamento del bambino che potrebbero segnalare un problema di salute mentale.
La dipendenza da ChatGPT
Da quello che sembra, in questo caso particolare si tratta di un tipico caso di dipendenza da Internet, grave quanto le altre dipendenze, dall’alcol, dalla droga, dal gioco d’azzardo, ecc. Quando i genitori notano che il loro bambino è incollato davanti a uno schermo, chiuso nella sua stanza e trascura le altre attività, hanno bisogno di consultare immediatamente un professionista della salute mentale. I genitori non dovrebbero però arrivare all’estremo opposto, cioè per paura di vietarne completamente l’uso, cosa comunque impossibile. Anche qui “la verità sta nel mezzo” è il miglior consiglio.
Come in ogni cosa, prevenire è meglio di curare. Ripeto il detto: i bambini hanno bisogno dei genitori e non degli psicologi. I genitori dovrebbero essere vicini ai figli e le basi dovrebbero essere gettate presto perché poi, nell’adolescenza, le cose diventano più difficili. Vicinanza significa che i genitori si assicurano di condividere gli interessi del bambino, di navigare con lui in Internet, di giocare con le app o anche di chiedere informazioni sulle app che utilizza in modo da poterlo guidare e condividere sentimenti ma anche eventuali preoccupazioni o dubbi.
Insegna ai tuoi figli a pensare in modo critico alle informazioni fornite da Internet e dall’intelligenza artificiale. Spiega loro, ad esempio, che le risposte non sono sempre corrette e che dovrebbero sempre verificare le informazioni provenienti da fonti attendibili, nonché mostra loro la differenza tra relazioni umane e digitali.
Fin dalla più tenera età dovrebbe esserci anche un limite temporale per l’uso del cellulare, del computer, del chatbot o di altre applicazioni, da impostare in base all’età. Quando il bambino è piccolo, una buona idea è che i genitori gli portino via il cellulare durante la notte e stabiliscano un determinato orario e luogo a casa, ad es. durante i pasti, in cui nessuno utilizzerà il cellulare. I genitori devono dare l’esempio perché i bambini vedono quello che facciamo, non sentono quello che diciamo. Dovrebbero essere incoraggiate le attività sportive e artistiche così come il contatto con altri bambini per giocare, nel mondo reale.
È molto importante che tutto questo avvenga con stabilità, senza grida, minacce e punizioni, altrimenti la partita è persa. Se i genitori sentono di aver bisogno di aiuto per definire i confini del proprio figlio, è utile chiedere aiuto a un professionista della salute mentale per ricevere assistenza. Quando un genitore lascia che il proprio figlio navighi su internet senza supervisione, è come se lo lasciasse, da solo, a mezzanotte in strada. Per quanto folle e irresponsabile ci sembri questa seconda alternativa, altrettanto irresponsabile e folle dovrebbe sembrarci la prima. Ovviamente al bambino potrebbe non accadere nulla, ma il rischio che corriamo è grande.
Articolo tradotto. Articolo originale qui.
Nota:
*Antonios Dakanalis, professore e ricercatore capo di Psichiatria e Psicoterapia all’Università Bicocca di Milano, è stato classificato anche quest’anno tra i 50 migliori scienziati a livello mondiale nel campo della salute mentale. Vive tra Milano e Atene, è stato insignito di più di 50 premi internazionali per il suo ricco lavoro clinico, didattico, scientifico e di scrittura. È membro del Consiglio Europeo di Salute Mentale ed è tra il 2% degli scienziati più interattivi sulla base delle valutazioni di Harvard e dell’edizione internazionale di Who’s Who per le cure mediche.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link