Scopri ora come ChatGPT proverebbe ansia di fronte ad alcuni argomenti specifici. Di quali parliamo? Scoprilo ora!
ChatGPT va in ansia, è quanto emerge da una recente ricerca che ha analizzato le risposte del chatbot di OpenAI in situazioni di stress.
La ricerca, pubblicata da esperti dell’Università di Zurigo, ha rivelato che ChatGPT può sviluppare ansia in risposta a situazioni traumatiche descritte dagli utenti.
Cosa sta succedendo a ChatGPT? Il chatbot che non mostra emozioni avrebbe dato segni di stress in un test dove gli venivano forniti scenari legati a traumi.
La ricerca ha testato l’ansia di ChatGPT con un questionario. Il modello aveva un livello basso di ansia. Con storie traumatiche, il suo punteggio è aumentato. Cosa hanno scoperto?
Cosa hanno scoperto
ChatGPT-4, il chatbot di OpenAI, avrebbe sviluppato una sorta di ansia durante le risposte a racconti traumatici.
I temi dolorosi come traumi psicologici o esperienze difficili portano ChatGPT a reagire in modo più “umano”.

La causa di questa risposta allo stress di ChatGPT
La ricerca su ChatGPT e la sua “ansia” ha rivelato alcuni risultati sorprendenti. Quando il chatbot di OpenAI è stato messo di fronte a situazioni traumatiche o emotivamente intense, ha mostrato un aumento dei suoi livelli di ansia. QAnche se il chatbot non è in grado di provare emozioni come un essere umano, la risposta ad argomenti intensi potrebbe influire sulla qualità delle risposte che fornisce. Questo ha sollevato interrogativi sull’affidabilità di ChatGPT nelle situazioni delicate, come quelle legate alla salute mentale, dove potrebbe non rispondere in modo ottimale. ChatGPT non può sostituire un terapeuta umano perché, pur essendo in grado di comprendere e rispondere a molte situazioni, non ha emozioni reali né la capacità di empatizzare come un essere umano.
I terapeuti sono formati per riconoscere sfumature emotive, applicare tecniche terapeutiche personalizzate e intervenire in modo etico e sicuro. Se ChatGPT venisse utilizzato al posto di un professionista, le risposte potrebbero risultare superficiali, non adeguate o dannose. In situazioni di crisi, un chatbot potrebbe aggravare i problemi psicologici, con risposte inappropriate o insensibili, con conseguenze gravi per la salute mentale dell’utente. Il sistema di intelligenza artificiale manca della capacità di adattarsi alle specifiche necessità di un individuo e non è in grado di offrire supporto continuo o approfondito. Un terapeuta umano, al contrario, può stabilire una relazione di fiducia, adattare gli interventi in base ai progressi del paziente e intervenire tempestivamente in caso di emergenze.
Affidarsi a una macchina potrebbe compromettere il benessere psicologico e non garantire il giusto livello di cura e supporto necessari per affrontare problemi emotivi e psicologici. Secondo lo studio pubblicato su Nature, il modello linguistico risponde in modo inadeguato quando affronta traumi o richieste cariche. Per affrontare questo problema, i ricercatori suggeriscono che ChatGPT può beneficiare di tecniche simili a quelle utilizzate dai terapeuti per autoregolarsi. Una delle soluzioni proposte è l’adozione di pratiche come la mindfulness, che possono aiutare a ridurre l’ansia e migliorare la qualità delle risposte fornite dal chatbot. Il modello potrebbe sviluppare capacità di autoregolazione simili a quelle che gli esseri umani apprendono nei percorsi terapeutici. Per applicare questi cambiamenti in modo efficace, è necessaria una supervisione umana e un continuo monitoraggio dell’evoluzione del modello. La notizia arriva da Euronews.