Moltissime persone in tutto il mondo chiedono consigli sentimentali a ChatGPT. Nel primo semestre del 2025, oltre il 27% delle domande poste all’IA è stato di natura sentimentale. Secondo un recente sondaggio, quasi metà della Gen Z usa questo tipo di strumenti per chiedere consigli sul dating.
In un passato non lontano l’IA forniva risposte piuttosto nette, a volte tranchant. Analizzando i dati che venivano riportati, ricostruendo le storie sentimentali o decodificando i messaggi, ChatGPT si spingeva a suggerire cose come: “Dovresti lasciarlo”. Ma oggi questo tipo di consigli è stato vietato.
Se anche voi avete recentemente usato l’IA per chiedere consigli sentimentali, forse avete notato che le risposte in merito sono sempre più generiche. Gli sviluppatori di ChatGPT sostengono infatti che questo strumento deve essere un “facilitatore di ragionamento” e nulla di più. L’intelligenza artificiale diventa, un po’, quell’amica che ascolta la vostra storia ma non vi dice né sì né no.
Il nuovo aggiornamento del chatbot è stato realizzato in collaborazione con oltre 90 medici, psichiatri e addirittura pediatri. Il focus è la salute mentale. Ci sta chiedere consigli all’IA, ma questa non deve trasformarsi in una macchina delle soluzioni, perché le persone devono prendere in mano la loro vita e decidere in modo autonomo, ragionando. E soprattutto, evitando di scivolare in un vortice di pensieri ripetitivi, potenzialmente lontani dalla realtà e dannosi per l’equilibrio psicologico.
C’è chi intende ChatGPT come uno psicologo a costo zero, oppure come un amico, oppure ancora come un diario. Va bene, ma la relazione che si instaura con la macchina è pur sempre artificiale e non si deve sostituire alle relazioni vere, e neppure può incoraggiare decisioni che devono essere autonome. Gli sviluppatori, come detto sopra, vogliono prevenire il rischio che le persone si disconnettano dalla loro emotività e dai loro strumenti cognitivi. La nuova versione, inoltre, pone un limite alla durata delle chat, inserendo avvisi che invitano a prendersi una pausa (e possibilmente a pensare ad altro).
Secondo uno studio del servizio sanitario britannico i chatbot possono celare un pericolo, quello di stimolare pensieri deliranti o grandiosi in soggetti vulnerabili. Per questo è importante diffondere consapevolezza, incoraggiare un utilizzo saggio dello strumento e porre limiti per scongiurare possibili danni.
E voi, avete mai utilizzato ChatGPT per chiedere consigli sentimentali? Come è stata la vostra esperienza?
Commenti