Sempre più persone usano ChatGPT per parlare di problemi personali, momenti difficili e fragilità emotive.
OpenAI ha iniziato il rilascio di una novità chiamata “Trusted Contact”, una funzione opzionale che permette agli utenti adulti di indicare una persona fidata da contattare in situazioni considerate potenzialmente pericolose. Dietro questa scelta c’è un tema che negli ultimi mesi è diventato sempre più delicato: il rapporto tra chatbot AI, salute mentale e gestione delle crisi emotive.
Non si tratta di un semplice aggiornamento tecnico. Questa volta il cambiamento tocca direttamente il modo in cui molte persone vivono ChatGPT nella vita reale, spesso come uno spazio privato dove sfogarsi, chiedere consigli o parlare apertamente di ansia, depressione e isolamento.
La nuova opzione permette di scegliere una sola persona adulta — un familiare, un amico oppure un caregiver — da associare al proprio account ChatGPT. La persona selezionata deve accettare l’invito entro una settimana affinché il collegamento venga attivato.
Secondo OpenAI, se i sistemi automatici rilevano conversazioni che fanno pensare a un rischio serio di autolesionismo o suicidio, il chatbot può incoraggiare l’utente a parlare con il contatto scelto. A quel punto interviene anche un team umano specializzato che valuta la situazione prima di eventuali notifiche.
L’aspetto più delicato riguarda proprio la comunicazione verso il contatto fidato. OpenAI precisa che non vengono condivise chat complete, trascrizioni o dettagli personali della conversazione. Il messaggio inviato sarebbe volutamente limitato e servirebbe soltanto a suggerire alla persona di verificare come sta l’utente.
La funzione è facoltativa e può essere rimossa in qualsiasi momento dalle impostazioni dell’account.
Perché OpenAI sta introducendo questa novità
Negli ultimi mesi il tema della sicurezza dei chatbot AI è diventato molto più pesante rispetto al passato. OpenAI si è trovata sotto pressione dopo diversi casi mediatici e alcune azioni legali legate a conversazioni considerate problematiche o emotivamente rischiose.
Il punto è che ChatGPT non viene più usato soltanto per scrivere email o fare ricerche veloci. Molti utenti ormai lo utilizzano come interlocutore quotidiano, spesso in momenti di forte vulnerabilità personale. Ed è qui che la questione cambia completamente.
OpenAI spiega di aver sviluppato Trusted Contact insieme a psicologi, medici ed esperti di prevenzione del suicidio, sostenendo che il collegamento con persone reali possa rappresentare un fattore protettivo importante nei momenti di crisi.
Allo stesso tempo, però, il tema della privacy resta enorme. Per alcuni utenti il fascino di ChatGPT sta proprio nell’idea di poter parlare liberamente senza coinvolgere nessun altro. Sapere che certe conversazioni potrebbero portare a una segnalazione, anche se limitata, potrebbe cambiare il modo in cui molte persone usano il servizio.

Un cambiamento che apre nuove domande (www.melablog.it)
La nuova funzione arriva in un periodo in cui l’intelligenza artificiale viene osservata con molta più attenzione rispetto a pochi anni fa. Ricercatori e studiosi continuano infatti a discutere dei limiti dei modelli AI, soprattutto quando entrano in contatto con aspetti psicologici ed emotivi molto delicati.
OpenAI insiste sul fatto che Trusted Contact non sostituisce medici, psicologi o servizi di emergenza. È pensato come un ulteriore livello di supporto, non come uno strumento sanitario vero e proprio.
Eppure il semplice fatto che un chatbot possa decidere — insieme a sistemi automatici e revisori umani — quando sia il caso di avvisare qualcuno, segna un passaggio importante nel rapporto tra AI e vita privata.
Fino a poco tempo fa ChatGPT sembrava soltanto un assistente digitale evoluto. Oggi invece si sta trasformando lentamente in qualcosa di molto più vicino a un interlocutore personale permanente. Ed è proprio questo che sta iniziando a cambiare completamente la discussione intorno all’intelligenza artificiale.