Oltre un milione di utenti di ChatGpt inviano messaggi che indicano “espliciti intenzioni o progetti suicidi ogni settimana”.
Lo rivela una ricerca pubblicata da OpenAi, nella quale si sottolinea inoltre che circa lo 0,07% degli utenti attivi in una settimana mostra “segni di possibili problemi di salute mentale legate a psicosi o mania”. I dati arrivano proprio in un momento in cui OpenAi si trova ad affrontare uno scrutinio sempre più serrato in seguito alla causa della famiglia di un adolescente morto suicida dopo un’intensa attività con ChatGpt.
Lo rivela una ricerca pubblicata da OpenAi, nella quale si sottolinea inoltre che circa lo 0,07% degli utenti attivi in una settimana mostra “segni di possibili problemi di salute mentale legate a psicosi o mania”. I dati arrivano proprio in un momento in cui OpenAi si trova ad affrontare uno scrutinio sempre più serrato in seguito alla causa della famiglia di un adolescente morto suicida dopo un’intensa attività con ChatGpt.
Il mese scorso, la Federal Trade Commission ha inoltre avviato un’ampia indagine sulle aziende che creano chatbot basati sull’intelligenza artificiale, tra cui OpenAi, per scoprire come misurano gli impatti negativi su bambini e adolescenti. Il gigante dell’intelligenza artificiale ha assicurato che il suo recente aggiornamento di Gpt-5 ha migliorato la sicurezza degli utenti e ha ampliato l’accesso alle linee di assistenza in caso di crisi. Per apportare miglioramenti al modello, l’azienda ha dichiarato di aver arruolato 170 medici della sua rete globale di esperti sanitari per assisterla nella ricerca degli ultimi mesi. (Ansa)
