Podcast Episode Details

Back to Podcast Episodes
Un milione di persone ogni settimana parla di suicidio con ChatGPT

Un milione di persone ogni settimana parla di suicidio con ChatGPT



Un milione di persone ogni settimana parla di suicidio e altri comportamenti autolesionistici mentre usa ChatGPT.
Lo ha reso noto la stessa società che gestisce il servizio di AI generativa più popolare del mondo lo scorso 27 ottobre insieme a una serie di altri dati su altri generi di conversazione, ovviamente meno preoccupanti ma non certo rassicuranti.
La sigla e ne parliamo.

[SIGLA]

È una classica situazione da bicchiere mezzo vuoto o mezzo pieno a seconda i punti di vista o, considerata l’ora, da tazzina di caffè con un caffè troppo corto o corto quasi al punto giusto.
Stiamo parlando dei dati che OpenAI ha pubblicato nei giorni scorsi, dati che essenzialmente, dicono due cose: che le conversazioni su ChatGPT restano in un numero rilevante di casi pericolose ma che sono sensibilmente meno pericolose che in passato perché la società si sta impegnando a affrontare e gestire questo genere di problemi.
Alcuni numeri, però, mettono i brividi.
Il primo è appunto quello di quel milione di persone in soli sette giorni che manifesterebbe propositi o intenzioni suicida o autolesioniste mentre usa ChatGPT.
Oggettivamente tante, anzi tantissime se si considera l’oggetto delle conversazioni e se si tiene conto della facilità con la quale, talvolta, si passa dalle parole ai fatti come hanno raccontato alcuni drammatici episodi.
Gli altri numeri, pure importanti, naturalmente, appaiono meno gravi.
Quello, analogo, degli utenti che manifestano "livelli elevati di attaccamento emotivo a ChatGPT" e quello da centinaia di migliaia di persone che mostrano segni di psicosi o mania nelle loro conversazioni settimanali.
Tutti fenomeni gravi e preoccupanti.
Ma, per chi voglia guardare la tazzina di caffè piena al punto giusto, tutti numeri inferiori a quelli di qualche mese fa e, naturalmente, di quelli che si sarebbero registrati, se fossero stati misurati con le stesse metriche, al momento del debutto.
OpenAI, insomma, e i numeri appena pubblicati in un’operazione di trasparenza comunque apprezzabile lo confermano, sta lavorando per contenere questo genere di fenomeni.
Tanto per fare un esempio, i dati suggeriscono che il nuovo modello GPT-5 ha ridotto le risposte indesiderate, nel caso di utenti che manifestano propositi suicida o autolesionisti, del 52% rispetto al GPT-4°.
Bene, naturalmente.
Difficile dire se anche benissimo, non conoscendo il numero delle risposte indesiderate che ChatGPT continua a dare agli utenti che usandolo parlano di suicidio.
E però la domanda da porsi probabilmente è un’altra e, bene dirlo subito, non riguarda solo ChatGPT e OpenAI ma l’intero universo dei chatbot.
Milioni di persone ogni settimana, conversando solo con ChatGPT evidenziano propositi suicida e autolesionisti, mostrano livelli elevati di attaccamento emotivo a ChatGPT e segni di psicosi o mania.
E se questa è la situazione in casa OpenAI è verosimile che non sia diversa quella che va in scena sulle pagine degli altri fornitori di servizi analoghi.
Uno scenario oggettivamente pericoloso con rischi, probabilmente, da considerarsi elevati se non in termini assoluti, in relazione alla natura degli interessi in gioco.
La domanda con la quale salutarci questa mattina, quindi, a me pare debba essere: siamo certi che servizi del genere possano essere distribuiti liberamente fuori da ogni regola che identifichi gli standard oltre i quali il rischio deve considerarsi insostenibile e imponga guardrails precisi a tutela degli utenti, a cominciare dai più giovani.
Personalmente non credo si possa andare avanti così, utilizzando il mercato come se si trattasse di un laboratorio nel quale sperimentare le proprie soluzioni e le persone come cavie.
Ma parliamone.

Buona giornata e, naturalmente, goodmorningprivacy!


Published on 1 month, 2 weeks ago






If you like Podbriefly.com, please consider donating to support the ongoing development.

Donate