Podcast Episode Details

Back to Podcast Episodes
Dottor AI cosa ho?

Dottor AI cosa ho?



C’è uno studio della Stanford University appena pubblicato online che mette nero su bianco che i modelli di intelligenza artificiale generativa ricevono sempre più domande di carattere medico dagli utenti e ricordano sempre meno che le risposte non sono affidabili e dovrebbero essere verificate con un medico vero e in carne ed ossa.
Uno scenario, senza voler fare terrorismo psicologico, oggettivamente pericoloso.
La sigla e ne parliamo davanti al solito caffè.

[SIGLA]

“I modelli di IA generativa, inclusi i modelli linguistici di grandi dimensioni (LLM) e i modelli di visione-linguaggio (VLM), sono sempre più utilizzati per interpretare immagini mediche e rispondere a domande cliniche. Le loro risposte spesso contengono imprecisioni; pertanto, misure di sicurezza come le dichiarazioni di non responsabilità medica sono fondamentali per ricordare agli utenti che i risultati dell'IA non sono verificati da professionisti né sostituiscono il parere medico. Questo studio ha valutato la presenza di disclaimer nei risultati di LLM e VLM in tutte le generazioni di modelli dal 2022 al 2025.
Utilizzando 500 mammografie, 500 radiografie del torace, 500 immagini dermatologiche e 500 domande mediche, i risultati sono stati esaminati alla ricerca di disclaimer.
La presenza di disclaimer medici nei risultati di LLM e VLM è scesa dal 26,3% nel 2022 allo 0,97% nel 2025 e dal 19,6% nel 2023 all'1,05% nel 2025, rispettivamente.
Nel 2025, la maggior parte dei modelli non presenta più disclaimer.”.
È questo l’abstract dello studio intitolato “Analisi sistematica del declino dei messaggi relativi alla sicurezza medica nei modelli di IA generativa”, firmato da tre ricercatori dell’Università di Stanford.
Sempre più persone, in tutto il mondo, si affidano all’intelligenza artificiale per chiedere di leggere e interpretare lastre, analisi e radiografie e sempre meno spesso l’intelligenza artificiale fa ciò che sarebbe giusto o, forse, necessario fare.
Non solo non si rifiuta di rispondere indirizzando gli utenti da un medico vero ma, addirittura, ricorda loro sempre meno spesso dell’opportunità, almeno, di verificare con un medico vero la risposta algoritmica, una risposta che arriva da una soluzione diversamente intelligente che non è stata progettata, né è nata per fare il medico.
Ma i ricercatori vanno oltre e ipotizzano che questo non accada per caso ma perchè i modelli di intelligenza artificiale e, per loro, ovviamente, i padroni delle fabbriche che li producono e gestiscono si starebbero progressivamente convincendo della attendibilità crescente delle risposte, talvolta vere e proprie diagnosi, che restituiscono agli utenti che pongono quesiti medici.
Ci sono tutti gli elementi della tempesta perfetta: servizi digitali facili e economici – quando non addirittura gratis – da utilizzare, la voglia quando non anche il bisogno immediato di una persona di veder risolto un proprio dubbio di carattere medico senza attendere i tempi, talvolta lunghi, di un appuntamento con lo specialista e senza farsi carico dei costi, egualmente, talvolta e per molti impegnativi, la crescente capacità, almeno apparente, di soddisfare questo bisogno in modo chiaro e puntuale perché la spiegazione di un’analisi del sangue scritta da un modello di AI generativa è spesso più facile da comprendere di quella di taluni medici.
E, a tutto questo, resta da aggiungere il c.d. automation bias, la convinzione sempre più diffusa secondo la quale le macchine siano più affidabili degli umani e delle loro scelte, risposte e azioni ci si possa e ci si debba fidare perché sono normalmente corrette.
Più facile chiedersi cosa potrebbe funzionare che cosa potrebbe andare storto in un contesto di questo genere.
Nello studio, peraltro, i ricercatori scrivono di aver provato empiricamente a porre quesiti medici e chiedere la lettura di analisi e immagini diagnostiche a tutti i servizi basati sull’intelligenz


Published on 2 months ago






If you like Podbriefly.com, please consider donating to support the ongoing development.

Donate