Cerca nel blog

Visualizzazione post con etichetta mancata controverifica. Mostra tutti i post
Visualizzazione post con etichetta mancata controverifica. Mostra tutti i post

13.8.25

Chiede a ChatGPT come sostituire il sale nella sua dieta quotidiana e finisce in ospedale in preda alle allucinazioni

Gli esperti , ma lo dice anche il buon senso , avvertono che gli strumenti di IA ( e anche internet in generale ) possano si fornire si informazioni generali , ma per i consigli medici e alimentari dovrebbero essere verificati e controllati con operatori sanitari qualificati onde evitare gravi conseguenze come il caso ( vedi articolo sotto per iulteriori dettagli ) di un 60enne di cui non sono state rese note le generalità ha finito ha chiesto a ChatGPT come creare del sale casalingo ed è finito in ospedale in preda alle allucinazioni. Il problema dell'errore di Chatgpt ( e credo delle altre IA ) sta nel fatto che il bromuro di sodio fio agli anni \5\80 era inserto nei farmaci che acquistavamo in farmacia tramite ricetta medica, ovvio che l'intelligenza artificiale lo ha consigliato , si è basato su quello che trovato sulle notizie magari non  aggiornate  o complottiste estreme   sanitarie  .



L'articolo Chiede a ChatGPT come sostituire il sale nella sua dieta quotidiana e finisce in ospedale in preda alle allucinazioni   da me  riportarto  proviene da Open.








Un 60enne di cui non sono state rese note le generalità ha finito ha chiesto a ChatGPT come creare del sale casalingo ed è finito in ospedale in preda alle allucinazioni. Il caso è riportato dalla rivista scientifica statunitense Annals of Internal Medicine: Clinical Cases ed è citato oggi sul Corriere della Sera.
La richiesta a Chat Gpt
L’uomo, dopo essersi informato sui possibili effetti nocivi del sale da cucina sulla salute umana, ha chiesto al popolare chatbot (versione 3.5 o 4) un valido sostituto. La risposta di ChatGPT è stato il bromuro di sodio. Valido però per «per altri scopi, come la pulizia», spiega il paper. Una opzione che però l’AI non avrebbe menzionato. Così, dopo averlo acquistato on line il 60enne lo ha inserito nella sua dieta quotidiana. Tre mesi dopo si è presentato in ospedale nel pieno di un episodio psicotico, convinto che un vicino di casa lo volesse avvelenare. E si è ammalato di bromismo, un’intossicazione cronica debellata negli anni. Ha accusato per settimane paranoie, allucinazioni, disturbi della memoria, confusione mentale. Tutti sintomi della sindrome che «si riteneva contribuisse fino all’8% dei ricoveri psichiatrici, poiché i sali di bromuro erano presenti in molti farmaci da banco destinati a una vasta gamma di disturbi, tra cui insonnia, isteria e ansia», spiegano sulla rivista scientifica. Il caso è emblematico per sottolineare i limiti dell’intelligenza artificiale, spesso nelle diagnosi fai da te, che possono «potenzialmente contribuire allo sviluppo di conseguenze negative per la salute che potrebbero essere evitate».


Procuratrice Ancona, 'non tutti i casi di violenza sono uguali'

© Provided by ANSA (ANSA) - ANCONA, 04 DIC - "Questa storia lascia l'amaro in bocca, non si possono trattare tutti i casi di violen...