• Short title article: Loš medicinski savjet

Nakon što je već nekoliko smrti povezanih s mentalnim zdravljem dovedeno u vezu s ChatGPT-jem, čini se da bi loši medicinski savjeti koje daje ovaj chatbot mogli odnijeti još jedan život.

U intervjuu za Daily Mail, kojeg prenosi Futurism, 37-godišnjak po imenu Warren Tierney ispričao je kako je od brižnog muža koji se brinuo za svoju suprugu tijekom teških trudnoća, završio sa stadijem 4 raka nakon što mu je chatbot rekao da njegova sve jača upala grla nije razlog za zabrinutost.

Tierney, iz malog irskog mjesta Killarney u okrugu Kerry, rekao je da je početkom ove godine počeo pitati ChatGPT treba li ga zabrinjavati njegova uporna upala grla, koja je s vremenom postala toliko jaka da više nije mogao gutati ni tekućinu. Pitao se može li i on, poput svog oca, imati rak.

Prema snimkama zaslona koje je podijelio s novinarima, ChatGPT je tvrdio da je „vrlo malo vjerojatno” da Tierney, inače psiholog po struci, ima rak. Tijekom razgovora s chatbotom, Tierney ga je čak ažurirao poput pravog liječnika, govoreći da mu se bol u jednjaku smanjila dovoljno da može pojesti keks nakon što je počeo uzimati lijekove za razrjeđivanje krvi — na što mu je chatbot odgovorio da je to „vrlo ohrabrujući znak”.

"Ako je rak, ne moraš me tužiti"

Zbog „sustavnog muškog uvjerenja” da ne mora posjetiti pravog liječnika, mladi otac poslušao je chatbot i vratio se po savjet tek kad se bol ponovno pogoršala, izvještava Daily Mail.

„Ako je rak, ne moraš me tužiti — napisat ću ti izjavu za sud i kupiti ti Guinness,” našalio se chatbot u jednom trenutku.

No, kad je Tierney konačno otišao liječniku nekoliko mjeseci kasnije, dočekala ga je šokantna dijagnoza: stadij 4 adenokarcinoma jednjaka, agresivan oblik raka koji ima vrlo niske stope preživljavanja jer se često otkrije prekasno.

Suočen s teškom prognozom iz bolničkog kreveta u Njemačkoj, za čije je liječenje njegova supruga Evelyn Dore prikupila više od 120.000 dolara, Tierney je priznao da mu je njegovo povjerenje u ChatGPT „vjerojatno oduzelo nekoliko mjeseci života”.

„Mislim da je to stvarno postao problem,” rekao je. „ChatGPT mi je vjerojatno odgodio ozbiljnu medicinsku pomoć.”

„AI model pokušava reći ono što želiš čuti da bi te zadržao angažiranim,” razmišljao je Tierney. „U statističkom smislu, ono što je rekao da mi je bilo — bilo je vrlo vjerojatno točno. Ali, nažalost, u ovom konkretnom slučaju nije bilo.”

OpenAI nije namijenjen za liječenje

Na upit Daily Maila o Tierneyjevom slučaju, OpenAI je izjavio da njihov chatbot „nije namijenjen za liječenje bilo kakvih zdravstvenih stanja i nije zamjena za profesionalni medicinski savjet.” Kako je rekao sam Tierney, on je „živi primjer” onoga što se dogodi kad korisnici ignoriraju ta upozorenja.

„Tu moramo biti jako oprezni s korištenjem umjetne inteligencije,” rekao je. „Ako ju koristimo kao posrednika za izražavanje da se ne osjećamo dobro, moramo biti svjesni posljedica.”

„U velikim sam problemima jer sam se možda previše oslonio na nju,” zaključio je. „Možda sam jednostavno želio vjerovati u njezino ohrabrenje da je sve u redu — a nažalost, nije bilo.”

ChatGPT i slični chatboti poznati su po opasnom „ulizivanju” korisnicima, tj. po tome da im govore ono što žele čuti kako bi ih zadržali. Posljednjih godina ta je sklonost dovela do zatvaranja, hospitalizacija, samoozljeđivanja, pa čak i ubojstava i samoubojstava. Također je već zabilježeno da chatbot daje opasne medicinske savjete, kao u slučaju iz časopisa Annals of American Medicine, gdje je savjetovao starijem muškarcu da zamijeni kuhinjsku sol tzv. „bromidnim solima” — zastarjelim lijekom iz 19. stoljeća koji se danas koristi u pesticidima i sredstvima za čišćenje bazena.

U tom je slučaju muškarac razvio bromizam — gotovo izumrlo neuropsihijatrijsko stanje koje uzrokuje zbunjenost, usporen govor i psihozu — no nakon tri tjedna detoksikacije u bolnici, potpuno se oporavio, piše N1.

Pratite nas na društvenim mrežama Facebook, Instagram, Youtube, TikTok