Një artist në Gjermani përfundoi në spital pas një pickimi nga një insekt, duke shfaqur simptoma që mjekët nuk mund t’i lidhin mes tyre. Pas një muaji trajtimesh të pasuksesshme, ai futi historinë mjekësore në ChatGPT, i cili sugjeroi diagnozën tularemia (ose ethet e lepurit).
Diagnoza rezultoi e saktë dhe rasti u publikua më pas në një studim shkencor, sipas raportimit të VOX.
Nga ana tjetër, në SHBA, një pacient me shenja psikoze ndjeki këshillat e ChatGPT për alternativa të kripës së tryezës.
Chatboti i kishte sugjeruar natrium bromid, substancë që përdoret për pastrimin e pishinave. Pas tre muajsh, pacienti përfundoi në repart psikiatrik për tri javë. Ky kontrast tregon qartë se ChatGPT mund të ndihmojë në raste të ndërlikuara, por jep edhe këshilla të rrezikshme.
Përdorimi i inteligjencës artificiale kërkon kujdes. Dr. Roxana Daneshjou, profesoreshë dhe hulumtuese në Shkollën e Mjekësisë të Stanfordit, paralajmëron: “Duhet të jemi shumë të kujdesshëm në përdorimin e tij për qëllime mjekësore, sidomos kur nuk kemi njohuritë çfarë është e saktë dhe çfarë jo. Kur është i saktë, funksionon shumë mirë, por kur është i gabuar, pasojat mund të jenë katastrofike.”
Një problem tjetër është se ata janë “servilë”, duke dhënë atë që përdoruesi do të dëgjojë, edhe nëse është e pasaktë. Daneshjou sugjeron përdorimin e “Dr. Google”, që ofron informacione të verifikuara nga institucione si Mayo Clinic dhe Harvard Medical School.
Megjithatë, ChatGPT mund të shërbejë si mjet ndihmës, ndihmon pacientët të kuptojnë shënimet e mjekut, të përgatisin pyetje për vizitën e radhës, ose të interpretojnë rezultatet e analizave. Më 2023, një studim tregoi se chatbotët japin përgjigje cilësore dhe empatike.
Një çështje tjetër është privatësia: ChatGPT nuk është i mbrojtur nga HIPAA, ligji amerikan për privatësinë e të dhënave shëndetësore.
Informacioni që futet mund të ruhet, të përdoret për trajnime dhe teorikisht mund të shfaqet në përgjigje për dikë tjetër.
Sipas një raporti të Elsevier, gjysma e mjekëve kanë përdorur një mjet AI dhe një në pesë e ka përdorur për të kërkuar një mendim të dytë.
Studimet tregojnë se ChatGPT mund të japë diagnoza më të sakta se mjekët, megjithëse kombinimi i të dyjave është më i fuqishëm.
Adam Rodman, mjek në Beth Israel Deaconess Medical Center dhe instruktor në Harvard Medical School, sugjeron:
“Pacientët duhet të flasin hapur me mjekët për përdorimin e modeleve të mëdha gjuhësore, dhe po ashtu edhe mjekët duhet të flasin me pacientët për këtë. Një bisedë transparente mund të bëjë komunikimin shumë më produktiv.” /A.Z/UBT News/