Mund të mos jetë aq larg nga e vërteta, pasi gjithnjë e më shumë mjekë po i drejtohen inteligjencës artificiale për të lehtësuar ngarkesën e tyre të ngarkuar.
Studimet kanë treguar se deri në 10% e mjekëve po përdorin tani ChatGPT, një model i madh gjuhësor (LLM) i krijuar nga OpenAI – por sa të sakta janë përgjigjet e tij?
ÇFARË ËSHTË INTELIGJENCA ARTIFICIALE (AI)?
Një ekip studiuesish nga Qendra Mjekësore e Universitetit të Kansasit vendosi të zbulojë.
“Çdo vit, rreth një milion artikuj të rinj mjekësorë botohen në revista shkencore, por mjekët e zënë nuk kanë aq shumë kohë për t’i lexuar ato”, tha për Fox News Digital Dan Parente, autori i lartë i studimit dhe një profesor asistent në universitet.
“Ne pyesim veten nëse modelet e mëdha të gjuhës – në këtë rast, ChatGPT – mund t’i ndihmonin klinikët të rishikojnë më shpejt literaturën mjekësore dhe të gjejnë artikuj që mund të jenë më të rëndësishëm për ta”, tha ai.
ÇFARË ËSHTË CHATGPT?
Për një studim të ri të botuar në Annals of Family Medicine, studiuesit përdorën ChatGPT 3.5 për të përmbledhur 140 studime të rishikuara nga kolegët nga 14 revista mjekësore.
Shtatë mjekë më pas rishikuan në mënyrë të pavarur përgjigjet e chatbot-it, duke i vlerësuar ato për cilësinë, saktësinë dhe paragjykimet.
Përgjigjet e AI u gjetën të ishin 70% më të shkurtra se përgjigjet e mjekëve të vërtetë, por përgjigjet u vlerësuan me saktësi të lartë (92.5%) dhe cilësi (90%) dhe nuk u gjetën të kishin paragjykime.
Pasaktësitë dhe halucinacionet serioze ishin “të pazakonta” – u gjetën vetëm në katër nga 140 përmbledhjet.
“Një problem me modelet e mëdha gjuhësore është gjithashtu se ato ndonjëherë mund të ‘halucinojnë’, që do të thotë se ata krijojnë informacione që thjesht nuk janë të vërteta”, vuri në dukje Parente.
“Ne ishim të shqetësuar se ky do të ishte një problem serioz, por në vend të kësaj zbuluam se pasaktësitë serioze dhe halucinacionet ishin shumë të rralla. Nga 140 përmbledhjet, vetëm dy kishin halucinacione”, tha ai.
Megjithatë, pasaktësitë e vogla ishin pak më të zakonshme – duke u shfaqur në 20 nga 140 përmbledhjet.
“Ne gjithashtu zbuluam se ChatGPT në përgjithësi mund t’i ndihmonte mjekët të kuptonin nëse një revistë e tërë ishte e rëndësishme për një specialitet mjekësor – për shembull, për një kardiolog ose për një mjek të kujdesit parësor – por e kishte shumë më të vështirë të dinte se kur ishte një artikull individual. relevante për një specialitet mjekësor”, shtoi Parente.
Bazuar në këto gjetje, Parente vuri në dukje se ChatGPT mund të ndihmojë mjekët dhe shkencëtarët e zënë të vendosin se cilët artikuj të rinj në revistat mjekësore janë më të vlefshëm për t’u lexuar.
“Njerëzit duhet të inkurajojnë mjekët e tyre që të qëndrojnë aktual me përparimet e reja në mjekësi, në mënyrë që ata të mund të ofrojnë kujdes të bazuar në prova”, tha ai.
‘Përdorini ato me kujdes’
Dr. Harvey Castro, një mjek i mjekësisë urgjente i certifikuar nga bordi i Dallasit dhe folës kombëtar për inteligjencën artificiale në kujdesin shëndetësor, nuk ishte i përfshirë në studimin e Universitetit të Kansasit, por ofroi njohuritë e tij mbi përdorimin e ChatGPT nga mjekët.
“Integrimi i AI në kujdesin shëndetësor , veçanërisht për detyra të tilla si interpretimi dhe përmbledhja e studimeve komplekse mjekësore, përmirëson ndjeshëm vendimmarrjen klinike”, tha ai për Fox News.
“Kjo mbështetje teknologjike është kritike në mjedise si ER, ku koha është thelbësore dhe ngarkesa e punës mund të jetë dërrmuese”, shtoi tutje.
Megjithatë, Castro vuri në dukje se ChatGPT dhe modelet e tjera të AI kanë disa kufizime.
“Është e rëndësishme të kontrolloni nëse AI po na jep përgjigje të arsyeshme dhe të sakta. Pavarësisht potencialit të AI, prania e pasaktësive në përmbledhjet e krijuara nga AI – edhe pse minimale – ngre shqetësime rreth besueshmërisë së përdorimit të AI si burimi i vetëm për vendimmarrje klinike”, tha Castro.
Artikulli nënvizon disa pasaktësi serioze brenda përmbledhjeve të krijuara nga AI, duke nënvizuar nevojën për integrim të kujdesshëm të mjeteve të AI në mjediset klinike.
Duke pasur parasysh këto pasaktësi të mundshme, veçanërisht në skenarë me rrezik të lartë, Castro theksoi rëndësinë që profesionistët e kujdesit shëndetësor të mbikëqyrin dhe vërtetojnë përmbajtjen e krijuar nga AI.
Studiuesit ranë dakord, duke vënë në dukje rëndësinë e peshimit të përfitimeve të dobishme të LLM-ve si ChatGPT me nevojën për kujdes.
“Si çdo mjet elektrik, ne duhet t’i përdorim me kujdes”, tha Parente.
“Kur i kërkojmë një modeli të madh gjuhësor të bëjë një detyrë të re – në këtë rast, duke përmbledhur abstraktet mjekësore – është e rëndësishme të kontrollojmë që AI po na jep përgjigje të arsyeshme dhe të sakta”, u shpreh ai.
Ndërsa AI po përdoret më gjerësisht në kujdesin shëndetësor, tha Parente, “ne duhet të këmbëngulim që shkencëtarët, klinikët, inxhinierët dhe profesionistët e tjerë të kenë bërë punë të kujdesshme për t’u siguruar që këto mjete janë të sigurta, të sakta dhe të dobishme”.
Dr. Kenneth Perry, një mjek i departamentit të urgjencës në Karolinën e Jugut, tha se softueri i AI si ChatGPT ofron një “mundësi të madhe” për mjekët e zënë për të shkarkuar disa nga detyrat e tyre.
“Gjatë viteve të fundit, perceptimi i mjekëve për punët e tyre është kufizuar shumë nga sasia e kohës së shpenzuar për hartimin dhe mosndërveprimin me pacientët”, tha Perry.
Megjithatë, ka kufizime për përdorimin e AI për të ndihmuar me këtë, paralajmëroi mjeku ER.
“Ekziston një mundësi që softueri i AI të marrë liri të caktuara me hartimin. Marrëdhënia mjek-pacient, dhe hartimi i kësaj marrëdhënieje, është shumë specifike”, tha ai.
“Softueri i AI gjithashtu duhet të ketë mbrojtjet e TI-së të sjellë deri në përputhjen e nivelit HIPPA për ta bërë atë një lidhje të pandërprerë me rrjedhën e punës së mjekut”, shtoi Perry.