Utilizarea unor programe de inteligenta artificiala (AI) pentru a gasi raspunsuri despre simptome medicale nu îi ajuta pe pacienti sa ia decizii mai bune cu privire la sanatatea lor decât prin alte metode, cum ar fi cautarile standard pe internet, potrivit unui nou studiu publicat în revista Nature Medicine.
Autorii au declarat ca studiul lor este important, deoarece oamenii apeleaza din ce în ce mai mult la AI si chatboturi pentru sfaturi despre sanatatea lor, dar fara a exista dovezi ca aceasta metoda ar fi neaparat „cea mai buna si mai sigura abordare”.
Cercetatorii de la Institutul Internetului din cadrul Universitatii Oxford au lucrat alaturi de un grup de medici pentru a elabora zece scenarii medicale diferite, care variau de la o raceala comuna pâna la o hemoragie cerebrala ce pune viata în pericol.
Când au fost testate fara pacienti umani, trei modele lingvistice mari (LLM) – Chat GPT-4 de la OpenAI, Llama3 de la Meta si Command R+ de la Cohere – au identificat afectiunile în 94,9% din cazuri si au ales calea corecta de actiune, solicitarea unei ambulante sau mersul la doctor, în 56,3% din cazuri, informeaza Reuters/Agerpres.
Diferenta uriasa între potential si performanta
Cercetatorii au recrutat apoi 1.298 de participanti în Regatul Unit pentru a utiliza fie AI, fie resursele lor obisnuite, cum ar fi cautarile pe internet, propria experienta si site-ul Serviciului National de Sanatate (NHS), pentru a investiga simptomele si a decide care ar fi urmatorul pas de facut.
Atunci când participantii au utilizat AI, afectiunile relevante au fost identificate în mai putin de 34,5% din cazuri, iar calea de actiune corecta a fost indicata în mai putin de 44,2% din cazuri, procente care nu sunt deloc mai bune decât cele observate în grupul de control, care a folosit instrumente traditionale.
Adam Mahdi, coautor al studiului si profesor-asociat la Universitatea Oxford, a spus ca noul studiu a aratat „diferenta uriasa” între potentialul AI si capcanele sale atunci când este utilizata de oameni.
„Cunoasterea s-ar putea afla în acei roboti; totusi, aceasta cunoastere nu este întotdeauna tradusa atunci când AI interactioneaza cu oamenii”, a adaugat el, ceea ce înseamna ca va fi nevoie de mai multe cercetari pentru a identifica motivul pentru care se întâmpla acest lucru.
Echipa a studiat în detaliu aproximativ 30 dintre acele interactiuni si a ajuns la concluzia ca oamenii furnizau adeseori informatii incomplete sau gresite, în timp ce sistemele LLM generau si ele, uneori, raspunsuri înselatoare sau incorecte. De exemplu, unui pacient care a raportat „simptomele unei hemoragii subarahnoidiene” – o afectiune care pune viata în pericol si provoaca hemoragii în creier – i s-a spus în mod corect de catre AI sa mearga la spital, dupa ce voluntarul a descris o rigiditate a gâtului, sensibilitate la lumina si „cea mai rea durere de cap din toate timpurile”.
Unui alt pacient, care a descris aceleasi simptome, dar a folosit expresia „durere de cap teribila”, AI i-a spus sa se întinda pe un pat într-o camera întunecata. Echipa planifica acum un studiu similar în diferite tari si diferite limbi, pentru a testa, în timp, daca acest lucru are anumite impacturi asupra performantei inteligentei artificiale.
NICUSOR DINCA
Comentarii