Izmišlja i griješi

Umjetna inteligencija daje potencijalno opasne savjete za liječenje bolesti

Mogućnosti AI iznimno su velike te umjetna inteligencija može znatno unaprijediti medicinu, no kada je u pitanju terapija, slušajte samo liječnike.
Sci-Tech / Znanost | 28. 08. 2023. u 07:44 Bljesak.info

Tekst članka se nastavlja ispod banera

Dok smo se u prošlosti u potrazi za nekim informacijama za pomoć gotovo uvijek obraćali Googleu, u posljednje vrijeme sve više razgovaramo i s AI chatbotovima poput ChatGPT-a.

Odgovori koje ovaj chatbot daje na neka kompleksna pitanja zaista mogu oduševiti i zadiviti, no uvijek treba imati na pameti kako to nisu savršeni alati. Mogu griješiti, ali i izmišljati i zato uvijek treba biti oprezan s njihovim odgovorima na upite.

To se pogotovo odnosi na odgovore vezane uz neka ozbiljnija pitanja, poput onih vezanih uz liječničke tretmane. Na to upozoravaju znanstvenici s Harvard Medical Schoola koji su ispitivali ovaj chatbot oko tretmana vezanih uz liječenje tumora, a rezultati koje su dobili prilično su zabrinjavajući.

Naravno, jasno je kako u slučaju ovako ozbiljne dijagnoze nitko neće tražiti pomoć umjetne inteligencije, već će se posavjetovati s doktorima, no rezultati ovog istraživanja pokazuju koliko razgovor s AI može biti opasan, ako s chatbotovima razgovarate o zdravlju i terapiji.

Znanstvenici su od ChatGPT-a tražili preporuke u liječenju raka dojke, prostate i pluća, a odgovori koje su dobili su “potencijalno opasni”.

Iako su odgovori sadržavali dijelom točne odgovore, AI je davala i lažne i izmišljene informacije. Više od trećine odgovora ChatGPT-a tako je sadržavalo prijedloge za tretmane liječenja koji nisu u skladu s liječničkim preporukama, dok su više od deset posto tih odgovora bile tzv. halucinacije, odnosno AI je izmislio odgovore koji nemaju nikakve veze s liječenjem tumora.

Ono na što je upozorio znanstvenik Danielle Bitterman koji je sudjelovao u ovom istraživanju, jest što ChatGPT komunicira na siguran i smislen način tako da se čini kako ima znanje o onome o čemu piše, a kada pri tome daje odgovore koji su kombinacija točnih i pogrešnih informacija, to predstavlja veliku opasnost.

Bitterman kaže kako veliki jezični modeli mogu položiti američki medicinski ispit za licenciranje, prikazati kliničko znanje i dati bolje dijagnoze od laika, no chatbotovi bazirani na umjetnoj inteligenciji nisu se pokazali pouzdanima u pružanju točnih preporuka za liječenje raka.

Naglašava i kako developeri moraju imati veću odgovornost te distribuirati tehnologije koje ne izazivaju štetu, dok pacijenti moraju biti svjesni ograničenja te tehnologije.

Da je ChatGPT sklon pogreškama upozorili su još ranije i iz OpenAI. Nedugo nakon lansiranja ChatGPT-a 4 na svom su blogu objasnili kako ovaj AI chatbot nije u potpunosti pouzdan te može izmišljati činjenice i raditi greške u razmišljanju.

Kopirati
Drag cursor here to close