Dok smo se u prošlosti u potrazi za nekim informacijama za pomoć gotovo uvijek obraćali Googleu, u posljednje vrijeme sve više razgovaramo i s AI chatbotovima poput ChatGPT-a.
Odgovori koje ovaj chatbot daje na neka kompleksna pitanja zaista mogu oduševiti i zadiviti, no uvijek treba imati na pameti kako to nisu savršeni alati. Mogu griješiti, ali i izmišljati i zato uvijek treba biti oprezan s njihovim odgovorima na upite.
To se pogotovo odnosi na odgovore vezane uz neka ozbiljnija pitanja, poput onih vezanih uz liječničke tretmane. Na to upozoravaju znanstvenici s Harvard Medical Schoola koji su ispitivali ovaj chatbot oko tretmana vezanih uz liječenje tumora, a rezultati koje su dobili prilično su zabrinjavajući.
Naravno, jasno je kako u slučaju ovako ozbiljne dijagnoze nitko neće tražiti pomoć umjetne inteligencije, već će se posavjetovati s doktorima, no rezultati ovog istraživanja pokazuju koliko razgovor s AI može biti opasan, ako s chatbotovima razgovarate o zdravlju i terapiji.
Znanstvenici su od ChatGPT-a tražili preporuke u liječenju raka dojke, prostate i pluća, a odgovori koje su dobili su “potencijalno opasni”.
Iako su odgovori sadržavali dijelom točne odgovore, AI je davala i lažne i izmišljene informacije. Više od trećine odgovora ChatGPT-a tako je sadržavalo prijedloge za tretmane liječenja koji nisu u skladu s liječničkim preporukama, dok su više od deset posto tih odgovora bile tzv. halucinacije, odnosno AI je izmislio odgovore koji nemaju nikakve veze s liječenjem tumora.
Ono na što je upozorio znanstvenik Danielle Bitterman koji je sudjelovao u ovom istraživanju, jest što ChatGPT komunicira na siguran i smislen način tako da se čini kako ima znanje o onome o čemu piše, a kada pri tome daje odgovore koji su kombinacija točnih i pogrešnih informacija, to predstavlja veliku opasnost.
Bitterman kaže kako veliki jezični modeli mogu položiti američki medicinski ispit za licenciranje, prikazati kliničko znanje i dati bolje dijagnoze od laika, no chatbotovi bazirani na umjetnoj inteligenciji nisu se pokazali pouzdanima u pružanju točnih preporuka za liječenje raka.
Naglašava i kako developeri moraju imati veću odgovornost te distribuirati tehnologije koje ne izazivaju štetu, dok pacijenti moraju biti svjesni ograničenja te tehnologije.
Da je ChatGPT sklon pogreškama upozorili su još ranije i iz OpenAI. Nedugo nakon lansiranja ChatGPT-a 4 na svom su blogu objasnili kako ovaj AI chatbot nije u potpunosti pouzdan te može izmišljati činjenice i raditi greške u razmišljanju.
Odgovori koje ovaj chatbot daje na neka kompleksna pitanja zaista mogu oduševiti i zadiviti, no uvijek treba imati na pameti kako to nisu savršeni alati. Mogu griješiti, ali i izmišljati i zato uvijek treba biti oprezan s njihovim odgovorima na upite.
To se pogotovo odnosi na odgovore vezane uz neka ozbiljnija pitanja, poput onih vezanih uz liječničke tretmane. Na to upozoravaju znanstvenici s Harvard Medical Schoola koji su ispitivali ovaj chatbot oko tretmana vezanih uz liječenje tumora, a rezultati koje su dobili prilično su zabrinjavajući.
Naravno, jasno je kako u slučaju ovako ozbiljne dijagnoze nitko neće tražiti pomoć umjetne inteligencije, već će se posavjetovati s doktorima, no rezultati ovog istraživanja pokazuju koliko razgovor s AI može biti opasan, ako s chatbotovima razgovarate o zdravlju i terapiji.
Znanstvenici su od ChatGPT-a tražili preporuke u liječenju raka dojke, prostate i pluća, a odgovori koje su dobili su “potencijalno opasni”.
Iako su odgovori sadržavali dijelom točne odgovore, AI je davala i lažne i izmišljene informacije. Više od trećine odgovora ChatGPT-a tako je sadržavalo prijedloge za tretmane liječenja koji nisu u skladu s liječničkim preporukama, dok su više od deset posto tih odgovora bile tzv. halucinacije, odnosno AI je izmislio odgovore koji nemaju nikakve veze s liječenjem tumora.
Ono na što je upozorio znanstvenik Danielle Bitterman koji je sudjelovao u ovom istraživanju, jest što ChatGPT komunicira na siguran i smislen način tako da se čini kako ima znanje o onome o čemu piše, a kada pri tome daje odgovore koji su kombinacija točnih i pogrešnih informacija, to predstavlja veliku opasnost.
Bitterman kaže kako veliki jezični modeli mogu položiti američki medicinski ispit za licenciranje, prikazati kliničko znanje i dati bolje dijagnoze od laika, no chatbotovi bazirani na umjetnoj inteligenciji nisu se pokazali pouzdanima u pružanju točnih preporuka za liječenje raka.
Naglašava i kako developeri moraju imati veću odgovornost te distribuirati tehnologije koje ne izazivaju štetu, dok pacijenti moraju biti svjesni ograničenja te tehnologije.
Da je ChatGPT sklon pogreškama upozorili su još ranije i iz OpenAI. Nedugo nakon lansiranja ChatGPT-a 4 na svom su blogu objasnili kako ovaj AI chatbot nije u potpunosti pouzdan te može izmišljati činjenice i raditi greške u razmišljanju.