Istraživanje je pokazalo da AI čettbotovi i veliki jezički modeli (LLM) često ne uspijevaju da razlikuju provjerene medicinske činjenice od lažnih tvrdnji ako se te tvrdnje nalaze na sajtovima koji koriste medicinsku terminologiju, reference koje djeluju ubjedljivo ili vizuelni identitet koji podsjeća na relevantne zdravstvene institucije.
Glavni problemi identifikovani u studiji su:
-
AI modeli daju veći značaj strukturi teksta i autoritativnom tonu nego stvarnoj provjeri podataka kroz baze kliničkih dokaza.
-
Pošto se sve veći broj ljudi oslanja na AI za samoliječenje i razumijevanje simptoma, sposobnost tehnologije da “povjeruje” u dezinformacije predstavlja ozbiljan rizik po javno zdravlje.
TEKST SE NASTAVLJA NAKON OGLASA - Studija upozorava da kreatori lažnih vesti koriste upravo ove slabosti AI sistema kako bi progurali opasne medicinske savjete u same odgovore koje generišu popularni AI asistenti.
- Stručnjaci koji su radili na istraživanju ističu da trenutni zaštitni mehanizmi nisu dovoljni. Iako kompanije kao što su OpenAI, Google i Meta stalno unapređuju svoje modele, studija sugeriše da je neophodan radikalno drugačiji pristup u načinu na koji AI vrednuje izvore informacija.
Uči iz neistina
- Problem nije samo u tome što AI može da pogreši, već u tome što on aktivno uči iz sofisticirano plasiranih neistina koje imitiraju nauku - navodi se u izvještaju.
Dok se tehnologija ne usavrši, ljekari i istraživači apeluju na građane da AI alate koriste isključivo kao informativnu pomoć, a da se za bilo kakvu dijagnozu ili terapiju obrate kvalifikovanim medicinskim stručnjacima i provjerenim institucijama.
Pratite nas na našoj Facebook i Instagram stranici, Twitter nalogu i uključite se u našu Viber zajednicu.
3 BDT (loguj se da preuzmeš)


