Prema navodima iz zvaničnog blog posta, "OpenAI" procjenjuje da poruke sa „eksplicitnim indikatorima potencijalnog samoubilačkog planiranja ili namjere“ čine značajan dio ukupnih interakcija korisnika, piše Gardijan. TEKST SE NASTAVLJA NAKON VIDEO OGLASA
To je jedno od najdirektnijih priznanja kompanije o mogućem uticaju vještačke inteligencije na mentalno zdravlje.
Kompanija je saopštila i da oko 0,07 odsto aktivnih korisnika nedjeljno – što je približno 560.000 ljudi od oko 800 miliona korisnika – pokazuje moguće znake psihotičnih epizoda ili maničnog ponašanja, prenosi TANJUG.
U objavi se napominje da su takve procjene početne i da ih je teško precizno kvantifikovati.
Da bi poboljšala tačnost i etičke standarde u komunikaciji, "Open AI" je angažovala 170 kliničara i stručnjaka za mentalno zdravlje iz svoje Globalne mreže ljekara.
Oni su analizirali više od 1.800 odgovora modela u situacijama koje uključuju ozbiljne krize mentalnog zdravlja i pomogli u prilagođavanju sadržaja koji se odnosi na emotivnu podršku.
Stručnjaci za mentalno zdravlje ranije su upozoravali da četbotovi mogu nehotice da podstaknu opasne misli potvrđujući korisnikove zablude ili negativna osjećanja – fenomen poznat kao „ulizivanje“.
Generalni direktor "Open AI" Sem Altman rekao je ranije ovog mjeseca da je kompanija „napravila napredak u smanjenju rizika od ozbiljnih problema mentalnog zdravlja“ i najavio ublažavanje određenih ograničenja u radu "ChatGPT"-a.
"Open AI" je saopštio da će nastaviti da razvija mehanizme za bezbjedniju upotrebu svojih modela i da sarađuje sa nezavisnim stručnjacima i regulatorima kako bi, kako navode, „AI alati postali podrška, a ne prijetnja korisnicima u krizi“.
Pratite nas na našoj Facebook i Instagram stranici, Twitter nalogu i uključite se u našu Viber zajednicu.
2 BDT (loguj se da preuzmeš)


