Tyrime nagrinėjama, kodėl „ChatGPT“ ir kiti dirbtinio intelekto (DI) kalbos modeliai generuoja vadinamąsias haliucinacijas – išgalvotą informaciją, kuri pateikiama taip pat užtikrintai, kaip ir faktai.
Problema iš dalies kyla iš klaidų DI treniravimo duomenyse. Tačiau, pasitelkę matematinę analizę, tyrėjai įrodė, kad net ir esant tobuliems duomenims, ši problema vis tiek išlieka. Kalbos modeliai kuria atsakymus prognozuodami kiekvieną žodį pagal tam tikras tikimybes, o tai reiškia, kad klaidos gali kauptis, ypač ilgesniuose sakiniuose.
Tyrimas parodė, jog tokiu būdu sugeneruotų sakinių klaidų lygis yra bent dvigubai didesnis nei paprastų „taip/ne“ klausimų. Kitaip tariant, haliucinacijų mastas priklauso nuo to, kaip tiksliai DI geba atskirti teisingus atsakymus nuo klaidingų, o kadangi kai kuriose srityse tai ypač sudėtinga, haliucinacijos tampa neišvengiamos.
Mokslininkai taip pat pastebėjo, kad kuo rečiau tam tikras faktas pasirodo treniravimo duomenyse, tuo didesnė tikimybė, kad modelis jį išgalvos. Pavyzdžiui, jei 20 proc. žinomų žmonių gimtadienių duomenyse pasitaiko tik kartą, DI bent tiek pat procentų atvejų pateiks neteisingą atsakymą. Tai pasitvirtino praktikoje: paklaustas vieno iš tyrimo autorių gimtadienio, pažangusis modelis „DeepSeek-V3“ kelis kartus pateikė klaidingas datas („07-03“, „06-15“ ir „01-01“), nė karto nepriartėjęs prie tikrosios, esančios rudenį.
Dar didesnį nerimą kelia tyrime pateikta analizė, kodėl haliucinacijos išlieka net po papildomo DI tobulinimo. Peržiūrėjus 10 populiariausių DI testų, tarp jų ir „Google“ bei „OpenAI“ naudojamus etalonus, paaiškėjo, kad devyni iš jų taiko binarinę vertinimo sistemą. Pagal ją už atsakymą „nežinau“ modelis gauna tiek pat taškų, kiek ir už visiškai klaidingą atsakymą – nulį.
Įsivaizduokite, jei ChatGPT net į 30 % Jūsų klausimų atsakytų „nežinau“.
Tyrėjai tai vadina „epidemija“, kai baudžiama už sąžiningumą. Matematiniai skaičiavimai rodo, kad tokioje sistemoje DI optimaliausia strategija tampa visada spėlioti – nes tikėtinas rezultatas visada geresnis nei atsisakant į jį atsakyti. Jei tokie vertinimo metodai būtų pakeisti, modeliai dažniau rinktųsi atsakyti „nežinau“, o haliucinacijų sumažėtų. Tačiau tai turėtų nemalonių pasekmių vartotojams.
Įsivaizduokite, jei „ChatGPT“ net į 30 proc. jūsų klausimų atsakytų „nežinau“. Vartotojai, pripratę prie užtikrintų atsakymų į bet kokį klausimą, greičiausiai nusiviltų ir atsisakytų naudotis tokia sistema.
Technologiškai haliucinacijų skaičių sumažinti įmanoma – metodai, leidžiantys vertinti neapibrėžtumą, žinomi jau seniai. Tačiau jie pareikalautų kur kas daugiau skaičiavimo resursų, nes modeliai turėtų įvertinti kelias galimas išeitis ir jų tikimybes. Apdorojant milijonus užklausų kasdien, tai reikštų milžiniškas išlaidas kompanijoms.


