Kaip rašo „Live Science“, Jungtinėse Amerikos Valstijose įsikūrusi DI tyrimus ir plėtrą skatinanti organizacija (The Association for the Advancement of Artificial Intelligence, AAAI) atliko apklausą, kurios rezultatai atskleidė įdomius duomenis.
Iš 475 apklausoje dalyvavusių dirbtinio intelekto (DI) tyrėjų 76 proc. teigė, kad didelių kalbos modelių (large language models, LLM) didinimas yra „mažai tikėtinas“ arba „labai mažai tikėtinas“, siekiant bendrojo dirbtinio intelekto hipotetinio etapo, kai mašininio mokymosi sistemos gali mokytis taip pat efektyviai arba geriau nei žmonės.
Prognozės – nepasitvirtino?
Anot portalo, tai – stebėtinas technologijų pramonės, kuri nuo pat generatyvinio dirbtinio intelekto bumo 2022 m. teigė, kad dabartiniams moderniausiems DI modeliams tereikia daugiau duomenų, aparatinės įrangos, energijos ir pinigų, kad jie nustelbtų žmogaus intelektą, prognozių nepaisymas.
Dabar, kai atrodo, kad naujausi modelių leidiniai stagnuoja, dauguma DI tobulinimo asociacijos AAAI apklaustų tyrėjų mano, kad technologijų bendrovės atsidūrė aklavietėje – ir pinigai jų iš jos neišves.
Iškilo pavojus žlugti
Nuolatinis modelių tobulinimas reikalauja milžiniškų lėšų ir energijos sąnaudų.
Vien iki 2024 m. generatyvinio dirbtinio intelekto pramonė pasaulyje pritraukė 56 mlrd. dolerių (apie 52,08 mlrd. eurų) rizikos kapitalo, o didžioji šių pinigų dalis skirta didžiulių duomenų centrų kompleksų statybai, kurių išmetamo anglies dioksido kiekis nuo 2018 m. išaugo tris kartus.
Prognozės taip pat rodo, kad iki šio dešimtmečio pabaigos greičiausiai bus išnaudotos ribotos žmogaus sukurtų duomenų, reikalingų tolesniam augimui, atsargos.
Kai tai įvyks, alternatyvos bus rinkti naudotojų asmeninius duomenis arba siųsti dirbtinio intelekto sukurtus „sintetinius“ duomenis atgal į modelius, o tai gali kelti jiems pavojų žlugti dėl klaidų, atsiradusių po to, kai jie absorbuoja savo įvesties duomenis.
Tačiau dabartinių modelių trūkumai greičiausiai kyla ne tik dėl to, kad jie reikalauja daug išteklių, sako apklausos ekspertai, bet ir dėl esminių jų architektūros trūkumų.
„Manau, kad pagrindinė dabartinių metodų problema yra ta, kad visi jie susiję su mokymu, kai reikia mokyti dideles tiesioginių duomenų grandines“, – aiškino britų mokslininkas Stuartas Russellas, atliekantis akademinius tyrimus dirbtinio intelekto srityje.
Šios grandinės, anot jo, turi pagrindinių trūkumų, nes jos yra sąvokų pateikimo būdas.
„Tai reiškia, kad grandinės turi būti milžiniškos, kad net apytiksliai atvaizduotų tokias sąvokas, o tai lemia didžiulius duomenų reikalavimus ir fragmentišką atvaizdavimą su spragomis. Štai kodėl, pavyzdžiui, paprasti žmonės žaidėjai gali lengvai nugalėti „antžmogiškas“ dirbtinio intelekto programas, kurios žaidžia protinius žaidimus geriau nei profesionalūs žaidėjai“, – pateikė pavyzdį S.Russellas.
Praranda viltį dėl pažangos
Kai kurie apklausos dalyviai teigė, kad visos šios kliūtys tapo rimtomis problemomis bendrovėms, siekiančioms pagerinti DI našumą, dėl to esą vertinimo rodiklių balai stabilizavosi, o laukiamas „OpenAI GPT-5“ modelis taip ir nepasirodė.
OpenAI – amerikiečių ne pelno siekianti organizacija, sukūrusi žinomus GPT (Generative Pre-trained Transformer) kalbos modelius, jau išleido kelis jų variantus, pradedant nuo GPT-1, GPT-2 ir GPT-3, nustebinusius technologijų pasaulį.
Vėliau pasirodė ir GPT-4, kuris laikomas vienu pažangiausių kalbos modelių, gebančiu generuoti itin kokybišką tekstą ir atlikti sudėtingas užduotis.
Tačiau, nors apie laukiamą GPT-5 modelį buvo plačiai diskutuojama, jis dar nesulaukė oficialaus pristatymo, o kai kurie ekspertai mano, kad viltis apie kokybišką pažangą, jau prarasta.
Tai rodo, kad technologijų bendrovės pasiekė tam tikras ribas, o pinigai bei resursai nebeužtikrins tolesnio progreso.
Prielaidą, kad tobulėjimą visada galima pasiekti didinant mastą, šiemet paneigė ir Kinijos įmonė „DeepSeek“, kuri pasiekė tokius pačius rezultatus kaip ir brangūs modeliai iš Silicio slėnio – technologijų ir inovacijų centro JAV, garsėjančio aukščiausios kokybės sprendimais – tačiau naudodama daug mažesnes sąnaudas.
„DeepSeek“ specializuojasi kuriant efektyvius dirbtinio intelekto modelius, naudodama mažesnį energijos ir finansinių išteklių kiekį, kas kelia klausimą, ar tolesnis modelių didinimas ir mastelio didinimas iš tikrųjų yra pagrindinis kelias į pažangą.
Vis dėlto tai nereiškia, kad DI pažanga yra „mirusi“.
Įrodyta, kad argumentavimo modeliai – specializuoti modeliai, kurie užklausoms skiria daugiau laiko ir skaičiavimo galios – pateikia tikslesnius atsakymus nei jų tradiciniai pirmtakai.
Pasak respondentų, šių modelių derinimas su kitomis mašininio mokymosi sistemomis, ypač sumažinus jų apimtį iki specializuotos, yra įdomus kelias į priekį.


