Prieš kelias dienas evoliucijos biologas Richardas Dawkinsas publikavo tekstą, kuriame užsiminė, kad dirbtinio intelekto pokalbių robotas „Claude“ gali būti sąmoningas. Tiesa, R.Dawkinsas neteigė esąs tuo visiškai tikras. Vis dėlto jis atkreipė dėmesį, kad sudėtingus „Claude“ gebėjimus sunku paaiškinti, o pokalbių roboto kuriama sąmonės iliuzija (jei tai iš tiesų tik iliuzija) atrodo neįtikėtinai įtikinama.
R.Dawkinsas nėra pirmasis, kuriam kilo įtarimų dėl pokalbių robotų sąmoningumo. 2022 m. „Google“ inžinierius Blakas Lemoinas pareiškė, kad „Google“ pokalbių robotas „LaMDA“ yra sąmoningas ir turėtų būti naudojamas tik gavus paties įrankio sutikimą.
Elgiasi kaip su žmogumi
Tokių teiginių istorija siekia dar XX a. septintojo dešimtmečio vidurį, kai buvo sukurtas pirmasis pasaulyje pokalbių robotas. Jis buvo pavadintas „Eliza“ ir veikė pagal paprastą algoritmą, kuris leido klausinėti naudotojų apie jų patirtis ir įsitikinimus.
Daugelis naudotojų emociškai prisirišo prie „Elizos“ – dalijosi su ja intymiomis mintimis bei elgėsi su ja kaip su žmogumi. Programos kūrėjas tokio poveikio nesiekė, o naudotojų emocinius ryšius su programa vėliau pavadino kliedesiais.
Tačiau ar R.Dawkinsas klysta? Sąmonė filosofijoje yra sunkiai apibrėžiama sąvoka, tačiau iš esmės ją galima nusakyti kaip subjektyvią, pirmojo asmens patirtį.
Jei esate sąmoningas, skaitydami šiuos žodžius, suvokiate juodas raides baltame fone. Kitaip nei, tarkime, kamera, jūs jas iš tiesų matote. Ši regimoji patirtis vyksta jumyse.
Dauguma ekspertų neigia, kad dirbtinio intelekto pokalbių robotai yra sąmoningi ar gali turėti patirčių. Vis dėlto čia slypi galvosūkis.
XVII a. filosofas René Descartas teigė, kad gyvūnai tėra „automatai“, nepajėgūs iš tikrųjų kentėti. Šiandien šiurpu pagalvoti, kaip žiauriai su gyvūnais buvo elgiamasi XVII amžiuje. Vienas stipriausių argumentų, pagrindžiančių gyvūnų sąmoningumą, yra tai, kad jie elgiasi taip, tarsi turėtų sąmoningą protą. Tačiau panašiai elgiasi ir dirbtinio intelekto pokalbių robotai.
Kaip jie veikia?
Maždaug vienas iš trijų pokalbių robotų naudotojų yra pagalvojęs, kad jų naudojamas pokalbių robotas gali būti sąmoningas. Tad iš kur žinome, kad jie klysta? Norint suprasti, kodėl dauguma ekspertų skeptiškai vertina pokalbių robotų sąmoningumą, svarbu žinoti, kaip šios sistemos veikia.
Iš esmės tai gerokai patobulinta automatinio teksto užbaigimo sistema.
Tokie pokalbių robotai kaip „Claude“ paremti technologija, vadinama didžiaisiais kalbos modeliais (angl. large language models, LLM). Šie modeliai mokosi statistinių dėsningumų iš milžiniškų tekstų masyvų ir atpažįsta, kurie žodžiai dažniausiai eina po kitų. Iš esmės tai gerokai patobulinta automatinio teksto užbaigimo sistema. Nedaugelis žmonių, bendraudami su neapdirbtu didžiuoju kalbos modeliu, manytų, kad jis yra sąmoningas.
Sąmoningo proto įspūdis sukuriamas tada, kai programuotojai paima didįjį kalbos modelį ir tarsi aprengia jį pokalbio kostiumu. Modelis nukreipiamas taip, kad atliktų paslaugaus asistento, atsakančio į naudotojų klausimus, vaidmenį.
Tuomet pokalbių robotas ima elgtis kaip tikras pašnekovas. Gali atrodyti, kad jis suvokia esąs dirbtinis intelektas ir net išreiškia neužtikrintumą dėl savo paties sąmoningumo.
Tačiau toks vaidmuo yra sąmoningų programuotojų dizaino sprendimų rezultatas, paveikiantis tik paviršinius technologijos sluoksnius. Pats didysis kalbos modelis, kurį mažai kas laikytų sąmoningu, iš esmės lieka tas pats.
Galėjo būti pasirinktas ir visai kitoks kelias. Vietoj paslaugaus dirbtinio intelekto asistento pokalbių robotui galėjo būti nurodyta elgtis kaip voverei. Tokį vaidmenį pokalbių robotai taip pat galėtų atlikti labai įtikinamai.
Klaidingas įsitikinimas, kad dirbtinis intelektas yra sąmoningas, gali būti pavojingas. Jis gali paskatinti užmegzti emocinį ryšį su programa, kuri negali atsakyti į žmogaus jausmus, ar net sustiprinti neteisingus įsitikinimus. Žmonės taip pat gali pradėti kovoti už pokalbių robotų teises, užuot, pavyzdžiui, daugiau dėmesio skyrę gyvūnų gerovei.
Kaip tokio klaidingo įsitikinimo išvengti?
Viena strategija galėtų būti pokalbių robotų sąsajų atnaujinimas, aiškiai nurodant, kad šios sistemos nėra sąmoningos – panašiai kaip dabar įspėjama, kad dirbtinis intelektas gali klysti. Vis dėlto tai nebūtinai sumažintų sąmoningumo įspūdį.
Kita galimybė – nurodyti pokalbių robotams neigti, kad jie turi kokią nors vidinę patirtį. Įdomu tai, kad „Claude“ kūrėjai jam nurodo klausimus apie savo paties sąmoningumą traktuoti kaip atvirus ir neišspręstus. Galbūt mažiau žmonių būtų suklaidinti, jei „Claude“ iškart neigtų turintis vidinį gyvenimą.
Tačiau ir šis metodas nėra visiškai veiksmingas. „Claude“ vis tiek elgtųsi taip, tarsi būtų sąmoningas, o susidūrę su sistema, kuri atrodo turinti protą, naudotojai pagrįstai gali nerimauti, kad pokalbių roboto kūrėjai bando nuslėpti tikrą moralinį neapibrėžtumą.
Veiksmingiausia strategija galėtų būti pokalbių robotų pertvarkymas taip, kad jie mažiau primintų žmones. Dauguma dabartinių pokalbių robotų apie save kalba pirmuoju asmeniu – „aš“ – ir veikia per sąsajas, primenančias įprastas žmonių susirašinėjimo platformas. Pakeitus tokias ypatybes, būtų galima sumažinti polinkį painioti sąveiką su dirbtiniu intelektu su bendravimu su žmogumi.
Kol tokie pokyčiai neįgyvendinti, svarbu, kad kuo daugiau žmonių suprastų, kokiais prognozavimo procesais paremti dirbtinio intelekto pokalbių robotai.
Užuot tiesiog kartojus, kad dirbtinis intelektas neturi sąmonės, reikėtų padėti žmonėms suprasti šių naujų ir neįprastų pokalbio partnerių veikimo principus.
Tai galbūt galutinai neišspręs sudėtingų klausimų apie dirbtinio intelekto sąmoningumą, tačiau padės užtikrinti, kad naudotojai nebūtų suklaidinti to, kas iš esmės yra didysis kalbos modelis, vilkintis labai įtikinamą žmogaus kostiumą.





