2025-09-30 14:44

Sokrato uždavinys po 2400 metų: kaip su juo susidorojo „ChatGPT“

Ar dirbtinis intelektas gali mokytis taip, kaip žmonės? Kembridžo ir Jeruzalės Hebrajų universitetų mokslininkai patikrino „ChatGPT“, pateikę jam daugiau nei du tūkstantmečius mokslininkų mintis kaitinantį Platono aprašytą matematinį uždavinį.
Sokratas
Sokratas / 123RF.com nuotr.

Graikų filosofas Platonas apie 385 m. pr. m. e. rašė apie Sokratą, pateikusį mokiniui „kvadrato padvigubinimo“ uždavinį. Paprašytas padvigubinti kvadrato plotą, mokinys padvigubino kiekvienos kraštinės ilgį, nesuprasdamas, kad naujojo kvadrato kraštinė turėtų būti tokio pat ilgio kaip pradinio kvadrato įstrižainė.

Nuo Platono raštų praėjus virš 2400 metų mokslininkai vis dar diskutuoja apie šį uždavinį: ar matematinės žinios, reikalingos jam išspręsti, yra išmąstomos ir glūdi mumyse, ar vis dėlto reikalauja papildomų žinių ir patirties.

123RF.com nuotr./Matematikos užduotys
123RF.com nuotr./Matematikos užduotys

Kembridžo universiteto ir Jeruzalės Hebrajų universiteto mokslininkai šį uždavinį pateikė „ChatGPT“, norėdami pamatyti, kaip su šiuo sudėtingu klausimu susidoros dirbtinis intelektas (DI), rašo mokslo populiarinimo portalas „LiveScience“.

Kadangi „ChatGPT“, kaip ir kiti dideli kalbos modeliai, mokomas daugiausia iš tekstų, o ne iš vaizdų, buvo manyta, jog tikimybė, kad treniruočių duomenyse pasitaikytų šio uždavinio sprendimas, yra labai maža.

Kaip rašoma rugsėjo 17 d. žurnale „International Journal of Mathematical Education in Science and Technology“ paskelbtame tyrime, mokslininkai paprašė pokalbių roboto padvigubinti stačiakampio plotą panašiu metodu, kaip kadaise mokiniui uždavė Sokratas. DI atsakė, kad kadangi stačiakampio įstrižainė negali būti panaudota jo dydžiui padvigubinti, geometrijoje sprendimo nėra.

Mokslininkai teigia, kad toks geometrinis sprendimas egzistuoja.

Vis dėlto Kembridžo universiteto vizituojantis mokslininkas Nadavas Marco iš Jeruzalės Hebrajų universiteto žino, kad toks geometrinis sprendimas egzistuoja. N.Marco pabrėžė, kad tikimybė, jog klaidingas atsakymas buvo „ChatGPT“ treniruočių duomenyse, yra be galo maža. Tai rodo, kad DI kūrė atsakymus remdamasis ankstesnėmis diskusijomis apie kvadrato padvigubinimo problemą — aiški užuomina į sugeneruotą, o ne įgimtą mokymąsi.

„Kai susiduriame su nauja problema, mūsų instinktas dažnai yra išbandyti sprendimus, remiantis ankstesne patirtimi. Mūsų eksperimente „ChatGPT“ elgėsi panašiai. Kaip mokinys ar tyrėjas, jis, rodos, pats kūrė hipotezes ir sprendimus“, – sakė mokslininkas.

Adobe Stock nuotr./ChatGPT
Adobe Stock nuotr./ChatGPT

Tyrėjų teigimu, šis eksperimentas naujai nušviečia klausimus apie tai, kas yra dirbtinio intelekto „mąstymas“ ir „samprotavimas“. Kadangi sistema, regis, improvizavo atsakymus ir net darė klaidas kaip Sokrato mokinys, mokslininkai pasiūlė, kad „ChatGPT“ galėtų naudoti iš švietimo pažįstamą sąvoką — artimiausios raidos zoną (ARZ, angl. zone of proximal development), kuri apibūdina atotrūkį tarp to, ką jau žinome, ir to, ką galime sužinoti su tinkama mokymosi pagalba.

Pasak jų, „ChatGPT“ galbūt spontaniškai taiko panašų principą, spręsdamas naujus uždavinius, kurie nebuvo įtraukti į treniruočių duomenis.

„ChatGPT“ elgesys panašus į besimokančiojo žmogaus.

Mokslininkų komanda atsargiai vertina eksperimento rezultatus ir perspėja, kad nereikėtų jų per daug interpretuoti ar daryti galutinių išvadų, jog DI „sprendžia problemas“ taip, kaip tai darome mes. Vis dėlto N.Marco pavadino „ChatGPT“ elgesį panašiu į besimokančiojo žmogaus.

Pranešti klaidą
Sėkmingai išsiųsta
Dėkojame už praneštą klaidą