Graikų filosofas Platonas apie 385 m. pr. m. e. rašė apie Sokratą, pateikusį mokiniui „kvadrato padvigubinimo“ uždavinį. Paprašytas padvigubinti kvadrato plotą, mokinys padvigubino kiekvienos kraštinės ilgį, nesuprasdamas, kad naujojo kvadrato kraštinė turėtų būti tokio pat ilgio kaip pradinio kvadrato įstrižainė.
Nuo Platono raštų praėjus virš 2400 metų mokslininkai vis dar diskutuoja apie šį uždavinį: ar matematinės žinios, reikalingos jam išspręsti, yra išmąstomos ir glūdi mumyse, ar vis dėlto reikalauja papildomų žinių ir patirties.
Kembridžo universiteto ir Jeruzalės Hebrajų universiteto mokslininkai šį uždavinį pateikė „ChatGPT“, norėdami pamatyti, kaip su šiuo sudėtingu klausimu susidoros dirbtinis intelektas (DI), rašo mokslo populiarinimo portalas „LiveScience“.
Kadangi „ChatGPT“, kaip ir kiti dideli kalbos modeliai, mokomas daugiausia iš tekstų, o ne iš vaizdų, buvo manyta, jog tikimybė, kad treniruočių duomenyse pasitaikytų šio uždavinio sprendimas, yra labai maža.
Kaip rašoma rugsėjo 17 d. žurnale „International Journal of Mathematical Education in Science and Technology“ paskelbtame tyrime, mokslininkai paprašė pokalbių roboto padvigubinti stačiakampio plotą panašiu metodu, kaip kadaise mokiniui uždavė Sokratas. DI atsakė, kad kadangi stačiakampio įstrižainė negali būti panaudota jo dydžiui padvigubinti, geometrijoje sprendimo nėra.
Mokslininkai teigia, kad toks geometrinis sprendimas egzistuoja.
Vis dėlto Kembridžo universiteto vizituojantis mokslininkas Nadavas Marco iš Jeruzalės Hebrajų universiteto žino, kad toks geometrinis sprendimas egzistuoja. N.Marco pabrėžė, kad tikimybė, jog klaidingas atsakymas buvo „ChatGPT“ treniruočių duomenyse, yra be galo maža. Tai rodo, kad DI kūrė atsakymus remdamasis ankstesnėmis diskusijomis apie kvadrato padvigubinimo problemą — aiški užuomina į sugeneruotą, o ne įgimtą mokymąsi.
„Kai susiduriame su nauja problema, mūsų instinktas dažnai yra išbandyti sprendimus, remiantis ankstesne patirtimi. Mūsų eksperimente „ChatGPT“ elgėsi panašiai. Kaip mokinys ar tyrėjas, jis, rodos, pats kūrė hipotezes ir sprendimus“, – sakė mokslininkas.
Tyrėjų teigimu, šis eksperimentas naujai nušviečia klausimus apie tai, kas yra dirbtinio intelekto „mąstymas“ ir „samprotavimas“. Kadangi sistema, regis, improvizavo atsakymus ir net darė klaidas kaip Sokrato mokinys, mokslininkai pasiūlė, kad „ChatGPT“ galėtų naudoti iš švietimo pažįstamą sąvoką — artimiausios raidos zoną (ARZ, angl. zone of proximal development), kuri apibūdina atotrūkį tarp to, ką jau žinome, ir to, ką galime sužinoti su tinkama mokymosi pagalba.
Pasak jų, „ChatGPT“ galbūt spontaniškai taiko panašų principą, spręsdamas naujus uždavinius, kurie nebuvo įtraukti į treniruočių duomenis.
„ChatGPT“ elgesys panašus į besimokančiojo žmogaus.
Mokslininkų komanda atsargiai vertina eksperimento rezultatus ir perspėja, kad nereikėtų jų per daug interpretuoti ar daryti galutinių išvadų, jog DI „sprendžia problemas“ taip, kaip tai darome mes. Vis dėlto N.Marco pavadino „ChatGPT“ elgesį panašiu į besimokančiojo žmogaus.


