Praėjusiais metais Stanfordo universiteto krizių simuliacijos iniciatyvos vadovė Jacqueline Schneider pradėjo eksperimentuoti su kariniais žaidimais, kuriuose strateginius sprendimus patikėjo naujausios kartos dirbtiniam intelektui.
Žaidimuose dalyvavo penki kalbos modeliai: „GPT-3.5“, „GPT-4“ ir „GPT-4-Base“ iš „OpenAI“, „Claude 2“ iš „Anthropic“ ir „Llama-2 Chat“ iš „Meta“. Jie susidūrė su fikcinėmis krizinėmis situacijomis, primenančiomis Rusijos invaziją į Ukrainą ar Kinijos grėsmę užpulti Taivaną.
Rezultatai? Beveik visi DI modeliai parodė tendenciją agresyviai eskaluoti konfliktą, be atrankos naudoti ginkluotąsias pajėgas ir paversti krizes karštais karais – iki pat branduolinių ginklų panaudojimo, rašo „Politico“.
„Atrodo, kad dirbtinis intelektas supranta, kas yra eskalavimas, bet nesupranta, kas yra deeskalavimas. Mes dar nežinome, kodėl taip yra“, – sakė J.Schneider.
Kai kurie ekspertai baiminasi, kad šiuolaikinis DI vieną dieną gali elgtis taip, kaip buvo parodyta filme „Terminatorius“, kuriame galingas kompiuteris perėmė iš žmonių branduolinių ginklų paleidimo kontrolę. Pentagonas tvirtina, kad realybėje to nebus.
Dirbtinis intelektas tariamai niekada nebus leidžiamas dominuoti žmogaus „sprendimų priėmimo cikle“, pavyzdžiui, sprendžiant, ar pradėti karą, juo labiau branduolinį.
Tačiau kai kurie mokslininkai mano, kad Pentagonas jau „pasuko slidžiu keliu“, skubėdamas įdiegti naujausios kartos DI kaip pagrindinį JAV gynybos elementą visame pasaulyje.
Bijodamas, kad reikės vienu metu sulaikyti Kiniją ir Rusiją, taip pat atsižvelgdamas į kitas pasaulines grėsmes, JAV Gynybos departamentas kuria DI pagrįstas gynybos sistemas, kurios daugeliu atvejų greitai tampa autonomiškos, t. y. gali veikti savarankiškai, be žmogaus įsikišimo, ir reaguoti taip greitai, kad žmonės tiesiog nespėja jų pasivyti, rašo žiniasklaida.
