-50% metinei prenumeratai. Velykų dovana!
Prenumeruoti

„ChatGPT“ kūrėjai ragina reglamentuoti dirbtinio intelekto veiklą, kad šis nesunaikintų žmonijos

Komanda, sukūrusi „ChatGPT“, teigia, kad norint apsisaugoti nuo „superprotingų“ dirbtinių intelektų keliamos rizikos reikia specialios priežiūros institucijos, praneša „The Guardian“.
ChatGPT
ChatGPT / „Reuters“/„Scanpix“ nuotr.

„ChatGPT“ sukūrusios įmonės „OpenAI“ vadovai paragino reguliuoti „superintelektualius“ dirbtinius intelektus, teigdami, kad reikia Tarptautinės atominės energijos agentūros (TATENA) atitikmens, kad žmonija būtų apsaugota nuo pavojaus būti sunaikinta.

Bendrovės interneto svetainėje paskelbtame trumpame pranešime įkūrėjai Gregas Brokmanas ir Ilja Sutskeveris bei vyriausiasis vykdomasis direktorius Samas Altmanas ragina tarptautinę reguliavimo instituciją pradėti dirbti: „tikrinti sistemas, reikalauti audito, tikrinti, ar jos atitinka saugumo standartus, [ir] nustatyti diegimo laipsnio ir saugumo lygio apribojimus“, kad būtų sumažinta „egzistencinė rizika“, kurią gali kelti tokios sistemos.

„Galima įsivaizduoti, kad per ateinančius 10 metų dirbtinio intelekto sistemos daugelyje sričių viršys ekspertų įgūdžių lygį ir atliks tiek pat produktyvios veiklos, kiek viena iš didžiausių šiandienos korporacijų“, – rašo jie, – „Tiek galimų privalumų, tiek trūkumų požiūriu superintelektas bus galingesnis nei kitos technologijos, su kuriomis žmonijai teko susidurti praeityje. Mūsų ateitis gali būti klestinti, tačiau, kad ją pasiektume, turime valdyti riziką.“

Artimiausiu metu trijulė ragina „tam tikru mastu koordinuoti“ dirbtinio intelekto mokslinių tyrimų srityje dirbančių bendrovių veiklą, kad būtų užtikrinta, jog vis galingesnių modelių kūrimas sklandžiai integruotųsi į visuomenę ir kartu būtų teikiama pirmenybė saugumui. Toks koordinavimas galėtų būti vykdomas, pavyzdžiui, įgyvendinant vyriausybės vadovaujamą projektą arba sudarant kolektyvinį susitarimą dėl dirbtinio intelekto pajėgumų augimo apribojimo.

Mokslininkai jau dešimtmečius įspėja apie galimą superintelekto keliamą pavojų, tačiau, sparčiau vystant dirbtinį intelektą, šis pavojus tapo konkretesnis. JAV dirbtinio intelekto saugos centras (CAIS), kurio tikslas – „mažinti dirbtinio intelekto keliamą visuomeninio masto riziką“, apibūdina aštuonias „katastrofinės“ ir „egzistencinės“ rizikos, kurią gali kelti dirbtinio intelekto vystymas, kategorijas.

Vida Press nuotr./ChatGPT dirbtinis intelektas darbe
Vida Press nuotr./ChatGPT dirbtinis intelektas darbe

Kai kurie nerimauja, kad galingas dirbtinis intelektas visiškai sunaikins žmoniją, atsitiktinai ar tyčia, tačiau CAIS aprašo ir kitas galimas pasekmes.

Pasaulis, kuriame dirbtinio intelekto sistemoms savanoriškai perduodama vis daugiau darbo, gali lemti tai, kad žmonija „praras gebėjimą savarankiškai tvarkytis ir taps visiškai priklausoma nuo mašinų“.

„OpenAI“ vadovai teigia, kad šie pavojai reiškia, jog „žmonės visame pasaulyje turėtų demokratiškai nuspręsti dėl dirbtinio intelekto sistemų ribų ir numatytųjų parametrų“, tačiau pripažįsta, kad „dar nežinome, kaip sukurti tokį mechanizmą“.

Vis dėlto jie teigia, kad verta rizikuoti ir toliau kuriant galingas sistemas, tik daryti tai apgalvotai.

Pranešti klaidą

Sėkmingai išsiųsta

Dėkojame už praneštą klaidą
Reklama
Įsirenkite šildymą oras–vanduo ir gaukite kompensaciją net iki 70 proc.
Reklama
Kas svarbu įrengiant biurą: keturios interjero dizaino tendencijos
Reklama
Pavasario savaitgaliams ar atostogoms – laikas pajūryje: ne tik pailsėsite, bet ir sustiprinsite sveikatą
Reklama
Norintiems investuoti į NT projektų plėtrą – kaip išsirinkti projektą pagal paskirtį?
Užsisakykite 15min naujienlaiškius