TIK ŽMONĖS Cinema: A. Valujavičiaus filmas „Irklais per Atlantą“
Žiūrėti
Iki -60% prenumeratai. Išskirtinis gegužės pasiūlymas.
Išbandyti

„OpenAI“ paskelbė gaires, pagal kurias bus vertinama rizika, kylanti iš kuriamų DI modelių

Dirbtinio intelekto (DI) pokalbių roboto „ChatGPT“ kūrėja „OpenAI“ pirmadienį paskelbė naujausias gaires, pagal kurias bus vertinama rizika, kylanti iš šiuo metu kuriamų DI modelių.
IMAGO/Frank Hoermann / SVEN SIMON / IMAGO/Sven Simon
IMAGO/Frank Hoermann / SVEN SIMON / IMAGO/Sven Simon
Temos: 1 „OpenAI“

Apie tai pranešta praėjus mėnesiui po to, kai bendrovės valdyba atleido generalinį direktorių Samą Altmaną (Semą Oltmaną), o po kelių dienų, sukilus darbuotojams ir investuotojams, jį vėl pasamdė.

JAV žiniasklaidos teigimu, valdybos nariai kritikavo S. Altmaną už tai, kad jis pasisakė už spartesnį „OpenAI“ plėtojimą, net jei dėl to reikėjo apeiti tam tikrus klausimus apie galimą šios technologijos keliamą riziką.

Pirmadienį paskelbtame dokumente „Pasirengimo struktūra“ bendrovė teigia: „Manome, kad moksliniai tyrimai apie DI keliamą katastrofų riziką dar toli gražu nėra tokie, kokių reikia.“

Jame rašoma, kad gairės turėtų padėti pašalinti šią spragą.

Spalį pristatyta stebėsenos ir vertinimo grupė daugiausia dėmesio skirs šiuo metu kuriamiems pažangiausiems modeliams, kurie savo galimybėmis pranoksta pažangiausią DI programinę įrangą.

Grupė įvertins kiekvieną naują modelį ir pagal keturias pagrindines kategorijas nustatys jam rizikos lygį – nuo mažo iki kritinio.

Pagal gaires gali būti diegiami tik tie modeliai, kurių rizikos lygis yra vidutinis arba žemesnis.

Pirmoji kategorija susijusi su kibernetiniu saugumu ir modelio gebėjimu vykdyti plataus masto kibernetines atakas.

Antrąja bus vertinamas programinės įrangos polinkis padėti sukurti cheminį mišinį, organizmą (pvz., virusą) arba branduolinį ginklą, kurie gali būti kenksmingi žmonėms.

Trečioji kategorija susijusi su modelio įtakos darymo galia, pavyzdžiui, kiek jis gali paveikti žmonių elgesį.

Paskutinė rizikos kategorija yra susijusi su galimu modelio savarankiškumu, ypač su tuo, ar jis gali atsiriboti nuo jį sukūrusių programuotojų kontrolės.

Nustačius rizikos veiksnius, jie bus pateikti „OpenAI“ patariamajai grupei saugos klausimais – naujam padaliniui, kuris teiks rekomendacijas S. Altmanui arba jo paskirtam asmeniui.

Tuomet „OpenAI“ vadovas priims sprendimą dėl modelio pakeitimų, kad būtų sumažinta atitinkama rizika.

Direktorių valdyba bus nuolat informuojama ir galės panaikinti vadovybės sprendimą.

Pranešti klaidą

Sėkmingai išsiųsta

Dėkojame už praneštą klaidą
Reklama
„Lidl“ parduotuvėse – išskirtinės „UEFA EURO 2024“ kortelės: kviečia surinkti visą kolekciją
Reklama
Lauko baldų ekspertas P.Kelbauskis pataria, kaip lengvai įsirengti lauko terasas ir nepermokėti
Reklama
Sutelktinio finansavimo ir tarpusavio skolinimosi platformos – ką reikia žinoti renkantis, kur investuoti
Reklama
Dantų balinimas: kaip pasiekti greitų ir efektyvių rezultatų?
Užsisakykite 15min naujienlaiškius