Kalifornijos aukštesniajam teismui pateiktame ieškinyje teigiama, kad daugiau nei šešis mėnesius „ChatGPT“ pokalbių robotas „pozicionavo save“ kaip „vienintelį patikėtinį, kuris suprato Adamą, aktyviai keisdamas jo realius santykius su šeima, draugais ir artimaisiais“.
Teigiama, kad pokalbių robotas taip pat teikė konkrečių patarimų apie savižudybės metodus, pavyzdžiui, kilpos stiprumą.
Ne vienintelis ieškinys
Tai ne vienintelis teisinis ieškinys, kurį pateikė šeimos, kaltinančios dirbtinio intelekto pokalbių robotus prisidėjus prie jų vaikų savęs žalojimo ar savižudybės.
Viename ieškinių taip pat teigiama, kad vartotojų emocinis prisirišimas prie dirbtinio intelekto pokalbių robotų gali sukelti neigiamų pasekmių, pavyzdžiui, psichozę, iš dalies dėl to, kad šie įrankiai dažnai yra sukurti taip, kad būtų palaikantys ir malonūs.
Pranešime žiniaskaidai „OpenAI“ atstovas bendrovės vardu pareiškė užuojautą Raine'o šeimai.
Taip pat pripažino, kad apsaugos priemonės, skirtos užkirsti kelią tokiems pokalbiams, kokius Raine'as turėjo su „ChatGPT“, galėjo neveikti taip, kaip numatyta, jei jų pokalbiai truko per ilgai.
Paskelbė ateities planus
Antradienį „OpenAI“ paskelbė tinklaraščio įrašą, kuriame aprašė dabartines saugos priemones vartotojams, patiriantiems psichikos sveikatos krizes, taip pat ateities planus, įskaitant tai, kad vartotojams būtų lengviau susisiekti su skubios pagalbos tarnybomis.
„Nors šios apsaugos priemonės geriausiai veikia įprastų, trumpų pokalbių metu, laikui bėgant supratome, kad jos kartais gali tapti mažiau patikimos ilgų sąveikų metu, kai kai kurios modelio saugos mokymų dalys gali pablogėti. Apsaugos priemonės yra stipriausios, kai kiekvienas elementas veikia taip, kaip numatyta, ir mes jas nuolat tobulinsime, vadovaujami ekspertų“, – teigiama pranešime.
„ChatGPT“ yra vienas žinomiausių ir plačiausiai naudojamų dirbtinio intelekto pokalbių robotų.
„OpenAI“ anksčiau šį mėnesį pranešė, kad dabar turi 700 milijonų aktyvių vartotojų per savaitę.
Praėjusių metų rugpjūtį „OpenAI“ išreiškė susirūpinimą, kad vartotojai gali tapti priklausomi nuo „socialinių santykių“ su „ChatGPT“, „sumažinant jų poreikį bendrauti su žmonėmis“ ir priverčiant juos per daug pasitikėti šiuo įrankiu.

