Dabar populiaru
Publikuota: 2019 gruodžio 12d. 17:39

Amerikiečiai ragina mauti apynasrį dirbtiniam intelektui

Dirbtinis intelektas
„Reuters“/„Scanpix“ nuotr. / Dirbtinis intelektas

Dirbtinis intelektas (DI) veikiausiai „didina nelygybę“ visuomenėje, o jo naudojimui turėtų būti taikomi griežti reguliavimai ir apribojimai, ypač kalbant apie tokias jautrias technologijas kaip veidų atpažinimas, rašoma ketvirtadienį paskelbtoje JAV tyrėjų ataskaitoje.

Niujorko universiteto institutas „AI Now“ tiriantis dirbtinio intelekto naudojimo socialinius padarinius, priėjo išvadą, kad plačiai diegiant šias technologijas aiškėja neigiamas jų poveikis.

93 puslapių ataskaitoje nagrinėjami susirūpinimą keliantys klausimai: „nuo darbuotojų valdymo pasitelkiant DI iki išmokų ir socialinių paslaugų nustatymo per algoritmus, imigrantų ir nepakankamai atstovaujamų bendruomenių stebėjimo ir sekimo“, rašo tyrėjai.

„Aiškėja, kad įvairiose srityse ir aplinkose DI didina nelygybę, perduodamas informaciją ir kontrolę tiems, kas jau turi valdžią, ir dar labiau silpnina tuos, kurie jos neturi“, – sakoma dokumente.

Tyrėjų teigimu, tokiose srityse kaip sveikatos apsauga, švietimas, užimtumas ir teisėsauga DI sistemos diegiamos „nesant tinkamų apsaugos priemonių ar atskaitomybės mechanizmų“.

Ataskaitos autoriai ragina vyriausybes ir įmones nebenaudoti veidų atpažinimo technologijų „jautriose socialinėse ir politinėse situacijose“, kol bus geriau suprantama esama rizika. Pasak jų, „afekto atpažinimas“ – kitaip tariant, emocijų įvertinimas pasitelkiant kompiuterines technologijas – apskritai turėtų būti uždraustas, nes šios technologijos veiksmingumas labai abejotinas.

Emocijų atpažinimui „neturėtų būti leista atlikti svarbaus vaidmens priimant sprendimus dėl žmogaus gyvenimo, pavyzdžiui, jam dalyvaujant darbo pokalbyje ar įsidarbinant, nustatant draudimo kainą, paciento skausmo lygį ar įvertinant mokinio pažangumą mokykloje“, rašoma ataskaitoje.

Be to, tyrėjai ragina suteikti IT sektoriaus darbuotojams „teisę žinoti, ką jie kuria, ir priešintis neetiškam arba žalingam jų darbo panaudojimui“.

„AI Now“ ataskaitoje nurodoma, kad medicinos organizacijos, naudojančios pažangiausias technologijas, turi įgyvendinti duomenų apsaugos politiką ir suteikti žmonėms galimybę pasitraukti iš tyrimų ar gydymo procedūrų, kuriuose naudojama jų informacija apie jų sveikatos būklę.

Žvelgiant plačiau, tyrėjai ragina DI pramonę imtis „struktūrinių pokyčių“, kad būtų užtikrinta, jog algoritmai neįtvirtins rasizmo, išankstinio nusistatymo ar socialinės įvairovės stygiaus.

„DI pramonė yra akivaizdžiai homogeniška, visų pirma atsižvelgiant į jos požiūrį į moteris, nebaltuosius žmones, lytines mažumas ir kitas nepakankamai atstovaujamas grupes“, – teigiama ataskaitoje.

Joje priduriama, kad nors dedamos pastangos reguliuoti DI sistemas, šias pastangas pakerta faktas, kad pačios pačios „vyriausybės diegia DI sistemas stebėjimui ir kontrolei“.

„Nepaisant intensyvėjančio visuomenės susirūpinimo ir reguliavimo veiksmų, veido atpažinimo ir kitų rizikingų DI technologijų diegimas beveik nesulėtėjo“, – rašo tyrėjai.

„Vadinamieji „išmaniųjų miestų“ projektai visame pasaulyje sutelkia įtaką piliečių gyvenimui pelno siekiančių technologijų įmonių rankose, leisdami joms valdyti svarbiausius išteklius ir informaciją“.

BNS
Naujienų agentūros BNS informaciją atgaminti visuomenės informavimo priemonėse bei interneto tinklalapiuose be raštiško UAB „BNS“ sutikimo draudžiama.

Pranešti klaidą

Sėkmingai išsiųsta

Dėkojame už praneštą klaidą

Vardai

Praktiški patarimai

Gerumu dalintis gera
Skanumėlis

Sergu atsakingai

Sergu atsakingai

Video

03:20
00:34
00:16

Esports namai

URBAN˙/

Parašykite atsiliepimą apie Mokslas.IT