Kai 34 metų Jackie Davalos gavo pranešimą, kad ji yra skolinga 22 604 JAV dolerių (19,4 tūkst. eurų) ligoninei už vizitą skubios pagalbos skyriuje po to, kai prieš dvejus metus nukrito nuo laiptų, jos partneris Walteris Kerras kreipėsi į pokalbių robotą „Claude“, kad šis padėtų užginčyti ligoninės sąskaitą.
39 metų Walteris, pasaulinės plėtros ne pelno siekiančios organizacijos vadovas, sakė, kad pokalbių robotas pasirodė esąs naudingas patarėjas, „bet ne tobulas“.
Šiuo metu, kai sveikatos priežiūros išlaidos yra svarbiausias amerikiečių finansinis rūpestis, vis daugiau pacientų kreipiasi į „Claude“ ar „ChatGPT“ kaip į nieko nekainuojantį, savarankišką būdą spręsti problemas, susijusias su sąskaitomis už medicinos paslaugas ar draudimu. Ši tendencija yra pakankamai gaji, todėl Amerikos ligoninių asociacija jau įspėjo savo narius, kad pacientai vis dažniau naudojasi dirbtiniu intelektu, jog užginčytų sąskaitas.
Sveikatos priežiūros paslaugas teikiantieji ir draudimo kampanijos jau kurį laiką naudoja dirbtinį intelektą tam, kaip kai kurie žmonės mano, kad padidintų mokesčius ir atmestų prašymus.
Gali atrodyti, kad pokalbių robotai suteikia pacientams galimybę pakovoti už save. Tačiau kritikai įspėja, kad šios priemonės duoti klaidinančių patarimų, ypač tokiems naudotojams, kurie turi mažiau patirties naudojant dirbtinį intelektą arba neturi daug žinių apie sveikatos priežiūros sistemą.
Nors pokalbių robotai gali paaiškinti pacientų teises ir nustatyti, kokiu būdu jiems gali būti suteikta pagalba, kritikai tvirtina, kad jie dažnai neužduoda klausimų apie svarbias aplinkybes arba nutyli reikšmingus sprendimus, todėl pacientai patys turi užpildyti atsirandančias spragas.
Tuo tarpu technologijų bendrovės tvirtina, kad jų dabartiniai modeliai yra sudėtingesni ir eliminuoja daugelį kritikų įvardytų trūkumų.
Bendrovė „OpenAI“, „ChatGPT“ kūrėja, teigė, kad jos naujieji modeliai buvo „išmokyti kalbėti atsargiau, daugiau naršyti ir, kai reikia, teirautis papildomos informacijos“. (Laikraštis „The New York Times“ padavė „OpenAI“ į teismą dėl naujienų turinio autorių teisių pažeidimo. „OpenAI“ šiuos reikalavimus neigia.)
„Mes iš tikrųjų galime laimėti“
Jackie sakė, kad ji niekada negavo sąskaitos iš George'o Washingtono universitetinės ligoninės, kurioje ji buvo gydoma. Be to, remiantis įrašais, moteris dar buvo per klaidą įtraukta į neapdraustųjų sąrašą. J.Davalos tuo metu dirbo žurnaliste „Bloomberg“ naujienų tarnyboje, todėl baiminosi, kad skola gali sužlugdyti jos ir Walterio svajonę įsigyti namą.
Iš pradžių pora bandė užginčyti sąskaitą su motinine bendrove „Universal Health Services“, kuri tvarko ligoninės sąskaitas. Williamas pasakojo, kad atsakydama į jų skundą, bendrovė panaikino išlaidas už vaistus, tačiau pabrėžė, jog Jackie turės sumokėti likusią sumą.
Dėl to praėjusią liepą vyras nusprendė įkelti savo partnerės sąskaitas ir medicininius įrašus į „Claude“ ir paprašė pokalbių roboto įvertinti, ar jie turi kokią nors išeitį, ar gali kaip nors apsiginti.
Dirbtinis intelektas Williamui pateikė keletą pasiūlymų. Tarp jų buvo ir vienas, teigiantis, kad ligoninė galėjo nesilaikyti kai kurių teisinių reikalavimų skolos ir draudimo klausimais.
Pokalbių roboto pasiūlymai, anot Williamo, įkvėpė jį patikėti, kad jis ir Jackie gali turėti pagrindo toliau užginčijant ligoninės sąskaitą.
Vyras prisipažino tada pirmą kartą pajutęs, kad „mes tikrųjų galime laimėti“.
Remdamasis daugeliu pokalbių roboto pateiktų argumentų, Williamas parašė laišką ligoninės ir „Universal Health Services“ vadovams, ragindamas juos atsiimti kaltinimų. Neilgai trukus ligoninė anuliavo visą sąskaitą.
Nors Williamas laimėjo ginčą, tačiau dirbtinio intelekto patarimai galėjo būti ne visai teisingi. Tyrimai rodo, kad pokalbių robotai, atsakydami į teisinius klausimus, dažnai klysta.
Įvertinęs įvykusio ginčo santrauką Arielis Levinsonas-Waldmanas, Vašingtone veikiančio ne pelno siekiančio teisinės pagalbos centro „Tzedek DC“ įkūrėjas ir vadovas, atkreipė dėmesį, kad kai kurios „Claude“ analizės buvo teisingos. Tačiau, pasak jo, pokalbių robotas neteisingai suprato skolų ir draudimo įstatymus, kuriuos citavo, ir neinformavo Williamo ir Jackie apie kitus scenarijus, kuriais jie galėjo pasinaudoti.
Pavyzdžiui, kaip teigė A.Levinsonas-Waldmanas, kai kurie teisiniai reikalavimai, kurių, kaip teigė „Claude“, gydymo įstaiga galėjo nesilaikyti, buvo taikomi draudikams arba trečiųjų šalių išieškotojams, o ne ligoninėms. Tačiau jis sakė negalįs daryti išsamesnių išvadų, jei neperžiūrės daugiau įrašų.
George'o Washingtono universitetinė ligoninė ir „Universal Health Services“ teigė, kad federaliniai privatumo įstatymai riboja tai, ką jie gali atskleisti apie J.Davalos sąskaitą.
Tačiau ligoninės atstovė spaudai Susana LaRosa pripažino, kad, kai Jackie buvo priimta į ligoninę, buvo padaryta „techninė klaida“. Jos teigimu, ligoninė panaikino skolą, kai sužinojo atnaujintą informaciją, nurodė S.LaRosa ir pridūrė, kad tai neturėjo įtakos J.Davalos kredito istorijai.
„Universal Health Services“ atstovė spaudai Maria English patvirtino, kad skola buvo anuliuota, kai buvo gauta visa informacija apie situaciją ir užbaigti kontaktai su pacientu. Tačiau toks sprendimas buvo priimtas tik po to, kai Williamas paaštrino ginčą.
„Claude“ kūrėja bendrovė „Anthropic“ atsisakė komentuoti pokalbių roboto veikimą.
Klaidinantys patarimai
Norint gauti naudingų atpatarimų iš pokalbių robotų, dažnai reikia žinoti, kaip tinkamai jiems suformuluoti užklausas, arba turėti pakankamai žinių apie sveikatos draudimą, kad būtų galima pateikti reikalingą kontekstą, komentavo ne pelno siekiančios įmonės „Health Law Advocates“ advokatas Andrew Cohenas. Dėl šių reikalavimų daugelis žmonių iš tiesų pralošia.
46 metų Michelle Maziar, imigracijos politikos konsultantė Atlantoje, praėjusių metų liepą išbandė „ChatGPT“, kad padėtų jai susigrąžinti 3140 JAV dolerių (2 701 eurų) išmoką, kurią buvo skolinga draudimo bendrovė „Anthem“.
Anot moters, „Anthem“ iš pradžių atmetė jos prašymą dėl suteiktų vaisingumo paslaugų kompensacijos, tačiau 2023 m. kovo mėn. bendrovė atšaukė panaikinimą ir prašymą priėmė. Moteris išmokos taip ir negavo. Michelle pagalvojo, kai jai galėtų padėti pokalbių robotas.
Tačiau „ChatGPT“ daugiausiai jai siūlė žingsnius, kuriuos ji jau buvo išbandžiusi, įskaitant pasiūlymą pasikalbėti su vadybininku, arba davė patarimų, kurie, panašu, būtų nuvedę į dar vieną aklavietę: tarkime, kreiptis į savo valstijos draudimo komisarą.
„Tai nuvylė“, – pareiškė M.Maziar.
Nusivylusi ir negalėdama sau leisti nusisamdyti advokato, moteris sustabdė ginčą.
Michelle pasidalijo suformuluota užklausa „ChatGPT“ pokalbių robotui su laikraščiu „The New York Times“. Pokalbio stenogramą peržiūrėjusi profesionali pacientų advokatė Nicole Broadhurst pritarė daugeliui patarimų, kuriuos pateikė dirbtinis intelektas.
Tačiau, panot jos, robotas praleido svarbų žingsnį: neuždavė klausimų apie tai, kas rūpinosi M.Maziar draudimo planu. Jos buvęs darbdavys, Atlantos miestas, vidinio draudimo mechanizmu, todėl susisiekti su valstijos draudimo komisaru, kaip siūlė „ChatGPT“, nebūtų buvę naudinga.
Janey Kiryluik, draudimo bendrovės „Anthem“ atstovė spaudai, teigė, kad dėl klaidos buvo uždelstas M.Maziar mokėjimas, tačiau nurodė, kad dabar jis jau pilnai išmokėtas. Tai patvirtino ir Michelle.
N.Broadhurst atkreipė dėmesį, kad pokalbių robotai gali be priekaištų išversti žargoną ir atlikti pagrindinį darbą, pavyzdžiui, ieškoti raktinių žodžių bendrovių politikos dokumentuose, tačiau dažnai jie stokoja gebėjimo įvertinti situaciją, būtino sudėtingiems atvejams.
Kritikų nuomone, net ir tais atvejais, kai dirbtinis intelektas tinkamai perpranta taisykles, jis gali klaidingai nukreipti pažeidžiamus pacientus.
Praėjusių metų liepą vieniša motina ir bendruomenės aktyvistė Maria Vanegas kreipėsi į „ChatGPT“ po to, kai Dalaso ligoninė „Medical City Dallas“ už skubų vizitą jai išrašė 3930 dolerių (3381 eurų) sąskaitą, kurios ji negalėjo sumokėti.
Pirmiausia, pokalbių robotas pasiūlė jai atlikti sąskaitos auditą. Atsižvelgdama į šį patarimą, moteris ėmėsi veiksmų, kad gautų detalų išrašą. Tačiau mintis apie ginčą su ligonine ją gąsdino.
„Buvo baugu, – sakė Maria, – nežinau medicininio žargono“.
Vėliau dirbtinis intelektas rekomendavo kreiptis finansinės pagalbos – įvertinti programas, kurias siūlo dauguma ligoninių, kad atleistų nuo sąskaitų arba suteiktų nuolaidą reikalavimus atitinkantiems pacientams, – tačiau moteris pripažino, kad paaiškinimas apie pagalbai gauti tinkamų asmenų kriterijus buvo toks techninis, kad ji negalėjo suprasti, ar ji atitiks reikalavimus, o ligoninė jai nepasiūlė jokios finansinės pagalbos.
Maria sakė, kad dėl šių kliūčių ji beveik nuleido rankas. Tačiau pokalbyje su robotu pastebėjo nuorodą į „Dollar For“, ne pelno siekiančią organizaciją, kuri padeda pacientams kreiptis dėl finansinės pagalbos. Ji susisiekė su šia organizacija, o ji suteikė reikalingą pagalbą, kad būtų anuliuota sąskaita.
Jaredas Walkeris, „Dollar For“ įkūrėjas, neseniai pats išbandė „ChatGPT“, pateikdamas panašią užklausą, ir pokalbių robotas finansinę pagalbą nurodė tik kaip papildomą galimybę. Tai, pasak jo, sumenkina galimybių spektrą, į kurias gali pretenduoti daugelis viduriniosios klasės namų ūkių.
„Medical City Dallas“ ligoninės atstovė spaudai Emma Philips, remdamasi konfidencialumo principais, atsisakė komentuoti M.Vanegas atvejį. Tačiau, pasak jos, pacientai registracijos metu gauna dokumentus apie finansinę atsakomybę ir gali pasikonsultuoti su ligoninės konsultantais dėl galimybės gauti pagalbą.
Bendrovės „OpenAI“ atstovė spaudai citavo vidinius duomenis, rodančius, kad dabartiniai bendrovės pokalbių robotų modeliai dažniau nei ankstesnės versijos užduoda papildomus klausimus, kai dirbtinio intelekto programai kyla neaiškumų, ir pateikia daug geresnius atsakymus sveikatos klausimais nei ankstesnės versijos.
Privatumo rizika
Pacientai, kurie su pokalbių robotais dalijasi savo sveikatos įrašais ar sąskaitomis, rizikuoja atskleisti jautrią informaciją bendrovėms, kurios turi mažai teisinių apsaugos priemonių dėl tokios informacijos atskleidimo.
Skirtingai nei ligoninės ir draudimo bendrovės, pokalbių robotus kuriančioms įmonėms netaikomas HIPAA – Sveikatos draudimo mobilumo ir atskaitomybės aktas, kitaip tariant sveikatos privatumo įstatymas. Jos gali savo nuožiūra keisti privatumo politiką, o pokalbių robotui pateikta informacija nėra teisiškai apsaugota taip, kaip pokalbis su gydytoju, todėl ją galima lengviau perduoti kaip dalį informacijos, atskleistos teismo procese ar ginče dėl globos.
Bendrovės „OpenAI“ ir „Anthropic“ anksčiau pažadėjo, kad neapmokys savo dirbtinio intelekto modelių pagal vartotojų pateikiamus sveikatos duomenis, ir šią informaciją saugos atskirai. Tačiau abiejų bendrovių apsaugos priemonės reikalauja prisijungimo ir šiuo metu yra prieinamos tik mokamiems prenumeratoriams arba laukimo sąraše esantiems žmonėms, o ne plačiajai visuomenei.
Stenfordo universiteto duomenų privatumo tyrėja Jennifer King apsaugos priemonių įtraukimą pavadino patobulinimu, tačiau jai kilo klausimų dėl to, kodėl jos netaikomos visuotinai.
Geresnis, bet vis dar ribotas
2024 m. pabaigoje 58 metų Joelis Bacharas, restorano padavėjas Šarlotėje (Šiaurės Karolina), į „ChatGPT“ įkėlė draudimo dokumentus ir pateikė užklausą, kodėl jo sveikatos planas padengia tik labai mažą dalį jo magnetinio rezonanso tomografijos tyrimo išlaidų.
Jis prisiminė, kad pokalbių robotas nepasiūlė jokių sprendimų – tai buvo aklavietė. Vyras pripažino, kad paskambini savo draudikui, kad užginčytų sumą, bet galiausiai sumokėjo 1170 JAV dolerių (1006 eurų) likutį. Bendrovės „UnitedHealthcare“, kuriai priklauso Joelio draudimo kompanija, atstovė spaudai Caroline Landree teigė, kad užklausa buvo apdorota teisingai ir atspindėjo vyro draudimo polise numatytas išmokas.
Neseniai Joelis pakartojo savo užklausą „ChatGPT“ pokalbių robotui. Šįkart jis pateikė patarimų, kaip sumažinti sąskaitą, pavyzdžiui, paprašant nuolaidos ir tuomet apmokant ją be atidėjimo.
Tačiau pokalbių robotas taip pat pademonstravo savo ribotumą. Julienas Nakache'as, sąskaitų derinimo startuolio „Granted Health“ – specializuotos dirbtinio intelekto įmonės, kuri užginčija sąskaitas ir paraiškų atmetimą, ir kuriai J.Bacharas sumokėjo kitiems atvejams išspręsti, – vadovas, peržiūrėjo minimą susirašinėjimą.
Pasak J.Nakache'o, Joelio atveju pokalbių robotas teigė, kad pagal sveikatos draudimo planą išmoka buvo pritaikyta teisingai, tačiau neuždavė papildomų klausimų, jog išsiaiškintų, ar tai tiesa. Taip pat nepasiūlė patikrinti, ar sąskaitoje nėra klaidų.
„OpenAI“ atstovas prakalbo, kad jų bendrovė pasitelkė gydytojus, kad jie išbandytų jos pokalbių robotus ir įvertintų jų atsakymus, susijusius su sveikatos apsauga, įskaitant sąskaitas ir draudimą.
Kiti pacientai taip pat atkreipė dėmesį, kad, susidūrusi su varginančia biurokratija, ši technologija gali tiesiog atsidurti akligatvyje. Po to, kai W.Kerras socialiniuose tinkluose pasidalijo detalėmis apie savo ginčą su George'o Washingtono universitetine ligonine, vyras ėmėsi pagalbos ir kitiems užginčyti sąskaitas naudodamasis pokalbių robotais. Nepaisant to, kai kurie žmonės pasidavė. Kiti vis dar yra nežinioje, laukdami atsakymo.
Sėkmė, pasak Williamo, dažnai reikalauja atkaklumo, o čia „dirbtinis jums padėti negali“.






