DALINTIS | SPAUSDINTI | SIŲSTI EL. PAŠTU
Mano patirtis medicinoje leidžia man atskirti tikras inovacijas nuo subtilaus perkvalifikavimo, kuris iš esmės pakeičia praktiką, nors atrodo nepakitęs. Dirbtinis intelektas pastaruoju metu sulaukė didelio dėmesio, įskaitant plačiai paplitusį teiginį, kad DI Jungtinėse Valstijose „teisėtai įgaliotas praktikuoti mediciną“. Aiškinamas pažodžiui, šis teiginys yra netikslus. Jokia medicinos taryba nelicencijavo mašinos. Joks algoritmas neprisiekė, neprisiėmė fiduciarinės pareigos ar asmeninės atsakomybės už pacientui padarytą žalą. Joks robotas gydytojas neatidaro klinikos, neišrašo sąskaitų draudikams ir nestovi prieš aplaidumo prisiekusiųjų teismą.
Tačiau sustojimas ties šia pastaba nepastebi platesnio masto problemos. Šiuo metu iš naujo apibrėžiamos teisinės atsakomybės sąvokos, dažnai apie tai neinformuojant visuomenės.
Vyksta reikšminga transformacija, pateisinanti daugiau nei refleksyvų atmetimą ar nekritišką technologinį entuziazmą. Dabartinė raida nėra dirbtinio intelekto, kaip gydytojo, licencijavimas, o laipsniškas medicinos pagrindinės ribos – vidinio ryšio tarp klinikinio sprendimo ir žmogaus atskaitomybės – nykimas. Klinikinis sprendimas apima pagrįstų sprendimų, pritaikytų kiekvieno paciento unikaliems poreikiams ir aplinkybėms, priėmimą, reikalaujantį empatijos, intuicijos ir gilaus medicinos etikos supratimo.
Žmonių atskaitomybė reiškia sveikatos priežiūros paslaugų teikėjų prisiimamą atsakomybę už šiuos sprendimus ir jų rezultatus. Šis nykimas nėra dramatiškų teisės aktų ar viešų diskusijų rezultatas, o vyksta tyliai per bandomąsias programas, reglamentų interpretavimą iš naujo ir kalbą, kuri sąmoningai užgožia atsakomybę. Kai ši riba išnyksta, medicina transformuojasi taip, kad ją sunku pakeisti.
Pagrindinis rūpestis yra ne tai, ar dirbtinis intelektas gali išrašyti receptus ar pastebėti nenormalius laboratorinių tyrimų rezultatus. Medicinoje jau seniai naudojamos priemonės, o sveikatos priežiūros paslaugų teikėjai paprastai palankiai vertina pagalbą, kuri sumažina administracines užduotis arba pagerina šablonų atpažinimą. Tikrasis klausimas yra tas, ar medicininis sprendimas – sprendimas dėl tinkamų veiksmų, pacientų ir rizikos – gali būti laikomas kompiuterio sugeneruotu rezultatu, atskirtu nuo moralinės atsakomybės. Istoriškai pastangos atsieti sprendimą nuo atskaitomybės dažnai darydavo žalą neprisiimant atsakomybės.
Naujausi įvykiai paaiškina dabartinės painiavos priežastis. Keliose valstijose ribotos bandomosios programos dabar leidžia dirbtiniu intelektu pagrįstoms sistemoms padėti atnaujinti receptus stabilioms lėtinėms ligoms gydyti pagal siaurai apibrėžtus protokolus. Federaliniu lygmeniu siūlomuose teisės aktuose buvo svarstoma, ar dirbtinis intelektas galėtų būti laikomas „praktiku“ konkrečiais įstatyminiais tikslais, jei jis būtų tinkamai reglamentuojamas. Šios iniciatyvos paprastai pateikiamos kaip pragmatiški atsakai į gydytojų trūkumą, vėlavimus gauti paslaugas ir administracinį neefektyvumą. Nors nė viena iš jų aiškiai neįvardija dirbtinio intelekto kaip gydytojo, kartu jos normalizuoja labiau nerimą keliančią prielaidą, kad medicininiai veiksmai gali būti atliekami be aiškiai identifikuojamo žmogaus sprendimų priėmėjo.
Praktiškai šis skirtumas yra esminis. Medicina apibrėžiama ne mechaniniu užduočių atlikimu, o atsakomybės priskyrimu, kai rezultatai nepalankūs. Recepto išrašymas yra nesudėtingas; prisiimti atsakomybę už jo pasekmes, ypač atsižvelgiant į gretutines ligas, socialinį kontekstą, paciento vertybes ar nepilną informaciją, yra daug sudėtingiau. Per visą savo karjerą ši atsakomybė nuolat tekdavo žmogui, kurį galima klausinėti, užginčyti, pataisyti ir patraukti atsakomybėn. Kai dr. Smithas padaro klaidą, šeima žino, su kuo susisiekti, taip užtikrinant tiesioginį ryšį su žmogaus atsakomybe. Joks algoritmas, kad ir koks sudėtingas jis būtų, negali atlikti šio vaidmens.
Pagrindinė rizika yra ne technologinė, o reguliavimo ir filosofinė. Šis perėjimas reiškia perėjimą nuo dorybės etikos prie procedūrinio požiūrio. Kai įstatymų leidėjai ir institucijos iš naujo apibrėžia medicininį sprendimų priėmimą kaip sistemų, o ne asmeninių veiksmų funkciją, keičiasi medicinos moralinis pagrindas. Atskaitomybė tampa difuzinė, žalą sunkiau priskirti, o atsakomybė pereina nuo gydytojų prie procesų, nuo sprendimų – prie protokolo laikymosi. Kai neišvengiamai pasitaiko klaidų, vyraujantis paaiškinimas tampa, kad „sistema vadovavosi nustatytomis gairėmis“. Šio perėjimo pripažinimas paaiškina perėjimą nuo individualizuoto etinio sprendimų priėmimo prie mechanizuoto procedūrinio laikymosi.
Šis susirūpinimas nėra teorinis. Šiuolaikinė sveikatos priežiūra jau susiduria su iššūkiais, susijusiais su susilpnėjusia atskaitomybe. Pastebėjau, kaip pacientai, nukentėję nuo algoritmais pagrįstų sprendimų, pasimeta tarp administratorių, tiekėjų ir neskaidrių modelių, neturėdami aiškaus atsakymo į esminį klausimą: kas priėmė šį sprendimą? Dirbtinis intelektas gerokai paspartina šią problemą. Algoritmas negali pateikti moralinių paaiškinimų, taikyti sąžinės nurodymų, atsisakyti veiksmų dėl etinių priežasčių ar pripažinti klaidos pacientui ar jo šeimai.
Didesnio dirbtinio intelekto autonomijos šalininkai dažnai pateisina savo sprendimą efektyvumu. Klinikos yra perpildytos, gydytojai patiria perdegimą, o pacientai dažnai laukia mėnesių, kol gaus pagalbą, kuri turėtų užtrukti vos kelias minutes. Šie nuogąstavimai yra pagrįsti, ir kiekvienas sąžiningas gydytojas juos pripažįsta. Tačiau vien efektyvumas nepateisina medicinos etinių pagrindų keitimo. Greičiui ir mastui optimizuotos sistemos dažnai aukoja niuansus, diskretiškumą ir individualų orumą. Istoriškai medicina priešinosi šiai tendencijai pabrėždama, kad priežiūra iš esmės yra santykiai, o ne sandoris.
Dirbtinis intelektas rizikuoja apversti šį ryšį aukštyn kojomis. Kai priežiūrą teikia sistemos, o ne individai, pacientas nebesudaręs sandoros su gydytoju, o tampa darbo eigos dalimi. Gydytojas prisiima mašinos prižiūrėtojo vaidmenį arba, dar labiau nerimą keliantį, tarnauja kaip teisinė apsauga, absorbuojanti atsakomybę už sprendimus, kuriuos jis pats nepriėmė. Laikui bėgant, klinikinį vertinimą keičia protokolo laikymasis, o moralinė veikla palaipsniui mažėja.
Dirbtinis intelektas taip pat įveda subtilesnę ir pavojingesnę problemą: neapibrėžtumo maskavimą. Medicina gyvena dviprasmybėje. Įrodymai yra tikimybiniai. Gairės yra preliminarios. Pacientai retai kada pateikia švarius duomenų rinkinius. Gydytojai yra apmokyti ne tik veikti, bet ir dvejoti – atpažinti, kada informacijos nepakanka, kada intervencija gali padaryti daugiau žalos nei naudos arba kada tinkama išeitis yra palaukti. Įsivaizduokite scenarijų, kai dirbtinis intelektas rekomenduoja išrašyti pacientą, tačiau paciento sutuoktinis atrodo išsigandęs, o tai pabrėžia įtampą tarp algoritminio sprendimų priėmimo ir žmogaus intuicijos. Tokia realaus pasaulio trintis pabrėžia dviprasmybės svarbą.
Dirbtinio intelekto sistemos nepatiria neapibrėžtumo; jos generuoja rezultatus. Kai jos yra neteisingos, jos dažnai tai daro su nepagrįstu pasitikėjimu. Ši savybė nėra programavimo trūkumas, o būdingas statistinio modeliavimo bruožas. Skirtingai nuo patyrusių klinikų specialistų, kurie atvirai reiškia abejones, dideli kalbos modeliai ir mašininio mokymosi sistemos negali atpažinti savo apribojimų. Jos pateikia tikėtinus atsakymus net tada, kai duomenų nepakanka. Medicinoje tikėtinumas be pagrindimo gali būti pavojingas.
Šioms sistemoms anksčiau integruojant klinikines darbo eigas, jų rezultatai vis labiau įtakoja vėlesnius sprendimus. Laikui bėgant, gydytojai gali pradėti pasitikėti rekomendacijomis ne dėl jų pagrįstumo, o dėl to, kad jos tapo normalizuotos. Sprendimų priėmimas palaipsniui pereina nuo aktyvaus samprotavimo prie pasyvaus priėmimo. Tokiomis aplinkybėmis „žmogus-žmogus kilpoje“ tėra simbolinė apsaugos priemonė.
Šalininkai dažnai tvirtina, kad DI tik „papildys“ gydytojus, o ne juos pakeis. Tačiau šis patikinimas yra silpnas. Kai DI įrodys efektyvumo padidėjimą, ekonominis ir institucinis spaudimas linkęs skatinti didesnę autonomiją. Jei sistema gali saugiai atnaujinti receptus, netrukus jai gali būti leista juos pradėti išrašyti. Jei ji gali tiksliai diagnozuoti dažnas ligas, gydytojo peržiūros būtinybė kyla abejonių. Jei kontroliuojamuose lyginamuosiuose tyrimuose ji pranoksta žmones, tolerancija žmonių kintamumui mažėja.
Atsižvelgiant į šias tendencijas, būtina įdiegti konkrečias apsaugos priemones. Pavyzdžiui, privalomi neatitikimų auditai, taikomi 5 % dirbtiniu intelektu pagrįstų sprendimų, galėtų būti naudojami kaip konkretus patikrinimas, užtikrinantis dirbtinio intelekto rekomendacijų ir žmogaus klinikinių sprendimų suderinamumą, kartu suteikiant reguliavimo institucijoms ir ligoninių valdyboms praktinius rodiklius dirbtinio intelekto integracijai stebėti.
Šie klausimai nėra keliami su piktais ketinimais; jie natūraliai kyla sistemose, orientuotose į sąnaudų ribojimą ir mastelio keitimą. Tačiau jie rodo ateitį, kai žmogaus sprendimas taps išimtimi, o ne norma. Tokiame scenarijuje asmenys, turintys išteklių, ir toliau gaus žmonių priežiūrą, o kiti bus nukreipiami automatizuotų procesų pagalba. Dviejų lygių medicina atsiras ne iš ideologijos, o iš optimizavimo.
Šią akimirką ypač pavojingą daro aiškių atsakomybės ribų nebuvimas. Kai dirbtinio intelekto pagrįstas sprendimas kenkia pacientui, kas yra atsakingas? Ar gydytojas nominaliai prižiūri sistemą? Įstaiga, kuri ją įdiegė? Tiekėjas, kuris apmokė modelį? Reguliavimo institucija, kuri patvirtino jo naudojimą? Be aiškių atsakymų atsakomybė išgaruoja. O kai atsakomybė išgaruoja, netrukus seka pasitikėjimas.
Medicina iš esmės priklauso nuo pasitikėjimo. Pacientai savo kūną, baimes ir dažnai gyvybę patiki gydytojams. Šis pasitikėjimas negali būti perkeltas į algoritmą, kad ir koks sudėtingas jis būtų. Jis pagrįstas užtikrinimu, kad šalia yra žmogus – žmogus, gebantis išklausyti, prisitaikyti ir būti atsakingas už savo veiksmus.
Visiškai atmesti dirbtinį intelektą nebūtina. Apdairiai naudojamas, DI gali sumažinti administracinę naštą, nustatyti modelius, kurių žmogus gali nepastebėti, ir padėti priimti klinikinius sprendimus. Jis gali suteikti gydytojams galimybę daugiau laiko skirti pacientų priežiūrai, o ne administracinėms užduotims. Tačiau norint suvokti šią ateitį, reikia aiškaus įsipareigojimo išlaikyti žmogaus atsakomybę medicinos praktikos centre.
„Žmogaus dalyvavimas“ turi reikšti daugiau nei simbolinę priežiūrą. Tai turėtų reikalauti, kad už kiekvieną medicininį sprendimą būtų atsakingas konkretus asmuo, suprastų jo pagrindimą ir išlaikytų tiek įgaliojimus, tiek pareigą nepaisyti algoritminių rekomendacijų. Tai taip pat turi apimti skaidrumą, paaiškinamumą ir informuotą paciento sutikimą, taip pat įsipareigojimą investuoti į žmones klinikinius specialistus, o ne juos pakeisti dirbtiniu intelektu.
Pagrindinė rizika yra ne pernelyg didelė dirbtinio intelekto galia, o institucijų noras atsisakyti atsakomybės. Siekiant efektyvumo ir inovacijų, kyla pavojus, kad medicina taps techniškai pažangia, administraciškai supaprastinta, tačiau moralinio pagrindo stokojančia sritimi.
Galvojant apie ateitį, svarbu paklausti: kokį gydytoją įsivaizduojame prie mūsų lovos 2035 m.? Šis klausimas reikalauja kolektyvinės moralinės vaizduotės, skatinančios mus kurti ateitį, kurioje žmogaus atsakomybė ir užjaučianti priežiūra išliktų medicinos praktikos centre. Kolektyvinės veiklos mobilizavimas bus labai svarbus siekiant užtikrinti, kad dirbtinio intelekto pažanga sustiprintų, o ne pakenktų šioms pagrindinėms vertybėms.
Dirbtinis intelektas neturėjo licencijos praktikuoti medicinos. Tačiau medicina tyliai pertvarkoma remiantis sistemomis, kurios neturi moralinio svorio. Jei šis procesas tęsis nekontroliuojamai, vieną dieną galime atrasti, kad gydytoją pakeitė ne mašina, o protokolas, ir kad įvykus žalai, nebėra kam už ją atsakyti.
Tai nebūtų pažanga. Tai būtų atsisakymas sosto.
-
Josephas Varonas, medicinos mokslų daktaras, yra intensyviosios terapijos gydytojas, profesorius ir Nepriklausomo medicinos aljanso prezidentas. Jis yra daugiau nei 980 recenzuojamų publikacijų autorius ir eina „Journal of Independent Medicine“ vyriausiojo redaktoriaus pareigas.
Žiūrėti visus pranešimus