DALINTIS | SPAUSDINTI | SIŲSTI EL. PAŠTU
Prieš Covidą save būčiau apibūdinęs kaip technologinį optimistą. Naujos technologijos beveik visada atsiranda perdėtos baimės akivaizdoje. Geležinkeliai buvo laikomi psichinių sutrikimų priežastimi, dviračiai – moterų nevaisingumu arba išprotėjimu, o ankstyvoji elektra buvo kaltinama dėl visko – nuo moralinio nuosmukio iki fizinio žlugimo. Laikui bėgant, šios baimės išblėso, visuomenės prisitaikė, o gyvenimo lygis pakilo. Modelis buvo pakankamai pažįstamas, kad dirbtinis intelektas, regis, jį paseks: trikdantis, kartais netinkamai naudojamas, bet galiausiai valdomas.
Covid metai tą pasitikėjimą sudrebino – ne dėl to, kad žlugo technologijos, o dėl to, kad žlugo institucijos.
Didžiojoje pasaulio dalyje vyriausybės ir ekspertų organizacijos į neapibrėžtumą reagavo precedento neturinčiomis socialinėmis ir biomedicininėmis intervencijomis, pateisinamomis blogiausio atvejo modeliais ir įgyvendinamomis su neįtikėtinu užtikrintumu. Konkuruojančios hipotezės buvo labiau nustumtos į šalį, o ne aptarinėjamos. Skubios priemonės virto ilgalaike politika. Kai įrodymai pasikeitė, klaidų pripažinimas buvo retas, o atskaitomybė – dar retesnė. Ši patirtis atskleidė gilesnę problemą nei bet kokia viena politikos klaida: šiuolaikinės institucijos atrodo prastai pasirengusios valdyti neapibrėžtumą nepersistengdamos.
Ši pamoka dabar daro didelę įtaką diskusijoms apie dirbtinį intelektą.
Dirbtinio intelekto rizikos skirtumas
Apskritai susirūpinimas dėl pažangaus dirbtinio intelekto skirstomas į dvi stovyklas. Viena grupė, siejama su tokiais mąstytojais kaip Eliezeris Yudkowsky ir Nate'as Soaresas, teigia, kad pakankamai pažangus dirbtinis intelektas savaime yra katastrofiškai pavojingas. Savo sąmoningai griežta formuluote jie... Jei kas nors jį pastatys, visi mirs, problema yra ne blogi ketinimai, o paskatos: konkurencija užtikrina, kad kažkas sutaupys pinigų, o sistemai praradus prasmingą kontrolę, ketinimai nebesvarbūs.
Antra stovykla, kurioje yra tokių veikėjų kaip Stuartas Russellas, Nickas Bostromas ir Maxas Tegmarkas, taip pat rimtai vertina dirbtinio intelekto riziką, tačiau yra optimistiškiau nusiteikusi, kad suderinimas, kruopštus valdymas ir laipsniškas diegimas gali padėti išlaikyti sistemas kontroliuojamas žmonių.
Nepaisant skirtumų, abi stovyklos sutaria dėl vienos išvados: neribotas dirbtinio intelekto kūrimas yra pavojingas, todėl būtina tam tikra priežiūros, koordinavimo ar ribojimo forma. Jos išsiskiria dėl įgyvendinamumo ir skubumo. Tačiau retai nagrinėjama, ar institucijos, iš kurių tikimasi šio ribojimo, pačios yra tinkamos šiam vaidmeniui.
Covid suteikia pagrindo abejoti.
Covid nebuvo vien visuomenės sveikatos krizė; tai buvo gyvas ekspertų vadovaujamo valdymo eksperimentas neapibrėžtumo sąlygomis. Susidūrusios su nepilnais duomenimis, valdžios institucijos ne kartą rinkosi maksimalias intervencijas, pateisinamas spekuliatyvia žala. Nesutikimas dažnai buvo traktuojamas kaip moralinė nesėkmė, o ne mokslinė būtinybė. Politika buvo ginama ne skaidria sąnaudų ir naudos analize, o apeliuojant į autoritetą ir baiminantis hipotetinės ateities.
Šis modelis svarbus, nes atskleidžia, kaip šiuolaikinės institucijos elgiasi, kai interesai įrėminti kaip egzistenciniai. Paskatos perkeliamos į ryžtingumą, naratyvo kontrolę ir moralinį tikrumą. Klaidų taisymas tampa brangus reputacijos atžvilgiu. Atsargumas nustoja būti įrankiu ir tampa doktrina.
Pamoka ne ta, kad ekspertai turi unikalių trūkumų. Pamoka ta, kad institucijos daug patikimiau apdovanoja per didelį pasitikėjimą savimi nei nuolankumą, ypač kai politika, finansavimas ir visuomenės baimė sutampa. Kai tik ypatingos galios pareiškiamos vardan saugumo, jų retai kada atsisakoma noriai.
Būtent tokia dinamika dabar matoma diskusijose apie dirbtinio intelekto priežiūrą.
„Kas būtų, jeigu“ mašina
Pasikartojantis ekspansinės valstybės intervencijos pateisinimas yra hipotetinis blogas veikėjas: O jeigu tai pastatys teroristas? O jeigu tai padarys piktavališka valstybė? Iš šios prielaidos kyla argumentas, kad vyriausybės privalo veikti prevenciškai, dideliu mastu ir dažnai slapta, kad išvengtų katastrofų.
Covid pandemijos metu panaši logika pateisino plataus masto biomedicininių tyrimų darbotvarkes, skubios pagalbos leidimus ir socialinę kontrolę. Samprotavimas buvo cikliškas: nes kažkas pavojingo galia jei taip atsitiktų, valstybė privalo imtis nepaprastų veiksmų dabar – veiksmų, kurie patys savaime kelia didelę, bet menkai suprantamą riziką.
Dirbtinio intelekto valdymas vis dažniau apibrėžiamas tokiu pačiu būdu. Pavojus kyla ne tik dėl to, kad dirbtinio intelekto sistemos gali elgtis nenuspėjamai, bet ir dėl to, kad baimė dėl tokios galimybės įteisins nuolatinį valdymą ekstremaliose situacijose – centralizuotą skaičiavimų, tyrimų ir informacijos srautų kontrolę – remiantis tuo, kad nėra kitos alternatyvos.
Privati rizika, viešoji rizika
Vienas nepakankamai įvertintas skirtumas šiuose debatuose yra tarp privačių subjektų keliamos rizikos ir valstybės valdžios keliamos rizikos. Privačias įmones varžo – netobulai, bet prasmingai – atsakomybė, konkurencija, reputacija ir rinkos drausmė. Šie apribojimai nepašalina žalos, tačiau sukuria grįžtamąjį ryšį.
Vyriausybės veikia kitaip. Kai valstybės veikia siekdamos užkirsti kelią katastrofoms, grįžtamasis ryšys susilpnėja. Nesėkmes galima perkvalifikuoti kaip būtinybes. Išlaidas galima perkelti į išorines instancijas. Slaptumą galima pateisinti saugumu. Hipotetinė būsima žala tampa politikos svertais dabartyje.
Keletas dirbtinio intelekto šalininkų netiesiogiai tai pripažįsta. Bostromas perspėjo apie „užrakinimo“ efektus – ne tik dėl dirbtinio intelekto sistemų, bet ir dėl panikos akimirkomis sukurtų valdymo struktūrų. Anthony Aguirre'o raginimas laikytis pasaulinės santūrumo, nors ir logiškai nuoseklus, remiasi tarptautinėmis koordinavimo įstaigomis, kurių pastaruoju metu pasiekta prastų rezultatų kuklumo ir klaidų taisymo srityje. Dar nuosaikesni pasiūlymai daro prielaidą, kad reguliavimo institucijos geba atsispirti politizavimui ir misijos plitimui.
Covid-19 mums mažai priežasčių pasitikėti šia prielaida.
Priežiūros paradoksas
Tai veda prie nerimą keliančio paradokso, kuris yra dirbtinio intelekto diskusijų centre. Jei kas nors nuoširdžiai tiki, kad pažangų dirbtinį intelektą reikia apriboti, sulėtinti ar sustabdyti, būtent vyriausybės ir tarptautinės institucijos greičiausiai turės galią tai padaryti. Tačiau būtent šių veikėjų pastaruoju metu pademonstruotas elgesys mažiausiai leidžia pasitikėti ribotu ir grįžtamu šios galios naudojimu.
Avarinių situacijų rėmai yra nepastovūs. Įgaliojimai, įgyti valdant hipotetines rizikas, linkę išlikti ir plėstis. Institucijos retai kada sumenkina savo pačių svarbą. Dirbtinio intelekto kontekste tai iškelia galimybę, kad atsakas į dirbtinio intelekto riziką įtvirtina trapias, politizuotas kontrolės sistemas, kurias sunkiau panaikinti nei bet kurią atskirą technologiją.
Kitaip tariant, pavojus yra ne tik tas, kad dirbtinis intelektas ištrūksta iš žmogaus kontrolės, bet ir tai, kad baimė dėl dirbtinio intelekto spartina valdžios koncentraciją institucijose, kurios jau ir taip lėtai pripažįsta klaidas ir yra priešiškos nesutikimui.
Permąstant realią riziką
Tai nėra argumentas, kodėl dirbtinis intelektas yra toks akivaizdus, kaip ir neigimas, kad galingos technologijos gali padaryti realios žalos. Tai argumentas, kad reikia praplėsti požiūrį. Institucinė nesėkmė pati savaime yra egzistencinis kintamasis. Sistema, kuri remiasi geranorišku, save koreguojančiu valdymu, nėra saugesnė už tą, kuri remiasi geranorišku, suderintu superintelektu.
Prieš Covid pandemiją buvo pagrįsta didžiąją dalį technologinio pesimizmo priskirti žmonių negatyvumo šališkumui – polinkiui manyti, kad mūsų kartos iššūkiai yra išskirtinai neįveikiami. Po Covid pandemijos skepticizmas atrodo mažiau kaip šališkumas ir labiau kaip patirtis.
Todėl pagrindinis klausimas DI diskusijose yra ne tik tai, ar mašinos gali būti suderintos su žmogiškosiomis vertybėmis, bet ir ar galima pasitikėti šiuolaikinėmis institucijomis, kad jos valdys neapibrėžtumą jo nestiprindamos. Jei šis pasitikėjimas sumažėjo – o Covid rodo, kad taip ir buvo – tuomet raginimai vykdyti plačią DI priežiūrą nusipelno bent jau tiek pat dėmesio, kiek ir teiginiai apie technologinį neišvengiamumą.
Didžiausia rizika galbūt nėra ta, kad dirbtinis intelektas taps pernelyg galingas, tačiau baimė dėl tokios galimybės pateisina kontrolės formas, su kuriomis vėliau atrandame daug sunkiau gyventi arba nuo kurių išvengti.
-
Rogeris Bate'as yra Brownstone'o universiteto narys, vyresnysis mokslo darbuotojas Tarptautiniame teisės ir ekonomikos centre (2023 m. sausio mėn. – dabar), Afrikos kovos su maliarija valdybos narys (2000 m. rugsėjo mėn. – dabar) ir Ekonomikos reikalų instituto narys (2000 m. sausio mėn. – dabar).
Žiūrėti visus pranešimus