Kaip Lietuvos valstybės institucijos naudoja dirbtinį intelektą: kas jau veikia, kas planuojama ir ko piliečiai dar nežino

Tarp eksperimento ir rutinos

Lietuvos valstybės institucijos jau kurį laiką bando įsisavinti dirbtinio intelekto įrankius – tik šis procesas vyksta gana netolygiai ir, švelniai tariant, ne visada skaidriai. Vienos institucijos aktyviai komunikuoja apie savo iniciatyvas, kitos tyliai testuoja sistemas, o piliečiai dažniausiai sužino apie pokyčius tada, kai jie jau įvykę. Tai ne kaltinimas – greičiau stebėjimas apie tai, kaip viešasis sektorius paprastai keičiasi: lėtai, fragmentiškai ir su vėlavimu, palyginti su privačiu sektoriumi.

Vienas aiškiausių pavyzdžių – Valstybinė mokesčių inspekcija, kuri naudoja automatizuotą rizikos vertinimo sistemą mokesčių vengimo atvejams identifikuoti. Sistema analizuoja didelius duomenų masyvus ir išskiria įtartinus modelius, kuriuos vėliau tikrina žmonės. Tai nėra revoliucija – panašūs sprendimai Vakarų Europoje naudojami jau dešimtmetį – bet Lietuvos kontekste tai žingsnis į priekį. Kiek ši sistema klysta, kiek teisingų sprendimų priima ir kaip apskųsti jos išvadas – tai informacija, kuri viešai nėra lengvai prieinama.

Kas vyksta teisėsaugoje ir viešajame administravime

Policijos departamentas yra vienas aktyvesnių eksperimentuotojų. Veido atpažinimo technologijos, nusikalstamumo prognozavimo modeliai, automatizuotas vaizdo įrašų analizavimas – visa tai bent jau pilotinėje stadijoje egzistuoja. Čia svarbu sustoti ir paklausti: kokie teisiniai rėmai reglamentuoja šių sistemų naudojimą? Europos dirbtinio intelekto aktas, kuris įsigalioja etapais iki 2027 metų, aiškiai priskiria veido atpažinimą viešose vietose prie aukštos rizikos kategorijos, o tam tikrus naudojimo atvejus draudžia visiškai. Lietuva, kaip ES narė, privalo laikytis šių taisyklių – bet kaip tai vyksta praktikoje, stebėti yra sunku.

Viešojo administravimo srityje situacija kiek kitokia. „Sodra” ir „Registrų centras” naudoja automatizuotus sprendimų priėmimo elementus – pavyzdžiui, paraiškų apdorojimą ar dokumentų tikrinimą. Tai techniškai mažiau jautri sritis, bet ir čia kyla klausimas apie apskundimo mechanizmus: jei algoritmas atmetė jūsų paraišką, ar jūs žinote, kad tai padarė algoritmas, o ne žmogus?

Planai, kurie egzistuoja popieriuje

Lietuvos dirbtinio intelekto strategija, patvirtinta 2019 metais ir vėliau atnaujinta, numato gana platų valstybės skaitmeninimą. Sveikatos apsaugos ministerija yra kalbėjusi apie diagnostikos algoritmų integraciją, Švietimo ministerija – apie personalizuoto mokymosi sistemas. Dalis šių planų juda į priekį, dalis – sustojo ties koncepcijos stadija.

Vienas konkrečių projektų – e. sveikatos sistemos modernizavimas, kuriame numatyta naudoti DI pacientų duomenų analizei. Tai potencialiai naudinga – ankstyvesnė diagnostika, efektyvesnis išteklių paskirstymas – bet kartu kelia rimtų klausimų apie duomenų apsaugą. Lietuvos sveikatos duomenų bazės yra gana išsamios, ir jų naudojimas algoritminiams sprendimams reikalauja ne tik techninio, bet ir etinio pagrindimo.

Ko piliečiai nežino – ir kodėl tai svarbu

Čia ir slypi esminis skirtumas tarp to, kas deklaruojama, ir to, kas iš tikrųjų vyksta. Dauguma piliečių neturi supratimo, kuriose srityse valstybė jau naudoja automatinius sprendimų priėmimo mechanizmus, kokie duomenys apie juos analizuojami ir kokiais kriterijais remiantis priimami sprendimai, turintys įtakos jų gyvenimui – nuo socialinių išmokų iki mokesčių auditų.

Tai nėra unikaliai lietuviška problema – visoje ES valstybės institucijos susiduria su tuo, kaip komunikuoti apie algoritmines sistemas taip, kad tai būtų suprantama ir prasminga eiliniam žmogui. Bet Lietuvoje ši komunikacija kol kas yra fragmentiška. Institucijų svetainėse galima rasti bendro pobūdžio informacijos apie skaitmeninimą, bet konkretūs atsakymai į klausimą „kaip šis sprendimas buvo priimtas” dažnai reikalauja aktyvių pastangų – oficialių užklausų, žurnalistinių tyrimų ar teisminių ginčų.

Tarp skaitmeninės brandos ir skaidrumo skolos

Lietuvos valstybė DI srityje nėra nei lyderė, nei atsilikėlė – ji yra kažkur viduryje, kaip ir dauguma vidutinio dydžio ES valstybių. Techniniai sprendimai diegiami, planai egzistuoja, kai kurios sistemos jau veikia ir, tikėtina, veikia pakankamai gerai. Problema nėra technologijų nebuvimas – problema yra tai, kad institucinis skaidrumas neauga tuo pačiu tempu kaip technologiniai pajėgumai. Galima turėti pažangų algoritmą ir kartu neturėti aiškios atsakomybės grandinės, kai tas algoritmas suklysta. Galima skaitmeninti procesus ir kartu nepaaiškinti piliečiams, kaip tie procesai dabar veikia. Šios spragos nėra neišsprendžiamos – jos reikalauja politinės valios ir administracinių pajėgumų, kurių Lietuva, bent jau teoriškai, turi. Klausimas, ar tai taps prioritetu, kol dirbtinis intelektas dar tik skverbiasi į valstybės aparatą, ar tik tada, kai kils pirmieji rimti skandalai.

Related Post