Kaip dirbtinis intelektas keičia Lietuvos viešąjį sektorių: praktiniai AI diegimo pavyzdžiai ir teisiniai iššūkiai 2025 metais
AI revoliucija Lietuvos institucijose jau čia
Kai prieš kelerius metus kalbėjome apie dirbtinį intelektą viešajame sektoriuje, tai skambėjo kaip mokslinės fantastikos scenarijus. Dabar, 2025-aisiais, situacija kardinaliai pasikeitė. Lietuvos valstybinės institucijos jau nebesivaiko technologijų traukinio – jos jame sėdi ir aktyviai eksperimentuoja su AI sprendimais.
Pažvelkime į realybę: Valstybinė mokesčių inspekcija naudoja dirbtinį intelektą mokestinių deklaracijų analizei, savivaldybės diegia chatbotus gyventojų aptarnavimui, o teisėsaugos institucijos testuoja AI sistemas nusikalstamų veikų prevencijai. Tai nebe planai ar vizijos – tai kasdienybė, kuri keičia tai, kaip valstybė bendrauja su piliečiais.
Tačiau kartu su naujomis galimybėmis ateina ir iššūkiai. Kaip užtikrinti, kad AI sprendimai būtų skaidrūs? Kas atsakingas, kai algoritmas suklysta? Kaip apsaugoti asmens duomenis, kai juos apdoroja dirbtinis intelektas? Šie klausimai nėra retoriniai – jie reikalauja konkrečių atsakymų ir sprendimų.
Kur Lietuvoje AI jau veikia praktiškai
Pradėkime nuo to, kas jau funkcionuoja. Valstybinė mokesčių inspekcija (VMI) tapo viena iš pirmųjų institucijų, kuri drąsiai įsileido AI į savo kasdienius procesus. Jų sistema analizuoja tūkstančius mokestinių deklaracijų per sekundes, ieškodama anomalijų ir galimų klaidų. Tai ne tik pagreitina procesus – tai leidžia mokesčių inspektoriams sutelkti dėmesį į sudėtingesnius atvejus, kuriems reikia žmogiškojo proto.
Sveikatos apsaugos ministerija ir pavaldžios įstaigos taip pat neatsilieka. Vilniaus universitetinė ligoninė jau naudoja AI sistemas medicininių vaizdų analizei. Algoritmai padeda radiologams greičiau ir tiksliau aptikti patologijas rentgeno nuotraukose ar MRT vaizduose. Gydytojai pabrėžia – tai ne pakeitimas, o pagalba, leidžianti sumažinti diagnostikos laiką ir klaidų tikimybę.
Savivaldybių lygmeniu matome įdomių iniciatyvų. Vilniaus miesto savivaldybė diegė virtualų asistentą, kuris atsako į gyventojų klausimus apie komunalines paslaugas, leidimus, mokesčius. Pirmuosius metus sistema apdorojo per 50 tūkstančių užklausų, atleisdama darbuotojus nuo rutininių klausimų ir leisdama jiems spręsti sudėtingesnius atvejus.
Policijos departamentas testuoja prognozines analitikos sistemas, kurios padeda numatyti galimas nusikaltimų vietas ir laikus. Nors tai skamba kontraversiškai, praktika rodo, kad tokios sistemos leidžia efektyviau paskirstyti patrulių maršrutus ir sumažinti nusikalstamumo lygį probleminiuose rajonuose.
Konkretūs diegimo pavyzdžiai ir jų rezultatai
Pažvelkime giliau į konkrečius skaičius ir rezultatus. VMI AI sistema per pirmuosius dvejus metus sutaupė apie 40 procentų darbuotojų laiko, skiriamo pirminei deklaracijų patikrai. Tai reiškia, kad inspektoriai gali skirti daugiau dėmesio sudėtingoms byloms ir konsultacijoms verslininkams. Sistema identifikavo apie 15 procentų daugiau potencialių mokestinių pažeidimų nei tradiciniai metodai.
Socialinės apsaugos ir darbo ministerija pradėjo naudoti AI sistemą, kuri analizuoja socialinės paramos prašymus ir padeda nustatyti prioritetus. Sistema įvertina šeimos socialinę situaciją, pajamas, gyvenimo sąlygas ir automatiškai sugeneruoja rekomendacijas dėl paramos dydžio. Per pirmuosius šešis mėnesius vidutinis prašymo nagrinėjimo laikas sutrumpėjo nuo 14 iki 8 dienų.
Kelių transporto inspekcija diegė AI vaizdo analizės sistemas, kurios automatiškai fiksuoja eismo taisyklių pažeidimus. Sistema atpažįsta valstybinių numerių ženklus, identifikuoja pažeidimo tipą ir automatiškai generuoja protokolus. Tai ne tik padidino pažeidimų fiksavimo efektyvumą, bet ir sumažino korupcijos riziką – sistema veikia objektyviai, be žmogiškojo faktoriaus.
Aplinkos apsaugos agentūra naudoja AI oro kokybės prognozavimui ir taršos šaltinių identifikavimui. Sistema analizuoja duomenis iš šimtų jutiklių visoje Lietuvoje, meteorologinius duomenis ir pramonės įmonių veiklos informaciją. Tai leidžia operatyviai reaguoti į oro kokybės pablogėjimą ir imtis prevencinių priemonių.
Teisinė aplinka: kas leidžiama, kas draudžiama
Dabar pereikime prie sudėtingesnės dalies – teisinių aspektų. Europos Sąjungos AI aktas (AI Act), kuris įsigaliojo 2024 metais, nustato aiškias taisykles, kaip viešasis sektorius gali naudoti dirbtinį intelektą. Lietuvos institucijos privalo laikytis šių reikalavimų, o tai kartais sukelia nemažai galvos skausmo.
Pagal AI aktą, kai kurios AI sistemos viešajame sektoriuje priskiriamos didelės rizikos kategorijai. Tai apima sistemas, kurios naudojamos: teisėsaugoje (pvz., prognozinė policija), teisminėse procedūrose, migracijos valdyme, socialinių išmokų skirstyme. Tokios sistemos turi atitikti griežtus reikalavimus – būti skaidrios, tikslios, saugios, o jų sprendimai turi būti paaiškinami.
Lietuvos Respublikos teisingumo ministerija 2024 metais parengė metodines rekomendacijas viešojo sektoriaus institucijoms dėl AI diegimo. Dokumente nurodoma, kad institucijos privalo atlikti poveikio vertinimą prieš diegdamos bet kokią AI sistemą, kuri apdoroja asmens duomenis ar priima sprendimus, turinčius teisinių pasekmių žmonėms.
Valstybės duomenų apsaugos inspekcija (VDAI) tapo pagrindiniu žaidėju šioje srityje. Ji ne tik prižiūri, kaip institucijos laikosi BDAR reikalavimų naudodamos AI, bet ir konsultuoja dėl tinkamo diegimo. VDAI jau išnagrinėjo keliolika atvejų, kai institucijos bandė diegti AI sistemas neatlikusios tinkamo duomenų apsaugos poveikio vertinimo.
Viena iš didžiausių problemų – algoritminis šališkumas. Jei AI sistema mokoma naudojant istorinius duomenis, kuriuose yra diskriminacijos požymių, sistema gali reprodukuoti tuos šališkumus. Pavyzdžiui, jei praeityje tam tikros socialinės grupės gaudavo mažiau socialinės paramos, AI gali „išmokti” šio modelio ir toliau diskriminuoti tas pačias grupes.
Duomenų apsauga ir privatumas: kur riba
Kalbant apie duomenų apsaugą, situacija yra ypač jautri. Viešojo sektoriaus institucijos tvarko milžiniškus kiekius asmens duomenų – nuo sveikatos informacijos iki finansinių duomenų. Kai šiuos duomenis pradedi apdoroti su AI, rizikos išauga eksponentiškai.
BDAR reikalauja, kad bet koks automatizuotas sprendimų priėmimas, kuris turi teisinių pasekmių asmeniui, būtų grindžiamas aiškiais kriterijais. Žmogus turi turėti teisę sužinoti, kodėl algoritmas priėmė tam tikrą sprendimą jo atžvilgiu. Tai reiškia, kad „juodosios dėžės” AI sistemos, kurių sprendimų negalima paaiškinti, viešajame sektoriuje yra nepriimtinos.
Lietuvos institucijos susiduria su praktiniais iššūkiais. Kaip paaiškinti paprastam žmogui, kodėl neuroninis tinklas su milijonais parametrų priėmė tam tikrą sprendimą? Kaip užtikrinti, kad duomenys, naudojami AI mokymui, būtų anonimizuoti, bet kartu išliktų naudingi? Kaip apsaugoti sistemas nuo kibernetinių atakų, kurios galėtų pakeisti algoritmo elgesį?
Praktinis patarimas institucijoms: visada turėkite „žmogų kilpoje” (human-in-the-loop). Net jei AI sistema gali priimti sprendimus automatiškai, galutinį žodį turėtų tarti žmogus, ypač kai sprendimas turi didelių pasekmių asmeniui. Tai ne tik teisinis reikalavimas – tai ir etinė pareiga.
Dar viena svarbi tema – duomenų saugojimas ir perdavimas. Kai institucijos naudoja debesų kompiuterijos paslaugas AI sistemoms, jos privalo užtikrinti, kad duomenys būtų saugomi ES teritorijoje ir atitiktų visus saugumo standartus. Yra buvę atvejų, kai institucijos netyčia perleido asmens duomenis trečiosioms šalims per AI paslaugų teikėjus.
Skaidrumo problema: kai algoritmas tampa juodąja dėže
Vienas didžiausių iššūkių – algoritmų skaidrumas. Tradicinėse biurokratinėse sistemose sprendimų priėmimo logika paprastai yra aiški: yra įstatymai, taisyklės, procedūros. Kai sprendimus pradeda priimti AI, situacija tampa sudėtingesnė.
Pavyzdžiui, jei VMI AI sistema nusprendžia, kad jūsų mokestinė deklaracija yra įtartina ir reikia papildomos patikros, jūs turite teisę sužinoti kodėl. Bet jei sistema naudoja sudėtingus mašininio mokymosi algoritmus, net jos kūrėjai gali nežinoti tikslios priežasties – sistema tiesiog „mato” tam tikrus modelius duomenyse.
Lietuvos teisės aktai reikalauja, kad institucijos galėtų paaiškinti savo sprendimus. Tai reiškia, kad jos negali tiesiog pasakyti „kompiuteris taip pasakė”. Turi būti aiški, žmogui suprantama logika. Dėl to kai kurios institucijos renkasi paprastesnius, labiau paaiškinamus AI modelius, net jei jie yra šiek tiek mažiau tikslūs nei sudėtingesnės alternatyvos.
Praktinė išeitis – eksplanacinė dirbtinio intelekto (Explainable AI, XAI) technologija. Tai AI sistemos, kurios ne tik priima sprendimus, bet ir gali paaiškinti savo „mąstymo” procesą. Pavyzdžiui, sistema gali pasakyti: „Šis prašymas buvo atmestas, nes pareiškėjo pajamos viršija nustatytą ribą 23 procentais ir jis nevaldo nekilnojamojo turto, kuris būtų laikomas pirmuoju būstu.”
Kai kurios institucijos taiko hibridinį modelį: AI sistema pateikia rekomendacijas, bet galutinį sprendimą priima žmogus. Tai leidžia išlaikyti efektyvumą, bet kartu užtikrina atskaitomybę ir skaidrumą. Žmogus gali peržiūrėti AI argumentus, įvertinti kontekstą ir priimti pagrįstą sprendimą.
Etiniai klausimai ir visuomenės pasitikėjimas
Technologija – tai tik įrankis. Kaip jį naudojame, priklauso nuo etinių sprendimų. Lietuvos visuomenė vis dar mokosi pasitikėti AI sistemomis viešajame sektoriuje, ir šis pasitikėjimas yra trapus.
Viena iš didžiausių baimių – kad AI sistemos gali diskriminuoti tam tikras grupes. Tai ne teorinė grėsmė. Pasaulyje yra daug pavyzdžių, kai AI sistemos diskriminavo moteris, mažumas ar žemesnių pajamų grupes, nes buvo mokomos naudojant šališkus duomenis. Lietuvos institucijos privalo būti ypač budrūs šiuo klausimu.
Kaip tai padaryti praktiškai? Pirma, reguliariai audituoti AI sistemas dėl galimo šališkumo. Antra, užtikrinti, kad mokymo duomenys būtų reprezentatyvūs ir įvairūs. Trečia, įtraukti įvairias suinteresuotas šalis į AI sistemų kūrimą ir testavimą – ne tik technologus, bet ir sociologus, teisės ekspertus, pilietinės visuomenės atstovus.
Valstybinė vartotojų teisių apsaugos tarnyba 2024 metais pradėjo iniciatyvą, kurios tikslas – didinti visuomenės sąmoningumą apie AI naudojimą viešajame sektoriuje. Jie sukūrė informacinę platformą, kur piliečiai gali sužinoti, kokios institucijos naudoja AI, kokiems tikslams ir kokios yra jų teisės.
Dar viena svarbi tema – darbuotojų perkvalifikavimas. Kai AI sistemos perima dalį rutininių užduočių, valstybės tarnautojai turi galimybę sutelkti dėmesį į sudėtingesnius, kūrybiškesnius darbus. Bet tam reikia mokymų ir paramos. Kai kurios institucijos jau pradėjo vidinius mokymus apie tai, kaip dirbti su AI sistemomis, kaip interpretuoti jų rezultatus ir kaip priimti sprendimus remiantis AI rekomendacijomis.
Kas laukia ateityje: tendencijos ir prognozės
Žvelgiant į ateitį, AI viešajame sektoriuje tik plėsis. Lietuvos vyriausybė 2024 metais patvirtino Nacionalinę dirbtinio intelekto strategiją, kurioje numatyta, kad iki 2030 metų bent 70 procentų viešojo sektoriaus paslaugų turės AI komponentą.
Viena perspektyviausių sričių – personalizuotos viešosios paslaugos. Įsivaizduokite, kad kreipdamiesi į savivaldybę dėl leidimo, sistema automatiškai pasiūlo jums visus reikalingus dokumentus, užpildo formas naudodama jau turimus duomenis ir net pasiūlo geriausią laiką apsilankymui. Tai ne fantastika – tokios sistemos jau kuriamos.
Sveikatos sektoriuje AI gali revoliucionizuoti prevenciją. Sistemos, analizuojančios pacientų duomenis, gali numatyti sveikatos problemas dar prieš joms pasireiškiant ir siūlyti prevencinės priemones. Tai galėtų ne tik pagerinti žmonių sveikatą, bet ir sutaupyti milijonus eurų sveikatos sistemai.
Švietimo srityje AI gali padėti personalizuoti mokymąsi. Sistemos, kurios analizuoja mokinių pažangą ir mokymosi stilių, gali siūlyti individualizuotas užduotis ir mokymosi medžiagą. Lietuvos švietimo ir mokslo ministerija jau testuoja tokias sistemas keliose bandomosiose mokyklose.
Tačiau kartu su naujomis galimybėmis ateina ir nauji iššūkiai. Kibernetinio saugumo grėsmės didėja – AI sistemos gali būti užpuolimo taikinys. Dezinformacijos kampanijos, naudojančios AI generuotą turinį, gali pakenkti visuomenės pasitikėjimui institucijomis. Technologinis atotrūkis tarp skirtingų visuomenės grupių gali didėti.
Kaip institucijos turėtų ruoštis AI ateičiai
Jei esate institucijos vadovas ar darbuotojas, atsakingas už skaitmeninę transformaciją, štai keletas praktinių rekomendacijų, kaip sėkmingai diegti AI:
Pradėkite nuo aiškaus tikslo. Nediekite AI tik todėl, kad tai madinga. Identifikuokite konkrečias problemas, kurias AI galėtų išspręsti efektyviau nei tradiciniai metodai. Galbūt tai ilgi laukimo laikai, didelė klaidų tikimybė, per daug rutininių užduočių darbuotojams.
Investuokite į duomenų kokybę. AI sistemos yra tik tokios geros, kokie yra duomenys, kuriais jos mokomos. Prieš diegdami AI, užtikrinkite, kad jūsų duomenys yra tikslūs, pilni, gerai struktūruoti. Tai gali reikalauti nemažai paruošiamojo darbo, bet jis atsipirks.
Įtraukite visas suinteresuotas šalis. AI diegimas – tai ne tik IT departamento darbas. Reikia įtraukti galutinius vartotojus (darbuotojus, kurie naudos sistemą), teisės ekspertus, duomenų apsaugos specialistus, net piliečius, kuriems sistema tarnaus. Jų grįžtamasis ryšys padės išvengti daugelio problemų.
Pradėkite nuo pilotinių projektų. Nediekite AI visos institucijos mastu iš karto. Pradėkite nuo nedidelės, gerai apibrėžtos srities. Išbandykite, pasimokyti iš klaidų, patobulinki – ir tik tada plėskite. Tai sumažina riziką ir leidžia demonstruoti konkrečius rezultatus.
Skirkite dėmesį mokymams. Darbuotojai turi suprasti, kaip veikia AI sistemos, kaip jas naudoti, kokios yra jų galimybės ir apribojimai. Investicija į mokymų yra investicija į sėkmingą diegimą.
Užtikrinkite teisinį atitikimą nuo pat pradžių. Nekurkite sistemos ir tik tada galvokite apie BDAR ir AI aktą. Teisinis atitikimas turi būti integruotas į visą kūrimo procesą. Tai sutaupos laiko ir pinigų ilgalaikėje perspektyvoje.
Būkite skaidrūs su piliečiais. Viešai komunikuokite, kokias AI sistemas naudojate, kokiems tikslams, kaip jos veikia. Tai kuria pasitikėjimą ir sumažina baimę bei pasipriešinimą naujovėms.
Kelias į protingą AI naudojimą viešajame sektoriuje
Dirbtinis intelektas Lietuvos viešajame sektoriuje – tai jau ne ateities vizija, o dabartis. Institucijos, kurios drąsiai eksperimentuoja su AI, mato realius rezultatus: greitesnis paslaugų teikimas, mažiau klaidų, efektyvesnis išteklių panaudojimas. Bet kartu jos susiduria su sudėtingais teisiniais, etiniais ir praktiniais iššūkiais.
Sėkmės raktas – subalansuotas požiūris. AI nėra stebuklingas sprendimas visoms problemoms, bet tai galingas įrankis, kai naudojamas protingai. Institucijos turi investuoti ne tik į technologijas, bet ir į žmones – jų mokymą, įtraukimą, pasitikėjimo kūrimą.
Teisinis reguliavimas, nors kartais atrodo kaip kliūtis, iš tikrųjų yra apsauga. AI aktas ir BDAR užtikrina, kad technologijos būtų naudojamos atsakingai, gerbiant žmogaus teises ir orumą. Institucijos, kurios laikosi šių reikalavimų nuo pat pradžių, ilgalaikėje perspektyvoje laimi – jos kuria patikimas, tvarias sistemas, kuriomis pasitiki ir darbuotojai, ir piliečiai.
Lietuvos viešasis sektorius turi unikalią galimybę. Mes nesame nei per dideli, nei per maži – esame tinkamo dydžio eksperimentams ir inovacijoms. Galime mokytis iš kitų šalių klaidų, bet kartu būti pakankamai drąsūs išbandyti naujus sprendimus. Jei sugebėsime protingai integruoti AI į viešąsias paslaugas, išlaikant žmogiškąjį matmenį ir etines vertybes, galime tapti pavyzdžiu kitoms šalims.
Galiausiai, AI viešajame sektoriuje – tai ne apie technologijas, o apie žmones. Apie tai, kaip geriau tarnauti piliečiams, kaip padaryti valstybę prieinamesnę, efektyvesnę, teisingesnę. Technologijos ateina ir išeina, bet pagrindinis tikslas lieka tas pats – gerinti žmonių gyvenimą. Jei AI padeda mums tai daryti – puiku. Bet niekada neturėtume pamiršti, kad technologijos tarnauja žmonėms, o ne atvirkščiai.