Tehisintellekt sotsiaaltöös: praktika, kaalutlused ja väärtuspõhised piirid
Mitmesugused tehisintellekti (TI) rakendused mõjutavad sotsiaaltööd üha enam: neid kasutatakse dokumenteerimisel ja halduses, aga ka otsustamisel ning isegi toeks suhtlemisel ja hooldustöös. Algoritmid ja suured keelemudelid lubavad valdkonnas suuremat tõhusust ja teenuste paremat kättesaadavust, ent kujundavad ka seda, kuidas abivajadust mõistetakse, kes pääseb teenustele ligi ning milline on spetsialisti roll.
Tallinna ülikooli sotsiaaltöö magistrant, Sotsiaal.AI rakenduse arendaja
AI Indexi aastaaruannetes (Maslej jt 2022–2025, Zhang jt 2022) kirjeldatakse generatiivse ehk uue sisu, s.t teksti, piltide ja heli loomiseks mõeldud TI kiiret arengut ja selle laienevat mõju ühiskonnale. Aastal 2022 kerkis esile TI abil loodud sisu kallutatuse ja selle valmimise läbipaistmatuse probleem. Aastal 2023 sai laiemale avalikkusele kättesaadavaks ChatGPT tehnoloogia, millega seoses tekkis küsimusi andmete autorluse, väärkasutuse ja usaldusväärsuse kohta.
Aastal 2024 olid kõneaineks süvavõltsingud, väärinfo levik ja usalduskriisid. Selleks, 2025. aastaks, on tehisintellekt kujunenud ühiskonnas keskseks tehnoloogiaks, kuid väärtuspõhine juhtimine ja professionaalne vastutus selle kasutamisel on endiselt ebaühtlane.
Tehisintellekt ei ole enam ainult abivahend, vaid kujundab otsustuspõhimõtteid, mis mõjutavad igapäevavalikuid, ligipääsu teenustele ja isegi õiguste teostamist. Euroopa Parlamendi määruse kohaselt on TI-süsteem autonoomne masinrakendus, mis teeb ennustusi, annab soovitusi või langetab otsuseid ja mõjutab seega otseselt eluolukordi (Euroopa Liit 2024).
Tehisintellekt ei ole enam ainult abivahend, vaid kujundab otsustuspõhimõtteid, mis mõjutavad igapäevavalikuid, ligipääsu teenustele ja isegi õiguste teostamist.
Käsitlen selles artiklis tehisintellekti rolli sotsiaaltöös kriitilisest, kuid konstruktiivsest vaatenurgast. Keskendun TI mõjule professionaalses otsustusõiguses ja suhetele ning käsitlen ka eetilisi riske, millega tuleb eriti arvestada haavatavate rühmade korral.
Eesmärk ei ole võtta seisukohta TI kasuks või kahjuks, vaid näidata, et iga tehnoloogilise lahenduse kasutamine hõlmab väärtusotsuseid ja kujundab võimusuhteid. Arutelu alus on arusaam, et sotsiaaltöö kutsetegevus põhineb sellistel väärtustel nagu inimväärikus, osalus, autonoomia ja õiglus (ESTA 2022). Just need põhimõtted pakuvad raamistikku, et hinnata, kas ja kuidas tehnoloogilised lahendused toetavad inimkesksust või piiravad seda.
Toon artiklis näiteid konkreetsete TI-süsteemide kasutamisest ja nende kohta tehtud juhtumiuuringutest ning analüüsin, millised valikud praktikas esile tõusevad, kuidas need mõjutavad otsustusprotsesse ning millised on TI-süsteemide väärtuspõhise kujundamise ja arendamise suunamisvõimalused.
Kas tehisintellekt on dokumenteerimisel ja otsustamisel töövahend või väärtusvalik?
Tehisintellekti kasutamine sotsiaalteenuste haldamisel ja juhtumtöös on toonud kaasa märkimisväärseid muutusi nii sotsiaalala töötajate töökorralduses kui ka professionaalsetes rollides. Üha enam rakendatakse TI-süsteeme, mis toetavad dokumenteerimist, riskide hindamist ja otsustusprotsesse.
Ühendkuningriigi sotsiaaltöös on laialt kasutusel rakendus Magic Notes, mis tugineb kõnetuvastusele ja keelemudelitele ning võimaldab muuta vestlused struktureeritud juhtumiaruandeks. Kuigi see rakendus vähendab oluliselt halduskoormust (Beam 2024), kujundab see ka raami, mida ja kuidas dokumenteeritakse, mis omakorda mõjutab nii keelekasutust kui ka juhtumite käsitlust. Sellise rakenduse kasutamine eeldab sotsiaaltöötajalt mõistmist, et masingeneraatori koostatud tekst ei ole neutraalne ja kujundab professionaalset hinnangut, suunab dokumenteerimise tonaalsust ning mõjutab tulevasi otsuseid.
Rootsi Trelleborgi omavalitsus oli esimene, kus rakendati robotprotsesside automatiseerimist (RPA) sotsiaaltoetuste menetlemisel. Süsteem teeb iseseisvalt otsuseid rutiinsetes juhtumites, jättes keerulisemad olukorrad inimestele. See muudab oluliselt sotsiaaltöötaja rolli, tuues esile küsimuse professionaalse otsustusõiguse säilimisest. Mõned uuringud viitavad, et RPA võib parandada otsuste kvaliteeti, vähendades juhuslikkust (Ranerup ja Henriksen 2022), teised aga hoiatavad riskide eest, mis kaasnevad sellega, kui spetsialisti roll piirdub otsuste kinnitamisega (Busch ja Henriksen 2018; Alexopoulou 2024).
Eesti töötukassa OTT-süsteem pakub tasakaalukamat käsitlust, kombineerides andmepõhist prognoosi ja inimlikku otsustamist. Süsteem hindab pikaajalise töötuse riski 45 näitaja alusel ja see on kasutajate hinnangul tõhus ning spetsialisti tööd toetav abivahend, mis seda siiski ei asenda (Vihalemm jt 2023). Siiski märkisid kasutajad, et OTT jäi sageli taustatööriistaks, kitsaskohad ilmnesid seoses tööotsijate motivatsiooni ja tervise hindamisega. Ka toodi probleemidena välja süsteemi läbipaistmatus ning koormav tagasisidestamine.
AuroraAI (Soome) seob töö-, tervise- ja hoolekandeteenused elusündmustel põhinevaks teenuseteekonnaks, mille kulgemist ja toimimist jälgib sõltumatu eetikanõukogu (Leikas jt 2022). Aastal 2024 võeti kasutusele ka SOTE-AI ökosüsteem, mis ühendab enam kui 220 organisatsiooni ning toetab sotsiaal- ja tervishoiuvaldkonna arenduskoostööd.
Dokumenteerimist ja otsustamist suunavad tehisintellektisüsteemid kannavad alati väärtusvalikuid.
Aastal 2025 käivitatud projektides katsetatakse muu hulgas AI-assistente, AI kasutamist funktsionaalse võimekuse hindamisel, automatiseeritud dokumenteerimist (nt Gosta Aide), reaalajas tõlkimist ning AI-l põhinevaid riskihindamise mudeleid lastekaitses. Nende projektide tehnoloogilist selgroogu toetab ka Euroopa tippklassi superarvuti LUMI, mis asub Soomes ja võimaldab töödelda ulatuslikke andmekogumeid turvaliselt ning skaleeritavalt. Katsetamise käigus soovitakse lisaks tehnilisele arendusele hinnata ka andmekaitse taset, eetilist sobivust ja praktilist rakendatavust teenuskeskkondades (SOTE-AI Ekosysteemi 2025).
Kõrvuti nende riiklike algatustega väärib esiletõstmist ka Hester. See on Helsingi linna vestlusrobot, mis koondab sotsiaal-, tervishoiu ja päästeteenuste teadmised ühtsesse süsteemi. Hester võimaldab saada kogu ööpäeva jooksul tuge küsimustes, mis käsitlevad näiteks tervist, vanemlust, eakate hooldust või igapäevast toimetulekut. Teenuse sisu loovad ja uuendavad hoolekandespetsialistid, lähtudes kasutajate päringutest ja tagasisidest.
Vestluslogide korrakindel analüüs aitab täiustada vastuseid ja arendada uusi teemakäsitlusi. Vajadusel saab kasutaja suunata vestluse otse klienditeenindajale. Isikuandmete kaitseks eemaldatakse automaatselt delikaatne teave ja logid kustutatakse süsteemist kuue kuu möödudes (City of Helsinki 2025). Hesteri näide illustreerib, kuidas tehisintellekt saab toetada inimkeskset ja professionaalselt juhitud teenust, järgides samal ajal andmekaitse ja läbipaistvuse põhimõtteid.
Sarnane lahendus on kasutusel ka Uppsala linnas, kus GPT-4-l põhinev vestlusrobot toetab elanike suhtlust omavalitsusega. Katselahenduse väljatöötamisel on silmas peetud läbipaistvust ja andmekaitset: see sisaldab otsustusloogika jälgimise võimalust, kasutuslogisid ning erinevaid juurdepääsutasemeid. Lahendus on välja töötatud usaldusväärse ja skaleeritava digiteenuse mudelina kohalikele omavalitsustele (Ström ja Vesterlund 2024).
Inimkesksemad lahendused, nagu CaseAIM (Florida), ühendavad ennustava analüüsi ja meeskondliku otsustamise, jättes lõpliku vastutuse spetsialistidele. Süsteem toetab juhtumikorraldajaid haldusülesannetes, et nad saaksid rohkem keskenduda otsesele tööle peredega (Stanley jt 2023). Taani kogemus aga näitab, et spetsialistid ei järgi TI soovitusi automaatselt, vaid tõlgendavad neid vastavalt oma rollile, väärtustele ja töökultuurile (Jørgensen ja Nissen 2022). See näitab, et tehnoloogia mõju kujuneb alati ka kasutajate tõlgenduste ja professionaalsete valikute kaudu.
Need näited osutavad, et dokumenteerimist ja otsustamist suunavad tehisintellektisüsteemid kannavad alati väärtusvalikuid, olgu need sõnastatud või vaikimisi eeldatud. Kui tehnoloogia tõrjub kõrvale inimliku kaalutluse, muutub määravaks see, mille alusel süsteem suunab tähelepanu, kuulab ja vastab. Just sellest saab oluline küsimus ka TI kasutamisel hoolduses ja suhtlemisel, kus on keskmes usaldus, empaatia ja inimsuhted.
Kas vaimse tervise teenuste osutamisel ja hoolduses on tehisintellekt näiline hool või tegelik tugi?
Tehisintellekti kasutamine vaimse tervise teenuste osutamisel ja hoolduses on toonud kaasa uusi võimalusi teenuste kättesaadavuse parandamiseks ja töötajate töökoormuse leevendamiseks. Samal ajal tõstatab see küsimusi usalduse, empaatia ja inimsuhte tähenduse kohta, kui tugi on vahendatud tehnoloogia kaudu. Järgnevad näited toovad esile, milliseid väärtusvalikuid tehakse hooldustehnoloogiate kujundamisel ja kuidas need mõjutavad eelkõige haavatavate inimeste kasutajakogemust.
Vaimse tervise valdkonnas on esile kerkinud vestlusrobotid, nagu Woebot, Wysa, Vivibot ja XiaoE, mis pakuvad kognitiivse käitumisteraapia elemente, võimaldavad jälgida meeleolu ja teha harjutusi päeviku põhjal. Neid vestlusroboteid soositakse hinnanguvaba suhtluslaadi ja ööpäevase kättesaadavuse tõttu, mis on eriti tähtis neile, kellel on raskuse pääseda inimesest nõustaja juurde. Suurandmetel põhinevad analüüsid aga näitavad, et tegelik kasutuskogemus ei pruugi olla ootuskohane. Probleemidena nähakse vestlusroboti mehaanilist tooni, empaatia puudumist ja piiratud võimet pakkuda tuge kriisiolukordades (Casu jt 2024, Haque ja Rubya 2023, Moylan ja Doherty 2025).
Ka spetsialistid on ettevaatlikud. Osutatakse, et paljud TI-süsteemid ei suuda mõista inimeste emotsionaalsete raskuste tegelikku tausta, mis vähendab nende usaldusväärsust (Moylan ja Doherty 2025). Küsimus pole ainult TI-süsteemide tehnilises võimekuses, vaid ka selles, kellel lasub vastutus soovituste eest, kui kaalul on elu ja tervis.
Täpsemalt sihitud lahendused, nagu Minder (noorte sõltuvusest taastumise toetamiseks) ja Vivibot (vähki haigestunud noortele), on olnud edukad just seetõttu, et seovad tehnoloogia konkreetse eluolukorra ja emotsionaalse toe vajadusega. Isiklikkus ja suunitlus kindlale sihtrühmale aitavad vältida liigset üldistamist ja parandavad kasutajakogemust (Casu jt 2024).
Kasutatakse ka vastuolulisemaid lahendusi. Näiteks emotsioonide tuvastamise süsteemid nagu Opsis, Kinsome ja MaestroAI analüüsivad näoilmeid, hääletooni ja käitumismustreid reaalajas. Kuigi eesmärk on suurendada kasutaja empaatiavõimet, võivad need eksida tõlgendustes, eriti juhul, kui kasutaja emotsionaalne väljendus ei vasta mudeli eeldustele. Sellised valestimõistmised võivad viia tõlgendusvigadeni ja usalduse kadumiseni süsteemi vastu (Foo jt 2025).
Need ja muud eneseabi- või hindamisplatvormid, mis toetuvad automatiseeritud andmetöötlusele ja mudeli põhjal otsustamisele, ei ole aga alati valmis kriitilisteks olukordadeks. Mitmel sellisel süsteemil puuduvad usaldusväärsed kriisireageerimise võimalused ja andmekaitsetagatised (Casu jt 2024). See seab nende kasutatavuse delikaatsetes olukordades kahtluse alla ja muudab aina olulisemaks vajaduse eetiliselt läbimõeldud, turvaliste ja kontekstitundlike lahenduste järele, eelkõige haavatavate kasutajate korral.
Eakate hoolduses on eriti olulised kontekstitundlikkus ja kasutaja autonoomia, sest sageli on tehisintellektil põhinevate rakenduste eesmärk toetada kasutaja iseseisvat toimetulekut ja vähendada sotsiaalset isolatsiooni. Näiteks Hollandis arendatud Welzijn.AI analüüsib kasutajate käitumismustreid, et kindlaks teha eraldatuse riske ja pakkuda seejärel isikustatud suhtlussoovitusi (Van Dijk jt 2025).
Digitehnoloogia arenduses tuleb lähtuda inimkesksetest väärtustest juba alguses.
Üha olulisemad on ka sotsiaalsed robotid ehk füüsilised või virtuaalsüsteemid, mis on loodud pakkuma emotsionaalset tuge ja soodustama hooldus-, tervishoiu- või teraapiateenuste kasutajate kaasatust. Uuringud näitavad, et kasutajate usalduse kujunemisel ei ole määrav üksnes tehniline funktsionaalsus, vaid see, kuidas robotit tajutakse suhtluspartnerina, sealhulgas tema käitumine, hääletoon, välimus, kehakeel ja isikupära (Li jt 2024; Liu jt 2025).
Kui need suhtlemisel olulised omadused ei vasta kasutaja kultuurilistele ootustele või isiklikule suhtlusstiilile, võib see viia võõrandumise ja emotsionaalse usaldamatuseni (Park ja Whang, 2022). Usalduse kujunemisel on määrav just sotsiaalne sobivus, kultuuriline kohandatavus ja kommunikatiivne järjepidevus (Becker ja Fischer 2024). Seetõttu on hooldussüsteemide kujundamisel oluline nende asjaoludega arvestada: mitte ainult tehnilise toimimise, vaid ka suhtlusviiside ja tähendusloome tasandil (Perruchoud jt 2023).
Sageli on tehisintellektil põhinevate rakenduste eesmärk toetada kasutaja iseseisvat toimetulekut ja vähendada sotsiaalset isolatsiooni.
Süsteemiarenduses tuleb pöörata tähelepanu vastutustundlikule AI-kujundusele, kaasata eakaid ja hooldajaid tehniliste lahenduste väljatöötamisse ning pidada oluliseks kasutajate autonoomiat, andmekaitset ning jälgitavust (Van Dijk jt 2025). Üks hea näide nende põhimõtete järgimisest on Soomes arendatud YBOrobot, mis aitab eakaid igapäevatoimingutes, toetades liikumist, pakkudes kognitiivset stimulatsiooni ja sotsiaalset suhtlust, kuid seda mitte pealetükkivalt, jättes ruumi eaka enesemääramisele (Leinonen jt 2023).
Sarnast suunda arendatakse edasi uue põlvkonna sotsiaalsetes robotites, mis kasutavad suurte keelemudelite võimekust. Näiteks Furhat robot (Rootsi) suudab vestelda tervise teemadel, mäletada varasemaid vestlusi ja kohandada suhtlust kasutaja profiili järgi. Sellised IT-süsteemid on usaldusväärsemad, kui on arendatud koostöös spetsialistidega ja sisaldavad mälufunktsioone ning kohandamisvõimet (Göransson 2024; Irfan jr 2024).
Ida-Aasias kasutatakse selliseid lahendusi nagu Hyodol, Airec ja muid liikumisabivahendeid, mis ühendavad füüsilise toe ja suhtluspartneri funktsiooni. Need seadmed toetavad kasutajaid nii igapäevaelus kui ka emotsionaalse heaolu säilitamisel. Siiski juhitakse tähelepanu asjaolule, et sellise tehnoloogia kasutamisel tuleb arvestada delikaatsete küsimustega, eelkõige seoses nõusoleku, privaatsuse ja kultuurilise sobivusega, eriti juhul, kui andmeid kogutakse või inimest jälgitakse kasutaja teadmata või tema sõnaselge osaluseta (Thomas jt 2025).
Kasutajate usalduse kujunemisel ei ole määrav üksnes tehniline funktsionaalsus, vaid see, kuidas robotit tajutakse suhtluspartnerina.
Palliatiivses hoolduses rakendatavad AI-robotid toetavad patsiente mitmel tasandil: suhtluse, emotsionaalse heaolu, liikumisvõime ja tervise jälgimise kaudu. Näiteks Mabu, Jibo, ElliQ ja Pepper pakuvad vestlemisvõimalust, meeldetuletusi ja kognitiivset stimulatsiooni, aidates vähendada sotsiaalset isoleeritust ja ärevust.
Robear ja Lokomat toetavad füüsilist toimetulekut, võimaldades liikuda ka raskes seisundis patsientidel. Lio, Care-o-bot ja RoboNurse jälgivad tervisenäitajaid, haldavad ravimite manustamist ja edastavad andmeid meditsiinipersonalile. Mylo ja Telenoid võimaldavad tähenduslikku kaugkontakti pere ja hooldustöötajatega, kui füüsiline kontakt ei ole võimalik. (Thomas jt 2025)
Kuigi need tehnoloogiad võivad parandada elukvaliteeti ja suurendada hoolduse tõhusust, juhitakse tähelepanu sellele, et nende rakendamine elulõpu hoolduses peaks põhinema inimkesksusel, nii et säiliks autonoomia ja väärikus (Thomas jt 2025). Tähtis on tagada läbipaistev teavitamine ja teadlik osalus, võimaldades kasutajatel teha informeeritud valikuid. Samuti tuleb arvestada kultuurilist sobivust ja isikupära, võimaldades kohandatavat suhtlust ning tähenduslikku kohalolu. AI ei tohiks asendada inimsuhteid, vaid peaks pakkuma täiendavat tuge, mis aitab säilitada inimkeskse ja eetilise hoolduskeskkonna.
Tehisintellekti roll hoolduses ja suhtluses ei olene üksnes tehnilisest suutlikkusest, vaid sellest, millise tähendusliku kogemuse ja keskkonna süsteemid tekitavad. Kui arendusprotsess arvestab kultuuritausta ja kasutajate osalust ning on suhetekeskne, võivad need lahendused toetada hoolivust ning vähendada isoleeritust. Kui need põhimõtted aga jäävad tähelepanuta, on oht, et tehnoloogia pakub küll funktsionaalset tuge, kuid suhtlusvahendina ei võeta seda omaks.
Kelle kasuks ja kelle arvelt otsustatakse andmete põhjal?
Tehisintellekti rakendamine sotsiaaltöös tõotab suuremat tõhusust ja järjepidevust, ent toob esile ka küsimuse, kelle huvides neid süsteeme kujundatakse. Ennustavad mudelid ja otsustustoe tööriistad ei peegelda üksnes tegelikkust, vaid kujundavad otsuseid, mõjutades, keda nähakse abivajajana, mida peetakse riskiks ja kellel on võimalus otsuseid vaidlustada. Kõige haavatavamad on sageli inimesed, kelle kohta on süsteemides rohkem andmeid, kuid kelle häält süsteemide arendamisel ei võeta kuulda.
AI ei tohiks asendada inimsuhteid.
Andmetel põhinevad riskimudelid, mida rakendatakse näiteks Allegheny maakonnas (USA), Hackneys (Ühendkuningriik) ja Norrtäljes (Rootsi), põhinevad sageli sotsiaal-majanduslikel näitajatel, nagu sissetulek, perestruktuur või elupiirkond. Neid mudeleid kasutatakse, et prognoosida näiteks laste väärkohtlemise riski. Eesmärk on küll ennetav sekkumine ja vahendite tõhus suunamine, kuid sellised mudelid võivad luua näilise objektiivsuse, mis taastoodab struktuurset kallutatust.
Pered, kelle kohta on süsteemis rohkem andmeid, sageli madalama sotsiaal-majandusliku staatusega või vähemusrahvuste esindajad , satuvad suurema riskihinnangu alla ka otsese ohuta. Ebavõrdne andmetihedus muudab nad „nähtavamaks“ sekkumissüsteemide jaoks, kuigi tegelik risk võib olla väike (Keddell 2019; Fast ja Lappalainen 2021). Alati ei ole selle tulemus põhjendamatu tugi, vaid olukord, kus ennustus peegeldab sotsiaalseid eeldusi rohkem kui tegelikku vajadust ja sekkumised koonduvad ebaproportsionaalselt teatavatele rühmadele.
Selgitamisvõimaluse puudumine on veel üks oluline tegur, mis sotsiaalvaldkonnas süvendab usalduskriisi digisüsteemide kasutamisel. Suurte keelemudelite (nt GPT) ja loomuliku keele töötlemise (NLP) süsteemides ei ole sageli selge, kuidas mingi hinnang või otsus tekkis (Casu jt 2024).
Kui spetsialistid ei mõista süsteemi tööloogikat, ei saa nad selle otsuseid usaldada ega põhjendada. Nii juhtus näiteks OneView süsteemiga Ühendkuningriigis, mis töötati välja kriisiaja toetuseks, kuid hüljati hiljem, sest selle otsustusloogika jäi varjatuks ja töötajaid ei kaasatud arendusprotsessi (Carter 2024).
Tehisintellekti rakendamine sotsiaaltöös tõotab suuremat tõhusust ja järjepidevust.
Hollandis pälvisid kriitikat suured andmepõhised sekkumisprogrammid SyRI ja Top400/Top600, mille eesmärk oli ennetada sotsiaaltoetuste väärkasutust ja noorte kuritegevust. Nende algoritmide abil liigitati täis- ja alaealisi „suure riskiga“ kategooriatesse, kasutades ebaselgeid või delikaatseid andmeid (nt rahvus, koolikohustuse eiramine, elukoht), ilma et oleks tagatud läbipaistvus, proportsionaalsus või vaidlustatavus.
Programmide tehniline ülesehitus ja õiguslik raamistik olid puudulikud, mistõttu riivati haldusõiguse ja inimõiguste põhimõtteid, näiteks peatati sotsiaaltoetusi või jälgiti noori tõenduspõhise aluseta. Need juhtumid tekitasid mitte ainult laialdast avalikku pahameelt ja usalduskriisi, vaid ka õiguskaitsevaidlusi (Oldenhof jt 2024).
Tehisintellektil põhinevad hoolduslahendused, nagu Shanghai virtuaalne hooldekodu ja Inglismaal testitud IndependencePlus süsteem, näevad ette kaasaskantavaid seadmeid ja koduseid sensoreid, et toetada eakate iseseisvat elu. Need tehnoloogiad võimaldavad terviseandmeid jälgida ja kiiresti reageerida hädaolukordades.
Kuid uuringud on näidanud, et pidev jälgimine võib tekitada ärevust ja panna inimesi oma käitumist muutma, sest nad tunnevad, et neid jälgitakse. See võib vähendada tegelikku autonoomiat, sest inimesed ei tegutse enam vabalt, vaid lähtuvad sellest, mida nad arvavad, et neilt oodatakse (Glasby jt 2023).
Shanghai süsteemis oodatakse sageli, et eakas annaks ise märku, kui tal on abi vaja (Qi ja Hui 2025). See tähendab, et hooldust pakutakse alles siis, kui probleem on juba ilmnenud, mitte enne selle tekkimist. Samuti jäi eakate rahulolu sotsiaalse toetusega tagasihoidlikuks.
Kui spetsialistid ei mõista süsteemi tööloogikat, ei saa nad selle otsuseid usaldada ega põhjendada.
Rahvusvahelised uuringud rõhutavad, et digitehnoloogia arenduses tuleb lähtuda inimkesksetest väärtustest juba alguses. Heaoluriigi digiteerimine muudab kodaniku rolli: inimesest saab õiguste kandja asemel teenuse „taotleja“, kellelt eeldatakse iseseisvat, sageli digitaalselt vahendatud tegutsemist (Alexopoulou 2024). Kui avalikud teenused eeldavad vaikimisi, et kõik kodanikud on „digitaalselt pädevad“, võimenduvad erisused ligipääsus ja kaasatuses.
Lahendusena nähakse digihumanismi põhimõtteid: eetiline kujundus, läbipaistvus, osalus ja vastutus. Inimõiguste ja eetiliste põhimõtetega, sh autonoomia, osalus ja andmekaitse, tuleb arvestada TI-süsteemide kujundamisel juba algfaasis, mitte lisanduma alles hiljem (Paes 2023).
Rahvusvahelised juhtumiuuringud näitavad, et sotsiaalteenustes rakendatavaid tehisintellekti lahendusi mõjutavad sageli tugevalt kontekstist tulenevad väärtusvalikud, asutuste tavapraktika ja tehnoloogilise arenduse suund. Just neid seoseid uurib rahvusvaheline projekt AI FORA (ingl Artificial Intelligence for Assessment), mille eesmärk on mõista, kuidas AI-l põhinevad hindamissüsteemid kujundavad riikides ligipääsu sotsiaalteenustele.
Kataloonia näitel rõhutatakse TI-süsteemide osaluspõhise kujunduse tähtsust: tööriistad Digital Public Revenues (DPR) ja Gavius, mis automatiseerivad toetuste jagamist ja haldamist, töötati välja koos kodanike, spetsialistide ja teenusekasutajatega töötubades ja fookusgruppide kaudu. (Sabater jt 2025). Vastupidiselt näitab India Tamil Nadu juhtum, kuidas biomeetrilisel autentimisel põhinev toidutoetuste süsteem võib formaalselt neutraalse tehnoloogia kaudu taasluua kastipõhist ebaõiglust ja välistada haavatavamaid rühmi, näiteks inimesi, kelle sõrmejäljed ei registreeru (Srinivasalu jt 2025).
Saksamaal on kasutusel Dialect Identification Assistance System (DIAS) tööriist, mis kasutab kõneanalüüsi varjupaigataotlejate päritolu määramiseks, kui puuduvad isikut tõendavad dokumendid. Kuigi DIAS pakub haldustuge, on seda kritiseeritud vähese täpsuse ja vaidlustatavuse tõttu, sest inimeste võimalus otsust mõjutada on piiratud (Späth 2025). Iraanis rakendatav Targeted Subsidies Plan kasutab ulatuslikku andmeskoorimist ja klassifitseerimist, et määrata majapidamiste õigus toetusi saada, ent puudub võimalus, et inimesed saaksid oma staatust vaidlustada (Bashiri 2025).
Need juhtumid toovad esile, et sellised väärtuspõhimõtted nagu läbipaistvus, osalus ja inimlik kaalutlusõigus ei realiseeru tehisintellekti rakendustes automaatselt. Nende põhimõtete rakendamine eeldab süsteemi teadlikku väljatöötamist, institutsionaalset tuge ja võimalust hinnata, kuidas süsteemid mõjutavad võimu ja haavatavuse vahekordi.
Sarnast väärtusraamistikku väljendab ka Eesti „Tehisintellekti ja andmete valge raamat 2024–2030“, kus rõhutatakse vajadust tugevdada inimkeskset andmekorraldust. Olulisemate põhimõtetena tuuakse esile kasutaja autonoomia, läbipaistvus ja usaldusväärsus.
Värsked andmed aga viitavad (Majandus- ja Kommunikatsiooniministeerium jt 2024), et mitu kriitilist tööriista ei ole praktikas veel laialdaselt kasutusel: 89% avaliku sektori organisatsioonidest ei rakenda nõusolekuteenust ja 70% ei kasuta andmejälgijat ka valdkondades, kus teenused otseselt mõjutavad haavatavate rühmade õigusi ning heaolu. See näitab, et kuigi väärtused on strateegilisel tasandil sõnastatud, on nende elluviimiseks vaja süsteemset tuge, praktilisi süsteeme ja selget vastutusjaotust.
Just sellist väärtusraamistikku toetab ka sotsiaalvaldkonna töötaja eetikakoodeks, mis seab selged põhimõttelised ootused: professionaalne praktika peab toetuma inimõigustele, autonoomiale, privaatsusele, osalusele ja eetilisele vastutusele (ESTA 2022).
Eetikakoodeksis peetakse oluliseks ka inimeste sisulist kaasamist otsustusprotsessidesse ning sotsiaalse kaasatuse edendamist, eriti kui see puudutab ühiskondlikest hüvedest kõrvale jäänud inimesi.
Sellest vaatenurgast ei saa tehisintellekti kasutusvõimalusi hinnata üksnes tehnilise tõhususe alusel, oluline on küsida, kas need rakendused toetavad spetsialisti kaalutlusruumi, järgivad eetilisi piire ning kaitsevad kasutajate õigusi, väärikust ja osalusvõimalusi.
Eriti oluline on seejuures osalus – mitte üksnes formaalne kaasamine, vaid sisuline, võrdsetel alustel toimiv koostöö. Toros jt (2020) rõhutavad, et kaasamine ei tohi piirduda konsultatsiooniga pärast otsuste langetamist. Vaja on koosloomet, mis tähendab arendusprotsessi, kus kõik osalised – sh teenusekasutajad, spetsialistid ja arendajad – töötavad koos kogu teenuse arendamise vältel. Koosloome loob tingimused, kus teenuseid ei kujundata mitte kellegi nimel või kellegi heaks, vaid koos inimestega, keda need mõjutavad, toetades usaldusväärsust, vastutust ja tegelikele vajadustele vastavust.
Väärtuspõhimõtted nagu läbipaistvus, osalus ja inimlik kaalutlusõigus ei realiseeru tehisintellekti rakendustes automaatselt.
Andmetel põhinevad tehisintellektisüsteemid ei mõjuta üksnes sotsiaalvaldkonna töökorraldust, vaid kujundavad seda, kelle häält võimendatakse, keda peetakse ohuks või ohus olevaks ja millised otsused tehakse kelle nimel. Kui puuduvad läbipaistvus, süsteemi eetiline ülesehitus ja inimlik kaalutlusõigus, võivad ka heade kavatsustega süsteemid süvendada ebaõiglust. Seetõttu peab sotsiaaltöö roll jääma kriitiliseks ja väärtuspõhiseks: me peame mitte ainult tehnoloogiat rakendama, vaid ka selle mõju märkama, vaidlustama ja suunama.
Tehnoloogia väärtus oleneb selle kujundusest
Tehisintellekti kasutamine sotsiaaltöös mõjutab järjest enam seda, kuidas määratletakse abivajadus, kujundatakse spetsialisti roll ning jaotub vastutus otsuste eest. Rakendused, mis toetavad dokumenteerimist, hindavad riske või jälgivad meeleolu, ei ole pelgalt tehnilised tööriistad – need peegeldavad alati teatud arusaama õiglusest, autonoomiast ja hoolivusest.
Rahvusvahelised kogemused näitavad, et tehisintellekt võib sotsiaaltööd toetada, kui selle arendusprotsess on läbipaistev, väärtuspõhine ja kaasav. See eeldab, et nii spetsialistid kui ka teenusekasutajad on sisuliselt kaasatud – mitte ainult kasutajaandmete kaudu, vaid ka arendusotsustes. Usaldus tehnoloogia vastu kasvab siis, kui inimestel on tegelik mõju selle kujundamisele ning süsteemid pakuvad võimalust otsuseid mõista, vaidlustada ja kontrollida. Kui aga otsustusloogika jääb varjatuks või tugineb kallutatud andmetele, võib TI hoopis süvendada ebavõrdsust – just seal, kus sotsiaaltöö eesmärk on seda ennetada.
Tehniline tõhusus, nagu kiirem andmetöötlus või automatiseeritud hindamine, ei tohi tulla professionaalse kaalutlusõiguse ega inimsuhete arvelt. Sotsiaaltöö kui eetilistel väärtustel põhinev elukutse eeldab, et kasutatavad tehnoloogiad toetavad inimväärikust, kaitsevad privaatsust ja võimaldavad inimestel osaleda neid puudutavates otsustes.
Eetiline ja inimkeskne sotsiaaltöö vajab tehnoloogiat, mis ei ole üksnes funktsionaalne, vaid ka õiglane, läbipaistev ja vastutustundlik. Küsimus ei ole ainult selles, mida tehnoloogia suudab, vaid kelle jaoks ja milliste väärtuste nimel see töötab. Just sellise mõtteviisi hoidmine on sotsiaaltöö roll digiteel.
Viidatud allikad
Alexopoulou, S. (2024). Paradigm shift: Exploring the impact of digital technologies on the welfare state through a systematic literature review. Social Policy & Administration, 59(1), 135–157. https://doi.org/10.1111/spol.13054
Bashiri, H. (2025). Social assessment for the targeted subsidies plan as a social service provision in Iran: AI application in the targeted subsidies plan. Teoses: P. Ahrweiler (toim), Participatory artificial intelligence in public social services, 147–168. Springer. https://doi.org/10.1007/978-3-031-71678-2_7
Beam. (2024). Magic Notes – Service definition document. https://www.beam.org
Becker, C., Fischer, M. (2024). Factors of trust building in conversational AI systems: A literature review. Teoses: H. Degen, S. Ntoa (toim.) Artificial Intelligence in HCI. HCII 2024. Lecture Notes in Computer Science, Vol. 14735, 27–44. Springer. https://doi.org/10.1007/978-3-031-60611-3_3
Busch, P. A., Henriksen, H. Z. (2018). Digital discretion: A systematic literature review of ICT and street-level discretion. Information Polity, 23(1), 3–28. https://doi.org/10.3233/IP-170050
Carter, L. (2024). Critical analytics? Learning from the early adoption of data analytics for local authority service delivery. Ada Lovelace Institute.
Casu, M., Triscari, S., Battiato, S., Guarnera, L., Caponnetto, P. (2024). AI chatbots for mental health: A scoping review of effectiveness, feasibility, and applications. Applied Sciences, 14(13), 5889. https://doi.org/10.3390/app14135889
City of Helsinki. (2025). Sotebotti Hester: AI chatbot for social, health and rescue services. (21.05.2025).
Eesti Sotsiaaltöö Assotsiatsioon. (2022). Sotsiaalvaldkonna töötaja eetikakoodeks.
Euroopa Liit. (2024). Euroopa Parlamendi ja nõukogu määrus (EL) 2024/1689, 13. juuni 2024, tehisintellekti käsitlevate ühtlustatud eeskirjade ning teatavate liidu õigusaktide muutmise kohta (tehisintellekti määrus). Euroopa Liidu Teataja, L 168, 1–158.
Fast, K., Lappalainen, K. (2021). Protecting children from maltreatment with the help of artificial intelligence: A promise or a threat to children’s rights? De Lege, 2021(2), 431–447. https://doi.org/10.33063/dl.vi.433
Foo, C. D., Krishaa, L., Tang Si Ik, B., Kosycarz, E., …Teo, K. W. (2025). AI and digital technology paradigm for seniors: A Singapore lens to healthy longevity. Frontiers in Public Health, 12. https://doi.org/10.3389/fpubh.2024.1487139
Glasby, J., Litchfield, I., Parkinson, S., Hocking, L., … Bousfield, J. (2023). New and emerging technology for adult social care – the example of home sensors with artificial intelligence (AI) technology. Health and Social Care Delivery Research, 11(9). https://doi.org/10.3310/HRYW4281
Göransson, M. (2024). Who knows best? Self- versus friend-customisation of socially assistive robots with ChatGPT. Magistritöö, Uppsala ülikool. DiVA portaal.
Haque, M. D. R., Rubya, S. (2023). An overview of chatbot-based mobile mental health apps: Insights from app description and user reviews. JMIR Mhealth and Uhealth, 11, e44838. https://doi.org/10.2196/44838
Irfan, B., Kuoppamäki, S., Skantze, G. (2024). Recommendations for designing conversational companion robots with older adults through foundation models. Frontiers in Robotics and AI, 11, https://doi.org/10.3389/frobt.2024.1363713
Jørgensen, A. M., Nissen, M. A. (2022). Making sense of decision support systems: Rationales, translations and potentials for critical reflections on the reality of child protection. Big Data & Society, 9(2), 1–13. https://doi.org/10.1177/20539517221125163
Keddell, E. (2019). Algorithmic justice in child protection: Statistical fairness, social justice and the implications for practice. Social Sciences, 8(10), 281. https://doi.org/10.3390/socsci8100281
Leikas, J., Johri, A., Latvanen, M., Wessberg, N., Hahto, A. (2022). Governing ethical AI transformation: A case study of AuroraAI. Frontiers in Artificial Intelligence, 5. https://doi.org/10.3389/frai.2022.836557
Leinonen, R., Moisanen, K., Kuhn, P. (toim). (2023). Smart solutions for wellbeing service development and management – Winternational 5.0. Lapland University of Applied Sciences.
Li, W., Ding, H., Gui, J., Tang, Q. (2024). Patient acceptance of medical service robots in the medical intelligence era: An empirical study based on an extended AI device use acceptance model. Humanities and Social Sciences Communications, 11(1). https://doi.org/10.1057/s41599-024-04028-8
Liu, W., Xin, X., Zheng, C. (2025). The effect of behaviorally anthropomorphic service robots on customers’ variety-seeking behavior: An analytical examination of social presence and decision-making context. Frontiers in Robotics and AI, 12. https://doi.org/10.3389/frobt.2025.1503622
Majandus- ja kommunikatsiooniministeerium, justiitsministeerium, haridus- ja teadusministeerium, riigikantselei. (2024). Tehisintellekti ja andmete valge raamat 2024–2030.
Maslej, N., Fattorini, L., Brynjolfsson, E., Etchemendy, J., …Perrault, R. (2023). The AI Index 2023 Annual Report. Stanford Institute for Human-Centered Artificial Intelligence.
Maslej, N., Fattorini, L., Perrault, R., Gil, Y., ... Oak, S. (2025). The AI Index 2025 Annual Report. Stanford Institute for Human-Centered Artificial Intelligence.
Maslej, N., Fattorini, L., Perrault, R., Parli, V., Clark, J. (2024). The AI Index 2024 annual report. AI Index Steering Committee, Institute for Human-Centered AI, Stanford University.
Moylan, K., Doherty, K. (2025). Expert and interdisciplinary analysis of AI-driven chatbots for mental health support: Mixed methods study. Journal of Medical Internet Research, 27, e67114. https://doi.org/10.2196/67114
Oldenhof, L., Kersing, M., van Zoonen, L. (2024). Sphere transgressions in the Dutch digital welfare state: Causing harm to citizens when legal rules, ethical norms and quality procedures are lacking. Information, Communication & Society, 27(15), 2704–2720. https://doi.org/10.1080/1369118X.2024.2358163
Paes, S. (2024). From ethics to action: A study of human-centric AI implementation in public services, comparing the Estonian approach with approaches used in other countries. Magistrritöö. Tallinna tehnikaülikool.
Park, S., Whang, M. (2022). Empathy in human–robot interaction: Designing for social robots. International Journal of Environmental Research and Public Health, 19(3), 1889. https://doi.org/10.3390/ijerph19031889
Perruchoud, S., Banwell, N., Jox, R. R., Eggert, N. (2023). Social robots in care homes in French-speaking Switzerland: A qualitative and reflective study. Ethics, Medicine and Public Health, 29, 100918. https://doi.org/10.1016/j.jemep.2023.100918
Qi, W., Hui, L. (2025). Assessment for AI in Social Services: Community Virtual Nursing Home in Shanghai, China. Teoses: P. Ahrweiler (toim.), Participatory Artificial Intelligence in Public Social Services (237–254). Springer. https://doi.org/10.1007/978-3-031-71678-2_11
Ranerup, A., Henriksen, H. Z. (2022). Digital discretion: Unpacking human and technological agency in automated decision-making in Sweden’s social services. Social Science Computer Review, 40(2), 445–461. https://doi.org/10.1177/0894439320980434
Sabater, A., López, B., Campdepadrós, R., Sánchez, C. (2025). Participatory action research for AI in social services: An example of local practices from Catalonia. Teoses: P. Ahrweiler (toim.), Participatory artificial intelligence in public social services (79–96). Springer. https://doi.org/10.1007/978-3-031-71678-2_4
SOTE-AI Ekosysteemi Toimintasuunnitelma. (2025). Toimintasuunnitelma 2025. Sosiaali- ja terveysministeriö.
Späth, E. (2025). AI use in the asylum procedure in Germany: Exploring perspectives with refugees and supporters on assessment criteria and beyond. Teoses: P. Ahrweiler (toim.), Participatory artificial intelligence in public social services (119–146). Springer. https://doi.org/10.1007/978-3-031-71678-2_6
Srinivasalu, S., Selladurai, M., Sharma, S., Perumal, G., … Raj, E. D. (2025). Social assessment and cultural resistance: The public distribution system in Tamil Nadu, India. Teoses: P. Ahrweiler (toim.), Participatory artificial intelligence in public social services (169–186). Springer. https://doi.org/10.1007/978-3-031-71678-2_8
Stanley, L. H. K., Wilke, D. J., Radey, M. (2023). The effectiveness of Children’s Home Society CaseAIM Program. Children’s Home Society of Florida.
Ström, T. M., Vesterlund, M. (2024). Examining the privacy aspects and cost-quality balance of a public sector conversational interface. Magistritöö, Uppsala ülikool. DiVA portaal.
Zhang, D., Maslej, N., Brynjolfsson, E., Etchemendy, J., …. Perrault, R. (2022). The AI Index 2022 annual report. AI Index Steering Committee, Stanford Institute for Human-Centered AI, Stanford University.
Thomas, R. J., Lee, J., Nakamura, Y., Park, S. (2025). Integrating AI-based social robotics in elder care: Cross-cultural insights from East Asia. Mesopotamian Journal of Artificial Intelligence in Healthcare, 2025, 58–84. https://doi.org/10.58496/MJAIH/2025/007
Toros, K., Kangro, K., Lepik, K.-L., Bugarszki, Z., Sindi, I., … Medar, M. (2020). Co-creation of social services on the example of social hackathon: The case of Estonia. International Social Work, 65(4), 593–606. https://doi.org/10.1177/0020872820904130
van Dijk, B. M. A., Lefebvre, A. E. J. L., Spruit, M. R. (2025). Welzijn.AI: Developing responsible conversational AI for elderly care through stakeholder involvement. arXiv. https://doi.org/10.48550/arXiv.2502.07983
Vihalemm, T., Männiste, M., Trumm, A., Solvak, M. (2025). Specialists and algorithms: Implementation of AI in the delivery of unemployment services in Estonia. Teoses: P. Ahrweiler (toim), Participatory Artificial Intelligence in Public Social Services (97–117). Springer. https://doi.org/10.1007/978-3-031-71678-2_5