Banke vse hitreje uvajajo umetno inteligenco (AI) v svoje procese, od personalizacije storitev do boja proti goljufijam. Hkrati pa naraščajo tudi regulatorne zahteve: medtem ko tehnologija napreduje, Evropska unija z Aktom o umetni inteligenci (AI Act) uvaja stroga pravila, da bi zagotovila, da so avtomatizirane odločitve pregledne, pravične in skladne s temeljnimi pravicami državljanov.
Za Bloomberg Adria Ivana Jolić iz Hrvaške narodne banke (HNB) pojasnjuje, kako Akt o umetni inteligenci postavlja jasna pravila glede preglednosti, preprečevanja diskriminacije in prepovedanih praks, kot je družbeno točkovanje (social scoring), ter izpostavlja, kje so največje priložnosti in kje meje uporabe AI pri ocenjevanju kreditne sposobnosti državljanov.
Digitalna transformacija bančnega sektorja
Da je bančništvo še posebej primerno za uporabo umetne inteligence, meni tudi Jolić. Banke razpolagajo z velikimi količinami zanesljivih zgodovinskih podatkov, narava težav, s katerimi se soočajo, pa je večinoma kvantitativna, na primer ocenjevanje verjetnosti neizpolnjevanja kreditnih obveznosti ali izračun potencialne izgube.
Ivana Jolić
Te ocene potrjujejo tudi ugotovitve Evropskega bančnega organa (EBA), po katerih je evropski bančni sektor v zadnjih nekaj letih doživel pomembno digitalno preobrazbo. Banke vse intenzivneje uporabljajo napredne tehnologije, vključno z umetno inteligenco. Ta se najpogosteje uporablja za izboljšanje uporabniške izkušnje prek profiliranja in segmentacije strank ter transakcij, predvsem v komercialne namene, kot sta marketing in prodaja.
Umetna inteligenca se široko uporablja tudi pri odkrivanju finančnih goljufij, preprečevanju pranja denarja in financiranja terorizma (AML/CFT), podpori strankam prek klepetalnih robotov ter pri optimizaciji internih procesov. Gre za primere uporabe, ki po Aktu o umetni inteligenci večinoma ne sodijo med visokotvegane sisteme in zato zanje velja manj stroga regulacija.
"Ti primeri uporabe umetne inteligence so skladni s trendi, ki jih EBA v svojih raziskavah zaznava že v preteklih letih, zato je realno pričakovati, da se bo rast uporabe umetne inteligence na teh področjih nadaljevala tudi v prihodnje," pravi Jolić.
Kar zadeva uporabo umetne inteligence za ocenjevanje kreditne sposobnosti fizičnih oseb ali določanje njihovega kreditnega bonitetnega razreda, Jolić meni, da bo vloga umetne inteligence na tem področju vendarle manj izrazita kot na drugih. Kot največjo oviro vidi razložljivost rezultatov, ki jih ustvarja umetna inteligenca. Banke morajo biti sposobne pojasniti rezultate ne le internim uporabnikom, prodaji, vodstvu in nadzornikom, temveč tudi samim strankam, zlasti v primerih, ko kredit ni odobren.
Regulatorni izzivi in Akt o umetni inteligenci
Z regulatornega vidika je položaj še dodatno zapleten. V preambuli Akta o umetni inteligenci je navedeno, da se sistemi umetne inteligence, ki se uporabljajo za bonitetne namene, na primer za izračun kapitalskih zahtev kreditnih institucij, ne bi smeli šteti za visokotvegane. Vendar to ni navedeno v Prilogi III, kjer je določen seznam visokotveganih sistemov. Hkrati je umetna inteligenca za odkrivanje finančnih goljufij izrecno navedena kot izjema tako v preambuli kot v Prilogi III (op. Akt o umetni inteligenci).
Jolić pojasnjuje, da gre pri tem za interne modele, ki se uporabljajo v okviru pristopa IRB za izračun kapitalskih zahtev za kreditno tveganje in na prvi pogled ne posegajo v temeljne pravice posameznikov. Vendar pa morajo ti modeli, da jih nadzornik odobri, izpolnjevati celo vrsto zahtev, med katerimi je ena ključnih tako imenovani use test. IRB-modeli morajo imeti pomembno vlogo pri upravljanju tveganj in sprejemanju odločitev, vključno s postopki odobravanja kreditov.
Če ti modeli temeljijo na umetni inteligenci in se uporabljajo za ocenjevanje kreditne sposobnosti fizičnih oseb ali določanje njihovega kreditnega bonitetnega razreda, se zanje – ne glede na njihov bonitetni namen – uporablja tudi Akt o umetni inteligenci.
Despositphotos
Jolić poudarja, da je bančništvo močno regulirana panoga in da je zaupanje varčevalcev ključno. Poleg že obsežnega okvira bonitetne regulative se Akt o umetni inteligenci umešča kot dopolnilna uredba k obstoječim predpisom, ki urejajo bančno poslovanje. Gre za prvi primer takšne horizontalne uredbe na svetu: ne nanaša se le na finančno industrijo, temveč ureja širok nabor uporabe umetne inteligence.
Uporabe umetne inteligence so v Aktu o umetni inteligenci razdeljene v štiri ravni tveganja. Prva zajema prepovedane prakse, med katerimi so subliminalne tehnike, napovedovanje verjetnosti, da bo posameznik storil kaznivo dejanje, ter različne oblike družbenega točkovanja (social scoring). Druga kategorija se nanaša na visokotvegane sisteme, na katere je osredotočen največji del uredbe. Za bančništvo je to še posebej pomembno, saj sem sodijo rešitve umetne inteligence za ocenjevanje kreditne sposobnosti in določanje kreditnega bonitetnega razreda državljanov, z izjemo sistemov, namenjenih odkrivanju goljufij. Tretja kategorija zajema uporabe z omejenim tveganjem, kot so klepetalni roboti ali tehnologije globokih ponaredkov (deepfake), za katere veljajo zahteve glede preglednosti. Četrta skupina obsega uporabe z minimalnim tveganjem, kot so umetna inteligenca v videoigrah, filtri za nezaželeno pošto in podobno, ter ni predmet regulacije.
Namen Akta o umetni inteligenci je, kot navaja Jolić, izboljšati delovanje notranjega trga in spodbujati uvajanje antropocentrične in zaupanja vredne umetne inteligence, hkrati pa zagotoviti visoko raven varovanja zdravja, varnosti in temeljnih pravic.
"Dostop do finančnih virov ali osnovnih storitev, kot je stanovanje, se obravnava kot temeljna pravica državljana EU, zato je v tej uredbi posebej zaščiten; cilj je namreč preprečiti, da bi kakršnakoli avtomatizirana odločitev, ki jo sprejme umetna inteligenca, državljanom neupravičeno odvzela pravico do kredita," pravi Jolić.
Kot enega največjih izzivov za regulatorje EU navaja natančno opredelitev tega, kaj vse se šteje za umetno inteligenco, saj gre za tehnologijo, ki se hitro spreminja in razvija.
Izzivi pri preprečevanju diskriminacije v AI-modelih
Preprečevanje diskriminacije v modelih umetne inteligence bo predstavljalo enega največjih izzivov pri njihovi uporabi. "Tako mi, nadzorniki, kot kolegi v bankah, ki razvijajo, validirajo in uvajajo modele, si želimo, da bi imel model dobro diskriminatorno moč, torej da bi dobro ločeval med dobrimi in slabimi dolžniki," pojasnjuje Jolić. Če pa ima model manjšo diskriminatorno moč, ker ne sme vsebovati nekaterih napovednih spremenljivk, se postavlja ključno vprašanje, ali to lahko privede do višjih parametrov tveganja in posledično do višje cene kredita.
Dodatno zapletenost prinaša dejstvo, da Akt o umetni inteligenci ni celostna uredba. Uporablja se skupaj z drugo zakonodajo, ki ureja bančno poslovanje, pa tudi z zakonodajo o varstvu podatkov (GDPR), nediskriminacijskim pravom, pravom varstva potrošnikov in podobno.
V tem kontekstu, pojasnjuje Jolić, ne gre za "diskriminacijo" v smislu razlikovanja med dobrimi in slabimi dolžniki, temveč za to, da se sistemi umetne inteligence ne razvijejo na način, ki bi diskriminiral posameznike ali skupine in ohranjal zgodovinske vzorce diskriminacije. To vključuje diskriminacijo na podlagi rasnega ali etničnega porekla, spola, invalidnosti, starosti ali spolne usmerjenosti, pa tudi ustvarjanje novih diskriminatornih učinkov.
"Izziv bo oblikovati metrike, s katerimi bo mogoče ugotoviti, ali je umetna inteligenca morda diskriminirala bančne stranke glede na katero izmed nedovoljenih spremenljivk," meni Jolić.
Ali lahko banka uporablja podatke s Facebooka?
Čeprav umetna inteligenca tehnološko omogoča obdelavo in uporabo nestrukturiranih podatkov, vključno s tistimi z družbenih omrežij, regulatorni okvir postavlja jasne omejitve. Na primer, Direktiva EU 2023/2025 o pogodbah o potrošniških kreditih izrecno prepoveduje uporabo podatkov z družbenih omrežij. Zanimivo pa je, da takšna prepoved (še) ni predvidena v direktivi, ki ureja stanovanjske kredite, kar odpira vprašanje, ali bi bila takšna praksa v tem segmentu dovoljena.
Depositphotos
Jolić nadaljuje, da odgovora ni mogoče obravnavati izključno skozi eno direktivo. Akt o umetni inteligenci namreč dodatno postavlja omejitve na področju prepovedanih praks, pri čemer je posebej izpostavljeno družbeno točkovanje (social scoring). V svojih Smernicah o prepovedanih praksah Evropska komisija navaja, da lahko nekateri sistemi za ocenjevanje kreditne sposobnosti predstavljajo obliko profiliranja in pripeljejo do ocenjevanja ali razvrščanja fizičnih oseb na podlagi njihovega družbenega vedenja, osebnih značilnosti ali značajskih lastnosti, kar je v določenih oblikah po Aktu o umetni inteligenci prepovedano.
Na primer, odplačevanje dolga se šteje za element družbenega vedenja, medtem ko osebne značilnosti vključujejo podatke, kot so dohodek, število članov gospodinjstva ali zadolženost, pa tudi potencialno informacije, dostopne na družbenih omrežjih. Čeprav sta dohodek in zadolženost relevantna za odločanje o kreditu, podatki s platform, kot je Facebook, večinoma ne izhajajo iz povezanega družbenega konteksta.
"Če bi se pri ocenjevanju kreditne sposobnosti fizičnih oseb ali določanju njihovega kreditnega bonitetnega razreda uporabljale informacije, ki niso iz povezanega družbenega konteksta – na primer podatki s Facebooka – in bi takšna uporaba vodila do neugodnega obravnavanja posameznika, bi to predstavljalo družbeno točkovanje (social scoring), kar po Aktu o umetni inteligenci spada med kategorično prepovedane prakse," zaključuje naša sogovornica.
__
Gre za osebna stališča, ki niso nujno stališča institucije, v kateri je avtorica zaposlena.