S hitrim širjenjem digitalizacije po svetu so naši pametni telefoni postali vse bolj napredne naprave in nepogrešljiva orodja, ki pomembno vplivajo na vsakdanje življenje. Niso več zgolj komunikacijske naprave; postali so pametni, intuitivni pomočniki, pri čemer najnovejše generacije stremijo k še večji inteligenci z vključevanjem tehnologije umetne inteligence (UI).
Vendar evolucija pametnih naprav, ki jih poganja umetna inteligenca, prinaša vrsto novih tveganj in groženj, ki jih uporabniki morda ne jemljejo dovolj resno.
"Na eni strani imamo koristi, kot so uporabniška izkušnja, hitrost dostopa do informacij in doseganje poslovnih ciljev. Med tveganji pa so napačne interpretacije podatkov, halucinacije in lažne vsebine," pravi Ervin Jagatić, direktor izdelkov za umetno inteligenco pri Infobipu.
Preberi še
Bo umetna inteligenca izbrisala intelektualno delo in srednji razred?
Umetna inteligenca in človeško delo. Kakšen bo rezultat?
18.11.2024
Vaš naslednji finančni svetovalec bo v aplikaciji
Kot je industrijska revolucija spremenila način proizvodnje, bo tehnološka revolucija spremenila storitve.
14.11.2024
Kako umetna inteligenca spreminja mesta
Intervju z dunajskim spletnim razvijalcem, ki že več kot 20 let oblikuje digitalne rešitve za prihodnost mest.
13.10.2024
Da bodo nove naprave, opremljene s tehnologijo umetne inteligence, olajšale širjenje lažnih vsebin, se strinja tudi Ljubiša Bojić, višji znanstveni sodelavec in koordinator Laboratorija za digitalno družbo na Inštitutu za filozofijo in družbeno teorijo v Srbiji.
"Tehnologija UI omogoča vse hitrejše in lažje ustvarjanje vsebin, ki so videti avtentično, kar lahko privede do povečanja zavajajočih informacij v spletnem prostoru," poudarja.
Dostopnost umetne inteligence
Umetna inteligenca postaja vse bolj dostopna, kar omogoča, da z enim klikom na pametnem telefonu izvedemo vizualno iskanje, ki temelji na tem, kar vidimo, lektoriramo besedilo ali celo odgovorimo na sporočilo ali e-pošto. Nihče pa si ne želi, da bi občutljivi podatki iz teh vsebin bili razkriti ali zlorabljeni, namerno ali po nesreči.
"Obstaja tveganje, da se ti podatki uporabijo za učenje velikih jezikovnih modelov (LLM) brez soglasja uporabnikov, kar bi lahko vplivalo na zasebnost in varnost," pojasnjuje Nino Karas, izvršni direktor in soustanovitelj podjetja CodeWell AI.
Prednost, ki prinaša tveganje
Umetna inteligenca v različnih oblikah postaja sestavni del funkcionalnosti sodobnih pametnih telefonov. Od glasovnih asistentov, kot sta Siri in Google Assistant, do naprednejših funkcij, kot so predvidevanje besedila in personalizirana priporočila, UI izboljšuje uporabniško izkušnjo, saj naprave postajajo natančnejše in bolj intuitivne.
Vendar prav ta napredek pomeni, da so te naprave dovzetne za zlorabe. Ena glavnih skrbi se nanaša na podatke, ki jih zbirajo pametne naprave. Sistemi umetne inteligence za učinkovito delovanje zahtevajo ogromne količine podatkov, ki pogosto vključujejo občutljive osebne podatke, kar ustvarja odlično priložnost za kibernetske kriminalce. Na primer, če lahko sistem UI razume vaše glasovne ukaze, lahko potencialno prestreže in zlorabi osebne ali finančne informacije.
Za ilustracijo si predstavljajte situacijo, v kateri svojemu virtualnemu asistentu podate glasovni ukaz: "Preveri moje stanje na bančnem računu." Virtualni asistent dostopa do vašega bančnega računa in sporoči stanje. Če ta asistent nima ustrezne zaščite, lahko nekdo, ki prestreže te podatke ali ima dostop do sistema, pridobi informacije o vašem bančnem računu.
Eden od načinov zlorabe bi bil, če bi hekerju uspelo dostopati do strežnika, na katerem se hranijo in obdelujejo ti ukazi, s čimer bi pridobil občutljive podatke, kot so številke bančnih računov, gesla ali podatke o kreditnih karticah. V najslabšem primeru lahko takšen napadalec te informacije uporabi za nepooblaščene transakcije ali druge vrste finančnih prevar.
Na podlagi tega primera lahko sklenemo, da integracija umetne inteligence v različne aplikacije in storitve pomeni, da lahko ena sama varnostna kršitev ogrozi celoten ekosistem podatkov.
Veliki jezikovni modeli se vse bolj uporabljajo zaradi njihove sposobnosti zagotavljanja informacij in opravljanja nalog z veliko natančnostjo, kar že omogoča, da se del vsakodnevnih aktivnosti skoraj v celoti prenese na umetno inteligenco. Toda, če informacije, ki jih ustvari UI, niso preverjene, to lahko vodi do resnih posledic za družbo.
"Dezinformacije niso vedno namerne – pogosta težava velikih jezikovnih modelov je pojav tako imenovanih halucinacij, ko posredovane informacije zvenijo verodostojno, vendar so popolnoma napačne. To je tudi eden od razlogov, zakaj se ti modeli še ne uporabljajo na veliko v industrijah, kjer lahko dezinformacije povzročijo velike finančne izgube in pravne posledice," pojasnjuje Karas.
V tem kontekstu naš sogovornik navaja še en primer – klepetalnik, ki temelji na Chat GPT in so ga februarja letos razvili za letalsko družbo Air Canada.
"Njihov klepetalnik je po pomoti ustvaril novo politiko za vračilo denarja strankam, kar je privedlo do sodne odločbe, v skladu s katero je morala družba povrniti denar vsem strankam, ki so prejele to informacijo. Čeprav je bila politika povsem neugodna za družbo Air Canada, je sodišče odločilo, da je zavezujoča, saj je informacija prišla iz uradnega vira družbe."
Ranljivost, ki jo je mogoče izkoristiti
Pametni telefoni so vse pogostejša tarča hekerjev, ki želijo izkoristiti slabosti razmeroma nove tehnologije. Zloglasen primer bi bila zlonamerna programska oprema, ki jo poganja umetna inteligenca ter se lahko prilagodi in razvije tako, da se izogne odkrivanju z uporabo konvencionalnih varnostnih ukrepov. V nasprotju s tradicionalno zlonamerno programsko opremo se lahko oprema, ki jo poganja umetna inteligenca, uči iz svojega okolja in spreminjajo svoje vedenje za obhod varnostnih protokolov.
Poleg tega je mogoče zlonamerno manipulirati tudi z algoritmi UI, ki se uporabljajo v pametnih telefonih.
Na podoben način je prav tako mogoče prevarati sisteme UI, ki se učijo iz vedenja uporabnikov, in tako povzročiti, da sprejemajo napačne odločitve ali izvajajo dejanja na podlagi lažnih podatkovnih vnosov.
Nevarnost globokih ponaredkov in lažnega predstavljanja
Z napredkom umetne inteligence je ustvarjanje lažnih vsebin, znanih kot deepfake oziroma globoki ponaredki, postalo resnična in nevarna grožnja. Ta tehnologija omogoča ustvarjanje prepričljivih video- ali avdioposnetkov, ki so videti, kot da so jih ustvarili resnični ljudje, vendar so v celoti umetno ustvarjeni. Ti posnetki se lahko uporabijo za dezinformacije, prevare ali celo obrekovanje.
Nedžad Pirić, strokovnjak za digitalizacijo v Bloomberg Adria, opozarja na resne nevarnosti širjenja globokih ponaredkov, še zlasti ko gre za dezinformacije, manipulacijo javnega mnenja in zmanjšanje zaupanja v digitalne medije.
Ko gre za vpliv na politiko, so tovrstne vsebine pomembna grožnja politični stabilnosti.
Lahko pride do vpliva na javno mnenje, diskreditacije političnih kandidatov, sabotaže mednarodnih odnosov in pogajanj ter sprožanja političnih nemirov.
"Lažno prikazani govori ali dejavnosti politikov lahko destabilizirajo države, povzročijo nezaupanje volivcev in polarizirajo družbo, medtem ko lahko avtoritarni režimi to tehnologijo uporabijo za propagando in represijo opozicije," pravi Pirić.
"Po drugi strani pa so globoki ponaredki tudi resna grožnja finančnim sistemom. Ta tehnologija lahko povzroči paniko na trgu, manipulira z delničarji in vlagatelji ter vodi do nenadnih padcev ali rasti vrednosti delnic," še pojasnjuje Pirić.
Globoki ponaredki lahko prav tako resno ogrozijo ugled javnosti in zaupanje medijem. Družbena omrežja so glede tega verjetno najbolj ranljiva, saj se uporabljajo kot kanal za hitro in množično distribucijo vsebin.
Bojić poudarja, da preprečevanje širjenja takih vsebin na omrežjih zahteva kombinacijo tehnoloških rešitev, kot so algoritmi za zaznavanje globokih ponaredkov, in izobraževanje uporabnikov za prepoznavanje lažnih vsebin.
Čeprav so ponarejeni videoposnetki, ki jih ustvari umetna inteligenca, vse bolj prepričljivi, se strokovnjaki strinjajo, da jih izdajajo nekateri znaki, po katerih je mogoče opaziti, da je vsebina deepfake.
"Pogosto so na lažnih videoposnetkih izrazi obraza ali gibi oči videti nenaravni ali neusklajeni z glasom. Prav tako lahko prepoznate lažno vsebino, če opazite že najmanjše neskladje med gibi ustnic in glasom. Drugi kazalnik je pomanjkanje mežikanja ali nenaravno oziroma prepogosto mežikanje. Sumljivi sta še neustrezna osvetlitev, pri čemer se lahko opazijo spremembe v senci ali osvetlitvi obraza, ki ne ustrezajo naravnim pogojem, ter zelo gladka ali plastična tekstura kože, ki deluje nenaravno v primerjavi z dejanskim videzom kože," pojasnjuje Pirić.
Zasebnost in etična vprašanja
Uporaba umetne inteligence v pametnih telefonih povzroča veliko zaskrbljenost glede zasebnosti. Sistemi za UI pogosto zahtevajo stalni dostop do osebnih podatkov za izboljšanje svojih algoritmov.
"Obdelava in uporaba informacij uporabnikov sta še naprej veliki težavi, ki kljub poskusom rešitve in zakonski regulaciji, kot je GDPR (splošna uredba o varstvu podatkov), še vedno kažeta številne pomanjkljivosti, tudi v zelo uveljavljenih podjetjih. Umetna inteligenca še bolj zapleta obstoječo situacijo, ki je žal še vedno siva cona. Podjetja se ščitijo z uporabo zakonskih mehanizmov in z dolgimi, za običajnega uporabnika nejasnimi politikami zasebnosti in uporabe," poudarja Karas.
Poleg tega pa so tu tudi etične dileme. Sposobnost UI, da napoveduje in vpliva na vedenje uporabnikov, lahko privede do manipulacij, bodisi v komercialne namene ali iz drugih neetičnih razlogov. Isti algoritmi, ki priporočajo izdelke in storitve, se lahko zlorabijo za širjenje škodljivih vsebin ali dezinformacij.
V političnem kontekstu se lahko UI na primer uporabi za identifikacijo uporabnikov, ki so dovzetni za določena sporočila in ki se jim bodo prikazovali ciljni politični oglasi ali dezinformacije. Algoritmi lahko analizirajo čustva, stališča in prepričanja uporabnikov ter ustvarijo personalizirana sporočila, ki vplivajo na njihovo mnenje ali vedenje, kot se je zgodilo v primeru Cambridge Analytice, kjer so bili podatki z družbenih omrežij uporabljeni za manipulacijo z volivci.
Blaženje tveganj
Za boj proti tem grožnjam morajo proizvajalci in razvijalci postaviti močne varnostne ukrepe na prvo mesto. To vključuje šifriranje podatkov, strog nadzor dostopa z dvofaktorsko avtentifikacijo, stalno spremljanje za odkrivanje groženj, redno posodabljanje programske opreme, segmentacijo omrežja ter izvajanje pravnih in etičnih standardov. Bojić predlaga, da bi bilo pri zaščiti pred ponarejenimi vsebinami, ki jih ustvari umetna inteligenca, ključno razvijati orodja za zaznavanje in preverjanje tovrstnih vsebin, pri čemer bi se lahko uporabile sodobne metode, kot je tehnologija veriženja blokov.
"Z uporabo verige blokov lahko ustvarimo distribuiran, nespremenljiv zapis podatkov, ki zagotavlja preglednost in preverjanje. Vsako vsebino lahko haširamo in digitalno podpišemo, nato pa jo zabeležimo v verigo blokov, kar omogoča preverjanje avtentičnosti s pomočjo specializiranih UI-orodij za zaznavanje globokih ponaredkov."
Kot pravi, lahko pametni pogodbeni sistemi avtomatizirajo te procese, medtem ko bi imeli končni uporabniki prek dodatkov za brskalnike enostaven dostop do informacij za preverjanje vsebine. Takšen sistem bi močno zmanjšal tveganje širjenja napačnih informacij in okrepil zaupanje javnosti v digitalne medije.
Poleg tega bi bil povečan regulatorni nadzor nujen, da bi se zagotovila razvoj in uporaba tehnologije umetne inteligence, ki bi spoštovala zasebnost in varnost uporabnikov. Pregledne prakse in soglasje uporabnikov bi morali biti temelj pri uporabi tehnologij umetne inteligence.
"Odgovornost podjetij in posameznikov lahko močno vpliva na zaščito zasebnosti in varnosti podatkov. Odgovorna uporaba umetne inteligence lahko omogoči varno uporabo posamezniku," poudarja Jagatić iz Infobipa.
Pot v prihodnost
Ko umetna inteligenca napreduje, napredujejo tudi strategije tistih, ki želijo izkoristiti njene šibkosti. Izziv za uporabnike in razvijalce bo, da ostanejo korak pred temi grožnjami in zagotovijo, da koristi umetne inteligence ne bodo škodile varnosti in zasebnosti.
"Zelo pomembna sta strogo preizkušanje in preverjanje pred množično uporabo algoritmov ter preglednost in nadzor v procesu usposabljanja. Vključitev človeškega nadzora prav tako pripomore k preprečevanju napačnih ali neetičnih odločitev," dodaja Karas.
V svetu, kjer so pametne naprave osrednji del našega vsakodnevnega življenja, razumevanje in obvladovanje skritih groženj umetne inteligence ni le previdnostni ukrep, temveč nujnost.
Pri pripravi besedila so sodelovali Marta Premužak, Dragana Tomić in Nejra Džaferagić. Prevedel Urban Červek.