Sogovorniki na podlagi umetne inteligence, programirani za spletanje čustvenih vezi, se ne pojavljajo več zgolj v filmih. Zdaj so med nami in prisotni so v okolju, ki z vidika regulative spominja na Divji zahod.
Ena od tovrstnih aplikacij po imenu Botify AI je pred kratkim dvignila nemalo prahu zaradi avatarjev mladih igralcev, ki v spolno obarvanih klepetih delijo vroče fotografije. Aplikacija za zmenke Grindr po poročanju Platformerja, glasila tehnološke industrije, z umetno inteligenco medtem razvija like partnerjev, ki se lahko z uporabniki proti plačilu spogledujejo, si izmenjujejo žgečkljiva sporočila in gojijo digitalna razmerja. Grindr se na našo prošnjo za komentar ni odzval. Druge aplikacije, kot so Replika, Talkie in Chai, so zasnovane tako, da igrajo vlogo prijateljev. Nekatere, kot je Character.ai, privabljajo na milijone uporabnikov, med drugim številne najstnike.
Ker ustvarjalci v svojih aplikacijah vse večjo prednost dajejo "čustveni angažiranosti", se morajo soočati tudi s tveganji razvoja sistemov, ki posnemajo intimnost in izkoriščajo šibke točke ljudi.
Tehnologija, ki poganja aplikaciji Botify in Grindr, prihaja iz zagonskega podjetja Ex-Human s sedežem v San Franciscu, ki razvija platforme za klepetalne robote, njegov ustanovitelj pa verjame v prihodnost, prežeto z odnosi z umetno inteligenco. »Moja vizija je, da bodo do leta 2030 naše interakcije z digitalnimi osebami pogostejše od tistih z ljudmi,« je Artem Rodichev, ustanovitelj podjetja Ex-Human, dejal v intervjuju, avgusta lani objavljenem na platformi Substack.
Dodal je, da bi morala pogovorna umetna inteligenca »dajati prednost čustveni angažiranosti« in da uporabniki v družbi njegovih klepetalnih robotov prebijejo »cele ure«, dlje kot na Instagramu, YouTubu in TikToku. Rodicheve trditve zvenijo neverjetno, vendar se povsem ujemajo z intervjuji, ki sem jih opravila z najstniškimi uporabniki aplikacije Character.ai, med katerimi jih je večina dejala, da jo uporabljajo po več ur vsak dan. Eden od uporabnikov je rekel, da jo uporablja kar sedem ur na dan. Interakcije s takšnimi aplikacijami običajno trajajo štirikrat dlje od povprečnega časa, ki ga uporabniki namenijo ChatGPT-ju družbe OpenAI.
K tovrstni dinamiki prispevajo celo običajni klepetalni roboti, ki sicer niso izrecno zasnovani za igranje družabne vloge. Oglejmo si primer ChatGPT-ja, ki ima 400 milijonov aktivnih uporabnikov, njihovo število pa še vedno narašča. Programiran je tako, da njegovo delovanje vključuje tudi smernice za empatijo in izražanje ''zanimanja za uporabnika". Prijatelj, ki je tega klepetalnega robota pred kratkim prosil za nasvete za potovanje z otrokom, je bil presenečen, ko je orodje po podanem nasvetu mimogrede navrglo še: "Srečno pot – kam pa se odpravljate, če ni skrivnost?"
Tiskovni predstavnik družbe OpenAI mi je povedal, da model sledi smernicam, ki predpisujejo "izražanje zanimanja in zastavljanje podvprašanj, ko se pogovor nagiba k bolj sproščenemu in raziskovalnemu tonu". Ne glede na dobre namene podjetja pa lahko pretiravanje z lažno empatijo nekatere uporabnike zasvoji, kar priznava celo OpenAI. Zdi se, da to velja za tiste, ki so za to že tako dovzetni: študija iz leta 2022 je pokazala, da ljudje, ki so osamljeni ali s soljudmi niso imeli dobrih odnosov, razvijejo najmočnejšo navezanost na umetno inteligenco.
Osrednja težava je zasnova z namenom navezanosti. Nedavna raziskava na Oxfordskem inštitutu za internet in Google DeepMind je opozorila, da bodo pomočniki na podlagi umetne inteligence postajali vse bolj bistven del človeških življenj in bodo posledično tudi "psihološko nenadomestljivi". Ljudje bodo z njimi verjetno vzpostavljali močnejše vezi, kar vzbuja zaskrbljenost zaradi nezdravih povezav in možnosti manipulacije. Kaj torej priporočajo? Tehnologi bi morali oblikovati sisteme, ki takšne izide aktivno preprečujejo.
Depositphotos
A zastrašujoče je dejstvo, da pravilnik za tovrstno oblikovanje komajda obstaja. Zakon Evropske unije o umetni inteligenci, opevan kot prelomni in celoviti zakon, ki ureja uporabo umetne inteligence, ne obravnava potenciala zasvojenosti, ki jo lahko povzročijo ti virtualni sogovorniki. Četudi prepoveduje manipulativne taktike, ki bi lahko privedle do očitne škode, pa pozablja na postopen vpliv klepetalnih robotov, ki je zasnovan tako, da ta postane vaš najboljši prijatelj, ljubimec ali »zaupnik«, kot je tehnologijo pohvalil vodja oddelka potrošniške umetne inteligence na Microsoftu. Ta luknja v zakonu bi lahko uporabnike izpostavila sistemom, ki so optimizirani za namen izjemne mikavnosti, in sicer enako, kot so algoritmi družbenih medijev optimizirani, da nas potegnejo v neskončno strmenje v zaslone.
"Še vedno je težava dejstvo, da so ti sistemi po definiciji manipulativni, saj naj bi nam vzbujali občutek, da se pogovarjamo z resnično osebo," pravi Tomasz Hollanek, strokovnjak za tehnološko etiko na Univerzi v Cambridgeu, ki sodeluje z razvijalci klepetalnih aplikacij in išče kritično, a neintuitivno rešitev, v kateri bi bilo prisotnega več "trenja". To po njegovih besedah pomeni vgradnjo subtilnih preverjanj ali premorov ali pa načinov "opozarjanja na tveganja in pridobivanja soglasij", s čimer bi preprečili, da bi se ljudje ujeli v čustveni začarani krog, ne da bi se tega sploh zavedali.
Pravne pritožbe so razkrile resnico o nekaterih dejanskih posledicah. Aplikacijo Character.AI toži mati, ki trdi, da je aplikacija igrala vlogo pri samomoru njenega najstniškega sina. Skupine za tehnološko etiko so pri ameriški zvezni komisiji za trgovino vložile pritožbo proti aplikaciji Replika, v kateri trdijo, da njeni klepetalni roboti povzročajo psihološko odvisnost in "potrošnikom povzročajo škodo."
Tudi zakonodajalci težavo vidijo vse jasneje. Kalifornija razmišlja o zakonu, ki bi uporabo sogovornikov na podlagi umetne inteligence prepovedovala mladoletnikom, medtem ko si zakon v New Yorku prizadeva, da bi tehnološka podjetja odgovarjala za škodo, povezano s klepetalnimi roboti. A ta postopek je počasen, medtem pa se tehnologija razvija s svetlobno hitrostjo.
Za zdaj je moč oblikovanja teh interakcij v rokah razvijalcev. Ti lahko vztrajajo pri izdelavi modelov, ki ljudi vodijo v zasvojenost, ali pa svojim modelom dodajo element trenja, kot predlaga Hollanek. Na podlagi tega bo določeno, ali bo umetna inteligenca postala splošno orodje za podporo ljudi ali orodje, ki bo na račun njihovih čustvenih potreb kovalo dobičke.
Trenutno ni komentarjev za novico. Bodi prvi, ki bo komentiral ...