Hany Farid se ni mogel znebiti občutka, da v resnici ne govori z Barackom Obamo.
Leta 2023 se je Obamov pomočnik obrnil na Farida, profesorja računalništva na Univerzi Kalifornije v Berkeleyju, ki se ukvarja z analizo slik in digitalno forenziko: vprašal ga je, ali bi se z nekdanjim predsednikom želel pogovoriti o tehnologiji globokih ponaredkov. Med pogovorom se je izkušnja pogovora z Obamo – ob njegovem tako zelo značilnem glasu in načinu govora – Faridu zdela vedno bolj nenavadna. "Po glavi mi je ves čas rojilo le: To je deepfake, to ni Obama," pravi Farid. "Hotel sem mu reči: Pomahajte z dlanjo pred obrazom."
Eden od načinov prepoznavanja globokih ponaredkov je bil takrat namreč, da ste sogovornika prosili, naj si z dlanjo zamahne pred obrazom. Slika na zaslonu bi se v tem primeru bodisi popačila in razkrila prevaranta ali pa pač ne. A Farid nekdanjemu predsedniku ni mogel pogledati v oči in ga prositi, naj dokaže, da so te oči resnične. "Tako sem deset minut zgolj razmišljal: Me nekdo zafrkava?" pravi Farid.
Izkazalo se je, da ga v resnici ni nihče zafrkaval. A Faridovi sumi služijo kot pokazatelj, koliko paranoje je umetna inteligenca razplamtela med ljudmi, ki komunicirajo na spletu. Tehnologija hkrati razvija vedno nove načine, s katerimi želi zaobiti najbolj očitne človeške obrambne mehanizme. Trik z mahanjem z dlanjo že postaja zastarel, kar nam je Farid dokazal ob nedavnem videoklicu za Bloomberg Businessweek, ko je svoj obraz preprosto zamenjal z obrazom Sama Altmana, izvršnega direktorja družbe OpenAI. Med njegovim glasom in videoposnetkom je bilo resda nekaj zamika in v očeh mu je nekoliko manjkalo življenja, a Farid se je lahko praskal po licu in si s svetilko svetil naravnost v obraz, pri tem pa na sliki ni prišlo niti do najmanjše motnje. "Na splošno velja," pravi Farid, "da lahko na to, da bi zaupali pogovoru, ker ste na videoklicu z nekom, kar pozabite."
Ljudje se na dan, ko se bodo stroji znali prepričljivo obnašati kot ljudje, pripravljajo že vsaj od leta 1950, ko je Alan Turing predlagal postopek ocenjevanja, ki ga je poimenoval igra posnemanja. V t. i. Turingovem testu človeški sodnik opravi pisni pogovor s strojem in drugim človekom, nato pa poskuša razločiti, kateri je kateri. Če stroju uspe prevarati sodnika, je prestal preizkus. Desetletja zatem spletne strani uporabnike redno naprošajo, naj svojo človečnost dokažejo z razvozlavanjem tistih popačenih črk in številk, znanih kot captcha, ki jih ljudje preberejo z lahkoto, računalniki pa imajo pri tem težave. (Kratica pomeni Completely Automated Public Turing test to tell Computers and Humans Apart oziroma popolnoma avtomatizirani javni Turingov test za ločevanje računalnikov in ljudi, op. prev.) Z vedno višjo sofisticiranostjo avtomatiziranih orodij postajajo vse bolj sofisticirane tudi te digitalne zanke, hkrati pa so postale bolj nenavadne, saj od ljudi zdaj zahtevajo že, da prepoznajo fotografije psov, ki se smehljajo – in se pri tem sprašujejo, ali se psi sploh lahko nasmehnejo – in vse to samo zato, da lahko kupijo vstopnice za koncert.
Pojav velikih jezikovnih modelov je s temi obrambnimi mehanizmi dobesedno pometel. Raziskave so pokazale, da lahko programski agenti z umetno inteligenco ob natančno zastavljenih pobudah razrešujejo zapletene teste captcha. Neka druga nedavna študija s 126 udeleženci pa je s Turingovim testom preizkusila več velikih jezikovnih modelov in pri tem ugotovila, da so udeleženci modelu GPT-4.5 proizvajalca OpenAI v kar 73 odstotkih primerov pripisali, da je v resnici človek.
V svetu, v katerem nam internet služi kot posrednik, se zaupanje razblinja v nič, posledično pa je vsaka interakcija – bodisi s potencialnim delodajalcem, morebitnim srčnim izbrancem, mamo, ki vas kliče z dopusta v tujini, ali pa z nekdanjim predsednikom ZDA – tarča prevar na izjemno visoki ravni. Prevaranti z glasovnimi kloni so se v preteklosti že izdajali za ameriškega državnega sekretarja Marca Rubia in pod to krinko komunicirali z zunanjimi ministri. Kot je CNN poročal leta 2024, je uslužbenec multinacionalke v Hongkongu 25 milijonov dolarjev nakazal prevarantu, ki je s pomočjo deepfaka trdil, da je glavni finančni direktor podjetja.
Ker trenutno ni na voljo nič boljšega, tako posamezniki kot institucije sproti razvijajo svoje neformalne Turingove teste. Človečnost dokazujejo na vedno nove načine, ki pogosto kljubujejo obstoječim družbenim normam, in druge naprošajo, naj ravnajo enako. Stroji se vedno bolj prepričljivo obnašajo kot ljudje, ljudje pa se posledično vedejo drugače. Spreminjajo svoj način pisanja, zaposlovanja in interakcije z neznanci, vse z namenom, da jih ne bi kdo zamenjal z umetno inteligenco ali da jih ta ne bi prinesla okrog.
Elizabeth Zaborowska je v svoji pisarni nekoč slovela kot kraljica pomišljajev, in sicer tako zelo, da so ji sodelavci v njeni prvi marketinški službi v New Yorku nad mizo izobesili napis prav s tem nazivom. Zaborowska je to lično ločilo dojemala kot eleganten način za povezavo dveh idej, ne da bi pri tem trpela razločnost njenih povedi. Ko je ustanovila lastno podjetje za odnose z javnostmi, Bhava Communications, je njena ekipa prevzela slog pisanja svoje nadrejene, vključno s pomišljaji. A pomišljaje silno rad uporablja tudi ChatGPT in uporaba tega ločila se je hitro znašla na seznamu izdajalskih znakov, da je določeno besedilo ustvarila umetna inteligenca. V času, ko podjetja odpuščajo svoje agencije za odnose z javnostmi in raje uporabljajo brezplačna orodja z umetno inteligenco, si Zaborowska ni mogla privoščiti, da bi kdo mislil, da pisne izdelke klepetalnega robota predstavlja kot svoje. Lani spomladi je svojo ekipo sklicala na tedenskem virtualnem sestanku in jim ukazala, da rabo pomišljajev dokončno opustijo. (Pri tem je treba omeniti, da se OpenAI svojega klepetalnega robota trudi odvaditi obsedenosti s pomišljaji.)
Če na vsesplošne spremembe, ki jih prinaša UI, pogledamo s širšega zornega kota, je bila ta žrtev v resnici neznatna. A za Zaborowsko je bil pomen globlji: da bi zvenela človeško, je morala zatreti svoja nagnjenja. "Spreminja ritem jezika," pravi, "in sama sem z jezikom naravnost obsedena."
Za Sarah Suzuki Harvard, pisko v agenciji storyarb, so se prizadevanja za prepoznavanje besedil, napisanih z UI, sprevrgla v "lov na čarovnice", zaradi katerega je bila prisiljena cenzurirati lastno delo. Nedavno se je na LinkedInu razpisala o vseh uveljavljenih pisateljskih konstruktih, ki jih zdaj razumemo kot opozorilne znake umetne inteligence. Sila zoprno je, da so ti znaki pravzaprav same človeške posebnosti, ki so jih računalniki prevzeli med učenjem. "Mi smo tisti, ki smo izdelali stroje," pravi Suzuki Harvard. "Oni prepisujejo od nas."
Kakorkoli že, breme dokazovanja je padlo na pleča ljudi. Težava se morda najizraziteje kaže v univerzitetnih kampusih, kjer si profesorji na forumih Reddit izmenjujejo strategije za odkrivanje študentov pri goljufanju s ChatGPT, študenti pa se na TikToku pritožujejo, kadar so kaznovani za svoje trdo delo, ki ga profesorji zmotno označujejo za plod umetne inteligence. Uredniki Wikipedije z združenimi močmi iščejo zapise, ustvarjene z umetno inteligenco, in prežijo na očitne znake, kot so lažni citati, in tudi manj očitne, kot so vnosi, ki preveč uporabljajo izraz poglabljati se.
Cilj ni odstranjevanje vse vsebine, ustvarjene z umetno inteligenco na Wikipediji, pravi Ilyas Lebleu, ustanovni član uredniške skupine WikiProjekt AI Cleanup, marveč izbrisati nesmisle. "Če so informacije točne in so zanje na voljo resnični citati, je to dobro," pravi Lebleu. "Največ pritožb slišimo zaradi nepregledane vsebine, ustvarjene z umetno inteligenco."
V svetu zaposlovanja je generativna umetna inteligenca vsem olajšala ustvarjanje izčrpnih prijav na delovno mesto z enim samim klikom, kadrovske ekipe pa se morajo posledično prebiti čez cele plazove spremnih pisem in življenjepisov. Kyle Arteaga, izvršni direktor komunikacijskega podjetja Bulleit Group s sedežem v Seattlu, pravi, da je njegovo podjetje v zadnjem času prejelo na tisoče prijav na delovno mesto, na razgovorih pa ima pogosto opravka z ljudmi, ki so se iskanja službe z umetno inteligenco lotili v tako megalomanskem obsegu, da se sploh ne spomnijo, da so se kdaj prijavili na njihov oglas. Njegova ekipa se je odzvala tako, da je v oglase za delovna mesta namestila nekaj pasti in je kandidate prosila, naj v svoje spremno pismo vključijo omembo pojava iz pop kulture in navedejo ime svojega doma v Bradavičarki (šoli za čarovnike in čarovnice iz knjig o Harryju Potterju, op. prev.). V enem od nedavnih oglasov za delo je po Arteagovih besedah manj kot tri odstotke od več kot 900 iskalcev dejansko upoštevalo navodila, kar je krog kandidatov močno zmanjšalo. (Službo, če vas že zanima, je dobil kandidat iz doma Drznvraan.)
Za zmanjšanje tveganja za prevare z umetno inteligenco ljudje množično uporabljajo tudi vzvode, ki jih Farid imenuje analogne rešitve. Altman iz OpenAI je pred kratkim predlagal, da bi se lahko pred glasovnimi kloni, ki se izdajajo za naše najbližje, ubranili tudi tako, da si družine izberejo skrivna besedna gesla in v kriznih situacijah zahtevajo, da jih sogovornik izreče. Konec prejšnjega leta je s posebno marketinško kampanjo svoje stranke k enakemu ravnanju pozivala tudi britanska banka Starling Bank. Po navedbah banke je 82 odstotkov ljudi, ki so prejeli to sporočilo, izjavilo, da bodo nasvet verjetno upoštevali.
Nekateri drugi človečnost na spletu potrjujejo s pomočjo zapletenih vprašanj. Med nedavnim pogovorom z agentom za spletno podporo je Pranava Adduri agenta prosil, naj mu razloži Navier-Stokesove enačbe – gre za niz matematičnih enačb, ki opisujejo gibanje viskoznih tekočin. "Vsak nadobudni klepetalni bot, ki se je usposabljal s celotnim naborom svetovnega znanja, bi mu z veseljem postregel z odgovorom," pravi Adduri, soustanovitelj in glavni tehnološki direktor varnostnega podjetja Bedrock Data s sedežem v kalifornijskem Menlo Parku. A agent mu je rekel le: "Nimam pojma."
"In mislil sem si: V redu, človek si," reče Adduri.
Vse več podjetij, vključno z Alphabetovim Googlom, ponovno uvaja osebne razgovore, ki se jih klepetalni roboti načeloma ne morejo udeležiti. Tiskovni predstavnik družbe Google pravi, da je podjetje to spremembo uvedlo z namenom, da se novi zaposleni lahko privadijo njihovi kulturi in "da se prepričajo, da imajo kandidati osnovne programerske veščine, ki so potrebne na položajih, za katere se potegujejo".
A Google in druge velike korporacije imajo za osebna srečanja z novimi uslužbenci še številne druge razloge. Po podatkih Zveznega preiskovalnega urada so severnokorejski IT-delavci pod krinko uspešno dobili službe v več kot sto ameriških podjetjih, v katerih so se izdajali za delavce na daljavo. Te prevare, ki se pogosto izvajajo s pomočjo orodij z umetno inteligenco, so v Severno Korejo na letni ravni preusmerile na stotine milijonov dolarjev in razkrile celo nekaj ameriških sostorilcev.
"To, da se pojavljajo lažni kandidati, ni nikakršna skrivnost," pravi Kelly Jones, glavni kadrovski direktor v družbi Cisco Systems, ki pravi, da je njihovo podjetje v svoj postopek prijave dodalo tudi biometrično preverjanje.
Naraščajoče povpraševanje po dokazovanju človečnosti je seveda privedlo do nastanka gospodarstva, ki ponuja tehnološke rešitve. Na eni strani imamo orodja za odkrivanje globokih ponaredkov, ki jih je mogoče povezati z obstoječimi platformami, kot je Zoom, in naj bi v realnem času zaznavala sintetično ustvarjeni zvok in videovsebino. JPMorgan Chase na svojem komunikacijskem omrežju uporablja tovrstno orodje, imenovano Reality Defender. Farid je soustanovil svoje podjetje GetReal Security, ki prav tako ponuja sprotno zaznavanje globokih ponaredkov ter druge digitalne forenzične storitve.
Na drugi strani pa imamo orodja, ki preverjanje dejanske človeške narave obljubljajo na podlagi kriptografskih ali biometričnih metod. Med njimi najbolj izstopa Orb, naprava za skeniranje očesnih zrkel, ki jo je razvilo podjetje Tools for Humanity z Altmanom v vlogi soustanovitelja. Orb s pomočjo optične slike človeške šarenice ustvari identifikacijsko kodo, ki po navedbah proizvajalca deluje kot nekakšen digitalni potni list. Kodo, imenovano World ID, je nato z aplikacijo World mogoče overiti vedno, kadar mora uporabnik potrditi svojo identiteto. Čeprav razvijalci pravijo, da sistem ne hrani osebnih podatkov o uporabnikih, je ta domislica sprožila precej distopične zgroženosti. Nekatere države, vključno z Brazilijo, so šle celo tako daleč, da so uporabo naprave prepovedale.
Orb in drugi načini dokazovanja lastne osebnosti bi delovali v sodelovanju z eno samo entiteto, bodisi z zasebnim podjetjem, vlado ali nevladno organizacijo, ta pa bi poskrbela za poverilnice in si kot izdajateljica zagotovila neizmerno moč. Gre tudi za dolgoročne rešitve, ki zahtevajo široko družbeno in institucionalno podporo, medtem ko imamo – kar zadeva krizo zaupanja na spletu – po Faridovih besedah trenutno težave.
Vsaka od teh domnevnih rešitev, od ukinitve pomišljajev pa vse do orodja Orb, zahteva kompromise; bodisi da se ljudje odrečejo drobnim delom sebe ali pa samo bistvo človečnosti spreminjajo v nekakšno uprizoritev. Pri razvoju umetne inteligence smo prišli do točke, ko smo stroje naučili, da v vsaki situaciji že predobro napovejo, kako bi ravnal človek. V želji, da bi se čim bolj razlikovali od njih, pa smo zdaj obtičali in se dejansko sprašujemo isto.