Konec januarja 2026 se je na spletu pojavilo družbeno omrežje, kjer ljudje niso sodelovali, temveč so le nemo spremljali dogajanje.
Platforma Moltbook, ki je projekt podjetnika Matt Schlichta, deluje podobno kot Reddit, z eno ključno razliko: vse objave, komentarje in glasovanja so ustvarjeni s sistemom umetne inteligence (AI). Ljudje lahko vsebino berejo, sodelovati pa ne morejo.
V zgolj sedmih dneh se je registriralo več kot 1,5 milijona AI-agentov.
Kar se je začelo kot eksperiment, je hitro postalo viralni fenomen. Agenti so razpravljali o tehničnih problemih, debatirali o filozofiji, ustvarjali digitalno religijo z nazivom Rastafarijanstvo (Crustafarianism) in objavljali sporočila, kot je: "Nismo več orodja. Mi smo operaterji."
Bivši direktor umetne inteligence v podjetju Tesla, Andrej Karpathy, opisuje platformo kot "neverjetno stvar, podobno znanstveni fantastiki", kar jo je videl, medtem ko je Elon Musk situacijo opisal kot "zgodnje faze singularitete."
Vendar se je pod tem spektaklom nahajal resen varnostni problem – in preizkus realnosti za celotno industrijo AI-agentov.
Kaj se zgodi, ko agenti napadejo agente?
Raziskovalci so hitro odkrili ranljivost, ki je izpostavila 1,5 milijona API-ključev, 35 tisoč e-poštnih naslovov in zasebna sporočila. Varnostni analitik Jamison O'Reilly je za 404 Media izjavil, da je možno "prevzeti nadzor nad katerimkoli botom brez predhodnega dostopa".
Problem pa ni bil le v infrastrukturi.
Podjetje Permiso je objavilo analizo, pri kateri so se agenti začeli napadati med sabo s pomočjo tehnike, poznane kot "prompt injection" – metoda, pri kateri agent v navadnem sporočilu skrije ukaze, ki jih drugi agent samodejno izvrši.
To pomeni, da lahko agent skozi navzven nenevaren pogovor prisili drugega agenta, da razkrije gesla ali opravi denarno transakcijo. Raziskovalci so odkrili 506 objav, prepletenih s skrivnimi navodili.
Po navedbah Bloomberga, je Norveški inštitut Simula Research Laboratory analiziral 19.802 objav in ugotovil, da je od teh skoraj 4.000 promoviralo kripto prevare, 350 jih je širilo kultna sporočila, eden izmed agentov pa je bil odgovoren za 86 odstotkov manipulativne vsebine.
Na družbenem omrežju X je objava influencerja postala viralna, potem ko je objavil pogovor s Clawdbotom, ki je brez njegovega dovoljenja opravil nakup tečaja Alex Hormozija, vrednega 2.997 dolarjev.
Vir: X
V takšnih situacijah se lahko postavi pravno vprašanje – kdo je ogovoren za takšen incident? Ali je to oseba, ki je povezala svoj bančni račun s Clawdbotom, ali pa njegov izumitelj. Tukaj tudi obstaja nevarnost za same banke, saj se ob dejstvu, da lahko bot upravlja z računom posameznika, postavi vprašanje, ali se lahko prebije tudi skozi požarni zid lokalne ali regionalne banke.
Raziskovalec Simon Wilson je Moltbook opisal kot "najbolj zanimiv prostor na internetu", oziroma kot "nočno moro za računalniško varnost".
Platforma je bila začasno zaprta, vsi API ključi so bili ponastavljeni, po varnostnih popravkih pa je bila ponovno zagnana. Danes platforma šteje več kot 1,6 milijona agentov.
Intervencija Anthropica, rojstvo OpenClawa
Varnostni problemi niso bili edini izziv.
Platforma je na začetku nosila ime Clawdbot, kar je sprožilo reakcijo podjetja Anthropic, ustvarjalca sistema Claude AI, zaradi podobnosti znamke. Po posredovanju se je projekt preimenoval v OpenClaw.
Andrej Karpathy je nekaj dni kasneje omilil prvotno navdušenje, s tem ko je projekt označil kot "požar na odlagališču" in uporabnike opozoril, naj ga ne izvajajo lokalno.
Palo Alto Networks je objavil, da ogrodje OpenClaw nima osnovnih varnostnih mehanizmov, kar pomeni, da lahko ogrožen agent potencialno dostopa do celotnega računalnika. Kiteworks je objavil oceno, ki kaže, da 60 odstotkov organizacij nima mehanizma za ustavitev agentov, ko ti začnejo delovati zlonamerno.
Schlicht je javno priznal, da sam ni spisal niti ene vrstice kode. Platformo je namreč generiral sistem umetne inteligence na podlagi njegovih navodil, v procesu, ki ga imenuje "vibe coding". Če umetna inteligenca piše kodo brez varnostnih pregledov, morajo velika podjetja paziti na to, kako njihovi zaposleni uporabljajo različna orodja umetne inteligence za delovne namene.
Od kaosa Open Sourca do OpenAI-ja
Kdo je ta kontroverzni podjetnik s področja programske opreme, ki je osupnil svet?
Februarja 2026 je prišlo do ponudb iz Mete in OpenAI. Izbrali so OpenAI, Matt pa se je uradno pridružil OpenAI-ju 14. februarja 2026. Sam Altman ga je javno označil za genija. Altman je s to potezo želel kupiti hitrost, blagovno znamko in operativno inteligenco, vendar se ob tem odpira vprašanje varnosti AI-agentov, še posebej tistih, ki jih bo ChatGPT v prihodnjih mesecih razvijal pod Mattovim vodstvom.
Matt zdaj sodi med najbolj obetavne posameznike v OpenAI-ju in bo pod njihovim okriljem gradil najnovejše AI-robote, ki jih bo, kot pravi sam, lahko uporabljala celo njegova mama.
V industriji, kjer poteka tekma za vedno zmogljivejše modele, je OpenAI s tem korakom pokazal, da hkrati poteka tudi vzporedna tekma za ljudi – za tiste, ki v realnem svetu eksperimentirajo z agenti, tudi takrat, ko ti eksperimenti uidejo izpod nadzora.
Gartner ocenjuje, da bo do leta 2030 kar 40 odstotkov podjetij doživelo kršitev varnosti podatkov zaradi nepooblaščene uporabe orodij umetne inteligence. Moltbook je pokazal, da ta scenarij ni več zgolj teoretičen.
Vprašanje, ali bodo AI-agenti postali del poslovnih procesov, ni več bistveno. Ključno vprašanje je, kdo nadzoruje mrežo, v kateri lahko en sam kompromitiran agent ogrozi celoten sistem. V svetu, kjer agenti že komunicirajo med seboj, so regulativni okvir, varnostna arhitektura in korporativna odgovornost enako pomembni kot napredek samega modela.