Odločitev Donalda Trumpa, da 27. februarja 2026 vse zvezne agencije takoj ustavijo uporabo tehnologije podjetja Anthropic, je sprva delovala kot političen znak iz Washingtona. Toda že nekaj ur pozneje je OpenAI napovedal, da bo sklenil enako pogodbo s Pentagonom, vredno do 200 milijonov dolarjev, kar je razkrilo prenovo razmerja med zasebnimi podjetji za umetno inteligenco in nacionalno varnostjo.
Le nekaj dni pozneje se je velik del Silicijeve doline postavil v bran Anthropicu. Združenja tehnoloških velikanov, kot so Google (Alphabet Inc.), Amazon in Apple, so predsednika Donalda Trumpa pozvala, naj premisli o odločitvi, s katero so podjetje označili za tveganje za nacionalno varnost, pri čemer so opozorili, da bi to lahko sprožilo škodljivo verižno reakcijo po celotni industriji.
Po tem se je Anthropic vrnil na prizorišče, pogovori s Pentagonom pa so se nadaljevali. A kaj se tu v resnici dogaja?
Načelo, vredno 200 milijonov dolarjev
Lani je Anthropic podpisal pogodbo s Pentagonom, vredno do 200 milijonov dolarjev, s čimer je postal edini AI sistem, ki je deloval v zaupnih vojaških omrežjih. Claude je analiziral obveščevalne podatke, prevajal in povzema poročila ter pospeševal administrativne postopke, ne da bi sprejemal odločitve o uporabi sile.
Pogodba je jasno določala dve omejitvi: prepoved množičnega nadzora lastnih državljanov in prepoved avtonomnih orožnih sistemov brez človeka v ukazni verigi. Pentagon je trdil, da teh pravil ni kršil, a pri novi pogodbi je želel, da te omejitve uradno ne veljajo.
Vojska je pojasnila, da se v realnem času ne morejo usklajevati s podjetjem glede tolmačenja njegovega kodeksa obnašanja. Dario Amodei, izvršni direktor Anthropica, je odločno odgovoril, da podjetje tega ne more sprejeti v dobri veri.
Kmalu zatem je minister za obrambo Pete Hegseth Anthropic označil za "tveganje v dobavni verigi za nacionalno varnost", izraz, ki se običajno nanaša na tuje nasprotnike. To je pripeljalo do predsedniškega ukaza za prekinitev sodelovanja.
Paradoks se je zgodil istega dne: Sam Altman je zaposlenim sporočil, da ima OpenAI enake omejitve – prepoved množičnega nadzora in avtonomnih smrtonosnih sistemov. Do večera pa je OpenAI vseeno podpisal pogodbo s Pentagonom z besedilom, skoraj identičnem spornemu prejšnjemu dogovoru.
Ostaja ključno vprašanje, ali so omejitve zares identične?
V internih dokumentih je Anthropic definiral omejitev avtonomnega orožja kot sisteme, ki lahko identificirajo, izberejo in napadejo tarčo brez človeškega posredovanja v realnem času. OpenAI je po dostopnih smernicah uporabljal podobno formulacijo, vendar z dodatnim prostorom za razlago v situacijah, v katerih človek ostaja v "nadzorni vlogi".
Ta razlika med popolno prepovedjo in modelom z nadzornim mehanizmom je lahko bistvena. V vojaški praksi vprašanje namreč ni zgolj, ali človek obstaja v verigi odločanja, temveč tudi v katerem trenutku vstopi v proces in s kakšno stopnjo dejanskega nadzora razpolaga.
Te razlike Pentagon za zdaj ni podrobneje pojasnil.
Tudi formulacija "tveganje v dobavni verigi" ima precej širše posledice od enega samega pogodbenega razmerja. V ameriškem regulatornem okviru ta izraz ne zadeva le primarnega dobavitelja, temveč tudi podjetja, ki njegovo tehnologijo vključujejo v lastne rešitve za državo.
Če sistemski integrator uporablja model Claude v analitični programski opremi za zvezne agencije, se pojavi dodatno vprašanje: ali tudi tak integrator postane potencialno varnostno tveganje?
V praksi lahko oznaka tveganja sproži pregled celotne tehnološke verige – od glavnega pogodbenika do regionalnih podizvajalcev. To vključuje velika ameriška podjetja, kot je Palantir Technologies, pa tudi manjše evropske in regionalne integratorje, ki sodelujejo na ameriških javnih razpisih.
V takšnem okviru tehnološka izbira ni več zgolj inženirska ali poslovna odločitev, temveč postane del širše varnostne presoje.
Anthropic je sprožil pravne postopke in trdil, da se taka oznaka lahko nanaša le na neposredne vojaške pogodbe, ne pa tudi na komercialno uporabo tehnologije. Vendar je pravna negotovost že povzročila tržni učinek: tveganje slovesa.
Nekaj dni pozneje se je novica razširila po celotni industriji umetne inteligence. Več velikih tehnoloških podjetij se je postavilo proti predsedniku in javno podprlo podjetje Anthropic. Ni povsem jasno, kaj se je v tem času dogajalo "za zaprtimi vrati", vendar so se pogajanja med Pentagonom in podjetjem Anthropic ponovno odprla, medtem ko je bila pogodba z OpenAI začasno ustavljena.
AI programska oprema zdaj nosi geopolitični predznak, kar za podjetja iz regije Adria, ki poslujejo z zahodnimi trgi, pomeni močan signal za previdnost.
Dolga desetletja so podjetja izbirala programske dobavitelje predvsem glede na ceno, zmogljivost in podporo. Geopolitika je bila rezervirana za energetiko in telekomunikacije, a odločitev o umetni inteligenci kaže, da je zdaj AI postala enako strateško področje.
To odpira pomembno vprašanje: ali so pravila v industriji umetne inteligence določena s tehničnimi standardi ali s politično zvestobo? Če lahko ena administracija enostransko spremeni status dobavitelja iz strateškega partnerja v varnostno tveganje in s tem ogrozi obstoj podjetja, mora vsak uporabnik AI razmišljati dolgoročno.
Vprašanje ni več le, kateri model uporabljati, temveč kaj se zgodi, če model čez noč postane politični problem.
Za podjetja v srednji in vzhodni Evropi, ki razvijajo AI rešitve za zahodne trge, je to jasen opozorilni znak. Regija si je v zadnjih letih gradila ugled z obrambnimi projekti, kibernetsko varnostjo in analitiko podatkov. Če pa bo ameriški trg začel zahtevati formalno skladnost z varnostnimi doktrinami, lahko "etična umetna inteligenca" postane ovira za vstop v vojaško-industrijski sektor in še številna druga področja.
Za nova podjetja iz regije Adria vprašanje ni več samo, kako razviti konkurenčen model, temveč tudi, kako uskladiti notranje politike z regulatornimi pričakovanji trga, ki bo v naslednjem desetletju vreden trilijone dolarjev.