OpenAI je ameriške zakonodajalce opozoril, da njegov kitajski tekmec DeepSeek uporablja nepoštene in vse bolj sofisticirane metode za pridobivanje rezultatov iz vodilnih ameriških modelov umetne inteligence za usposabljanje naslednje generacije svojega prebojnega modela LLM R1, ja zapisano v memorandumom, ki ga je pregledal Bloomberg News.
V memorandumu, ki ga je v četrtek poslal odboru za Kitajsko v ameriškem predstavniškem domu, je OpenAI navedel, da je DeepSeek uporabil tako imenovane tehnike destilacije kot del "stalnih prizadevanj za izkoriščanje zmogljivosti, ki so jih razvili OpenAI in drugi ameriški laboratoriji". Podjetje je sporočilo, da je odkrilo "nove, prikrite metode", namenjene izogibanju obrambi OpenAI pred zlorabo rezultatov svojih modelov.
OpenAI je začel zasebno izražati zaskrbljenost kmalu po izidu modela R1 lani, ko je s partnerjem Microsoft začel preiskavo o tem, ali je DeepSeek pridobil svoje podatke na nepooblaščen način, je prej poročal Bloomberg. Pri destilaciji se en model umetne inteligence za namene usposabljanja za razvoj podobnih zmogljivosti zanaša na rezultate drugega.
Preberi še
Anthropic zbral dodatnih 30 milijard dolarjev
Vrednost podjetja narasla že na 380 milijard dolarjev.
13.02.2026
AI podjetje Anthropic zbira 20 milijard dolarjev, vlagateljev ne primanjkuje
Podjetje bo izkoristilo navdušenje vlagateljev in zbralo sveže milijarde kapitala.
08.02.2026
Tehnološka podjetja z AI kot železniško omrežje 19. stoletja
Tehnološka podjetja napovedala kapitalske izdatke za približno 650 milijard dolarjev.
06.02.2026
Destilacija, ki je v veliki meri izhajala iz Kitajske in občasno Rusije, kljub poskusom omejevanja vztraja in je postala celo bolj sofisticirana, je podjetje zapisalo v svojem dopisu in navedlo dejavnosti, ki jih je v zvezi s tem zaznalo na svoji platformi.
Ker DeepSeek in številni drugi kitajski modeli nimajo mesečne naročnine, bi lahko razširjenost destilacije predstavljala poslovno grožnjo ameriškim podjetjem, kot sta OpenAI in Anthropic, ki so vložila milijarde dolarjev v infrastrukturo umetne inteligence in zaračunavajo pristojbine za svoje premium storitve. To neravnovesje sproža tveganja, da bi se prednost ZDA pred Kitajsko na področju umetne inteligence zmanjšala.
OpenAI je izpostavil tudi druga tveganja za nacionalno varnost, ki jih prinaša DeepSeek, vključno s tem, da je njihov klepetalni robot cenzuriral rezultate o temah, ki jih kitajska vlada šteje za kontroverzne, kot sta Tajvan in pokol na Trgu nebeškega miru.
OpenAI je izpostavil tudi druga tveganja za nacionalno varnost, ki jih prinašajo dosežki DeepSeeka, vključno s tem, da je njihov klepetalni robot cenzuriral rezultate o temah, ki jih kitajska vlada šteje za kontroverzne, kot sta Tajvan in pokol na Trgu nebeškega miru. Ko se zmogljivosti kopirajo z destilacijo, zaščitni ukrepi pogosto nimajo učinka, kar omogoča širšo zlorabo modelov umetne inteligence na področjih z visokim tveganjem, kot sta biologija ali kemija.
Republikanski predsednik odbora za Kitajsko v predstavniškem domu John Moolenaar, je v četrtek v izjavi dejal: "To je del načrta Komunistične partije Kitajske: krasti, kopirati in ubiti". "Kitajska podjetja bodo še naprej destilirala in izkoriščala ameriške modele umetne inteligence v svojo korist, tako kot takrat, ko so prevzela OpenAI za izgradnjo DeepSeek."
OpenAI ni želel komentirati dopisa. Tiskovni predstavniki kitajskega veleposlaništva v Washingtonu in DeepSeek se na prošnje za komentar niso odzvali.
Dopis OpenAI odboru za Kitajsko v predstavniškem domu kaže, da njegova prizadevanja za blokiranje destilacije niso odpravila težave. Podjetje je sporočilo, da notranji pregled kaže, da so računi, povezani z zaposlenimi v DeepSeeku, poskušali zaobiti obstoječe varovalke z dostopom do modelov prek usmerjevalnikov tretjih oseb, da bi prikrili svoj vir.
Zaposleni v DeepSeeku so razvili tudi kodo za dostop do ameriških modelov umetne inteligence in pridobivanje rezultatov preko programskih načinov, je dejal OpenAI. Prav tako opozarja na mreže nepooblaščenih preprodajalcev storitev OpenAI.
David Sacks, ki je v Beli hiši odgovoren za področje umetne inteligence, je že prej opozoril na kitajske taktike destilacije, ko je lani za Fox News povedal, da DeepSeek "iz starejših čipov iztisne več 'soka", hkrati pa navedel "temeljite dokaze, da je DeepSeek destiliral znanje iz modelov OpenAI".
Poskusi omejevanja s čipi
Opozorilo OpenAI glede destilacije prihaja tudi v času, ko mnogi v Washingtonu ostajajo zaskrbljeni, da bi lahko dostop do naprednih čipov umetne inteligence pospešil tudi napredek DeepSeeka. Konec lanskega leta je predsednik Donald Trump ukrepal, da bi sprostil omejitve glede čipov in Nvidii dovolil prodajo svojih procesorjev H200, čipov, ki zaostajajo za vodilnimi različicami Blackwell približno 18 mesecev.
Od izdaje R1 je DeepSeek izdal le manjše nadgradnje, čeprav so konkurenti v ZDA in na Kitajskem predstavili vrsto novih modelov. Bloomberg je poročal, da DeepSeek razvija model, ki temelji na agentih, da bi konkuriral OpenAI in drugim tekmecem, in da ga je nameraval izdati konec leta 2025.
Kmalu po izidu R1 so ameriške oblasti začele preiskavo, ali je DeepSeek zaobšel ameriški nadzor nad izvozom z nakupom čipov prek Singapurja. Zapisi, ki jih je nedavno pridobil odbor predstavniškega doma za Kitajsko, kažejo, da je Nvidia nudila tehnično podporo, ki je DeepSeeku pomagala izboljšati in sooblikovati njegov model R1.
Osnovni model DeepSeek-V3 je za popolno učenje potreboval le 2,8 milijona ur delovanja na grafični kartici tipa H800. Te procesorje je bilo leta 2023 dovoljeno prodajati Kitajski nekaj mesecev, dokler ni pozneje istega leta ukrep Bele hiše ustavil prodajo.
"DeepSeek bi moral biti opozorilo na nevarnosti prodaje naprednih polprevodniških čipov kitajski komunistični partiji. Kitajska je z manj zmogljivimi čipi Nvidia razvila najnaprednejše modele odprte kode na planetu," je lani po odločitvi o H200 dejal republikanski predstavnik Michael McCaul, ki je prej vodil odbor za nadzor izvoza v predstavniškem domu. "Zgrozim se bo misli, kaj bi lahko storili z naprednejšo strojno opremo, kot so čipi H200."