AI

Američtí AI giganti spojují síly: OpenAI, Google a Anthropic řeší kopírování modelů

AI: Na technologické scéně se děje něco, co by ještě před pár lety působilo zvláštně. Firmy jako OpenAI, Google a Anthropic, které si jinak přímo konkurují, začaly spolupracovat. Ne proto, že by chtěly – ale protože musí.

Důvod je jednoduchý: obava, že jejich AI modely někdo „okopíruje“ a použije bez svolení. A podle všeho se to už děje.

Obsah článku:

Co přesně řeší

Firmy si začaly vyměňovat informace o podezřelých aktivitách. Konkrétně jde o případy, kdy někdo ve velkém využívá jejich modely, sbírá odpovědi a snaží se na tom postavit vlastní systém.

Celé to probíhá přes organizaci Frontier Model Forum, kterou tyto firmy založily spolu s Microsoftem. Původně šlo hlavně o bezpečnost a pravidla pro AI. Teď se z toho stává spíš obranný nástroj.

Je fér říct, že samotná metoda, o kterou jde, není nic nelegálního. Říká se jí destilace a v principu jde o to, že jeden model pomáhá „učit“ jiný. Firmy to běžně dělají i mezi sebou – třeba když si vytvářejí menší a levnější verze vlastních modelů. Problém nastává ve chvíli, kdy to dělá někdo cizí. Bez svolení. A s cílem vytvořit konkurenci.

Mohlo by se Vám líbit: Investor nese odpovědnost nejen za zisk, ale i za morální dopad svých rozhodnutí.

Proč z toho mají firmy takovou obavu

Vývoj AI dnes stojí obrovské peníze. Nejde jen o samotný software, ale hlavně o infrastrukturu – servery, data, energie.

Když pak někdo vezme hotové výstupy a „poskládá“ si vlastní model levněji, je to pro původní firmy velký problém. Jednak přicházejí o zákazníky, jednak o návratnost investic.

A do toho se přidává ještě jedna věc – bezpečnost. Takto vzniklé modely často nemají ochrany, které mají ty původní.

AI
Adobe Stock

Pozornost míří hlavně na Čínu

Velká část diskuse se točí kolem čínských firem. Některé z nich v poslední době přišly s modely, které jsou levnější a dostupnější.

To samo o sobě není problém. Otázka je, jak vznikly.

Hodně se mluvilo například o firmě DeepSeek, která svým modelem na začátku roku 2025 překvapila celý trh. Krátce poté se začalo řešit, jestli při vývoji nevyužívala výstupy jiných modelů.

Přečtěte si také: Recenze XTB

Neobvyklá spolupráce

Zajímavé na celé věci je, že firmy, které si běžně konkurují, teď sdílejí informace. To není úplně standardní.

Podobný přístup známe spíš z kyberbezpečnosti, kde si firmy vyměňují data o útocích. Tady jde o něco podobného – snahu zachytit problém dřív, než se rozroste.

Celá situace už nezůstává jen mezi firmami. Zapojily se i americké úřady, které řeší, jak takovou spolupráci nastavit, aby neporušovala pravidla trhu.

Zároveň se mluví o tom, že by vznikl oficiální systém pro sdílení podobných informací. Něco jako „centrální obrana“ proti zneužívání AI.

Podrobnosti o celé situaci popsal například Bloomberg

Co z toho plyne

Tohle není jednorázová kauza. Spíš začátek většího trendu.

Jak AI roste, roste i snaha ji kopírovat. A firmy si začínají uvědomovat, že samy to uhlídat nezvládnou.

OpenAI, Google a Anthropic začaly spolupracovat, aby zabránily kopírování svých modelů.

Nejde jen o technologie, ale i o peníze a bezpečnost. A hlavně o to, kdo bude mít v budoucnu nad AI skutečnou kontrolu.

Čtěte dále: : crypto4me – První bezpečná cesta ke kryptu s licencí MiCA

author avatar
Oxana Risko Odborná redaktorka
Více než 8 let se věnuje tvorbě obsahu v oblasti ekonomiky a financí. Zaměřuje se na srozumitelné a přehledné podávání informací o investicích, finančních trzích a aktuálním dění ve světě peněz. Investování je pro ni dlouhodobě klíčové téma, které sleduje jak profesně, tak z osobního zájmu. Baví ji hledat souvislosti a vysvětlovat, co stojí za pohyby na trzích. Jejím cílem je přinášet čtenářům informace, které jim pomáhají lépe se orientovat a činit informovaná rozhodnutí.

Mohlo by se vám líbit ...