AI: Na technologické scéně se děje něco, co by ještě před pár lety působilo zvláštně. Firmy jako OpenAI, Google a Anthropic, které si jinak přímo konkurují, začaly spolupracovat. Ne proto, že by chtěly – ale protože musí.
Důvod je jednoduchý: obava, že jejich AI modely někdo „okopíruje“ a použije bez svolení. A podle všeho se to už děje.
Obsah článku:
Co přesně řeší
Firmy si začaly vyměňovat informace o podezřelých aktivitách. Konkrétně jde o případy, kdy někdo ve velkém využívá jejich modely, sbírá odpovědi a snaží se na tom postavit vlastní systém.
Celé to probíhá přes organizaci Frontier Model Forum, kterou tyto firmy založily spolu s Microsoftem. Původně šlo hlavně o bezpečnost a pravidla pro AI. Teď se z toho stává spíš obranný nástroj.
Je fér říct, že samotná metoda, o kterou jde, není nic nelegálního. Říká se jí destilace a v principu jde o to, že jeden model pomáhá „učit“ jiný. Firmy to běžně dělají i mezi sebou – třeba když si vytvářejí menší a levnější verze vlastních modelů. Problém nastává ve chvíli, kdy to dělá někdo cizí. Bez svolení. A s cílem vytvořit konkurenci.
Mohlo by se Vám líbit: Investor nese odpovědnost nejen za zisk, ale i za morální dopad svých rozhodnutí.
Proč z toho mají firmy takovou obavu
Vývoj AI dnes stojí obrovské peníze. Nejde jen o samotný software, ale hlavně o infrastrukturu – servery, data, energie.
Když pak někdo vezme hotové výstupy a „poskládá“ si vlastní model levněji, je to pro původní firmy velký problém. Jednak přicházejí o zákazníky, jednak o návratnost investic.
A do toho se přidává ještě jedna věc – bezpečnost. Takto vzniklé modely často nemají ochrany, které mají ty původní.

Pozornost míří hlavně na Čínu
Velká část diskuse se točí kolem čínských firem. Některé z nich v poslední době přišly s modely, které jsou levnější a dostupnější.
To samo o sobě není problém. Otázka je, jak vznikly.
Hodně se mluvilo například o firmě DeepSeek, která svým modelem na začátku roku 2025 překvapila celý trh. Krátce poté se začalo řešit, jestli při vývoji nevyužívala výstupy jiných modelů.
Přečtěte si také: Recenze XTB
Neobvyklá spolupráce
Zajímavé na celé věci je, že firmy, které si běžně konkurují, teď sdílejí informace. To není úplně standardní.
Podobný přístup známe spíš z kyberbezpečnosti, kde si firmy vyměňují data o útocích. Tady jde o něco podobného – snahu zachytit problém dřív, než se rozroste.
Celá situace už nezůstává jen mezi firmami. Zapojily se i americké úřady, které řeší, jak takovou spolupráci nastavit, aby neporušovala pravidla trhu.
Zároveň se mluví o tom, že by vznikl oficiální systém pro sdílení podobných informací. Něco jako „centrální obrana“ proti zneužívání AI.
Podrobnosti o celé situaci popsal například Bloomberg
Co z toho plyne
Tohle není jednorázová kauza. Spíš začátek většího trendu.
Jak AI roste, roste i snaha ji kopírovat. A firmy si začínají uvědomovat, že samy to uhlídat nezvládnou.
OpenAI, Google a Anthropic začaly spolupracovat, aby zabránily kopírování svých modelů.
Nejde jen o technologie, ale i o peníze a bezpečnost. A hlavně o to, kdo bude mít v budoucnu nad AI skutečnou kontrolu.





