Hlad AI po kvalitních datech
Vývoj umělé inteligence už nestojí na technologickém pokroku, ale na datech. Čím více jich velké jazykové modely (LLM) mají, tím jsou chytřejší, přesnější a pro uživatele atraktivnější. Jenže kvalitní data jsou vzácná komodita.
Veřejný internet byl v uplynulých letech vytěžen. Aby se AI modely mohly dál zlepšovat, potřebují nová data. A nacházejí je u svých uživatelů. Každá otázka, prompt nebo nahraný soubor má pro poskytovatele AI vysokou hodnotu.
I společnosti, které původně stavěly soukromí svých uživatelů na první místo, dramaticky mění politiku. Je to případ firmy Anthropic, která v září 2025 oznámila, že uživatelé musí souhlasit s využitím svých konverzací pro trénink, jinak ztratí přístup k nástroji.
Kontroverzní krok sice vyvolal vlnu kritiky, přesto k podobným změnám přistupují i další společnosti vyvíjející AI, aby udržely konkurenceschopnost svých modelů. Co platí o ochraně soukromí dnes, se může zítra změnit.
Ochrana soukromí jen pro velké hráče
Firmy si tato rizika uvědomují, a proto hledají způsoby, jak umělou inteligenci používat bezpečně. Velké korporace podepisují multimilionové smlouvy a získávají smluvní garance, aby se data nepoužívala pro trénink modelů, poskytovatelé dokládali auditní záznamy přístupů a bezpečnostní certifikace.
Na takové podmínky ale malé a střední firmy nedosáhnou. Ke stejným nástrojům přistupují v režimu běžného uživatele. Využívají verze zdarma nebo nižší tarify předplatného, kde je ve výchozím nastavení zapnutý trénink dat a delší doba uchování informací.
Vyšší ochranu dat si organizace slibují i nasazováním vlastních modelů na platformách Microsoft AI Foundry, Google Vertex AI nebo AWS Bedrock a podobných. Problémem je, že američtí giganti podléhají legislativě Spojených států. Podle zákona CLOUD Act musí tyto společnosti na žádost amerických úřadů zpřístupnit data bez ohledu na to, že jsou fyzicky uložena na území Evropské unie. Pro evropské firmy to znamená, že ani AI provozovaná na vlastní infrastruktuře v cloudu nemusí být skutečně soukromá.
Zkušenější organizace mohou namítat, že cloudoví provideři jako Google nebo Microsoft nabízí tzv. confidential computing (např. Confidential VMs na platformě Vertex AI). Tato technologie umožňuje vytvořit hardwarově izolované a šifrované prostředí, kde by data měla být chráněna i před samotným poskytovatelem cloudu. Pro AI to ale přináší značnou komplikaci.
AI a strojové učení často využívají grafické procesory (GPU). Zatímco u procesoru (CPU) je ochrana dat už zavedená, v paměti GPU je zajištění plné izolace a šifrování dat stále technologicky náročné. Teoreticky vyšší úroveň zabezpečení tak může znamenat větší složitost, možné snížení výkonu a spoléhání se na novou, v praxi zatím málo ověřenou technologii.
Pokud chtějí mít organizace kontrolu nad svými daty, musí přehodnotit nejen způsob používání umělé inteligence, ale vůbec způsob provozu.
Open source AI jako cesta k datové suverenitě
Jedinou možností, jak mít nad firemními daty plnou kontrolu, je provozovat vlastní umělou inteligenci. Ještě donedávna to bylo výsadou technologických gigantů. Trénink velkých jazykových modelů přece vyžaduje extrémní výkon.
Od roku 2023 se ale intenzivně rozvíjí open source modely, které jsou volně dostupné a jejich architektura může běžet i na méně náročné infrastruktuře.
Pro lepší pochopení takové architektury připomeneme, že každý velký jazykový model (LLM) má dvě hlavní vrstvy:
- architekturu – tedy strukturu neuronové sítě (např. kolik vrstev, jaké typy neuronů, jak probíhá trénink);
- parametry (někdy také weights = váhy) – jedná se o matematické hodnoty, které model získá během tréninku a které určují jaké odpovědi dává, jaké má znalosti a zkrátka jak „chytrý“ je.
Zatímco modely typu ChatGPT kombinují obrovské množství parametrů a pro každý dotaz aktivují celý systém, open source modely stojí zpravidla na architektuře Mixture of Experts (MoE).
Architektura Mixture of Experts ve světě AI
Mixture of Experts je typ neuronové sítě, který vznikl už v 90. letech. Funguje na principu rozdělování problému mezi několik specializovaných sub-modelů (tzv. expertů).
Řídicí mechanismus (Gating Network) rozhoduje o tom, které experty na konkrétní úlohu povolá. Vždy aktivuje pouze část „těch nejlepších“, nikoli celý systém. Výsledkem je výkon srovnatelný s velkými modely s násobně nižšími nároky na výpočetní zdroje a energii.
Jak začít s vlastní AI
MoE architektura otevřela nové možnosti provozu vlastní AI, která poskytuje organizacím plnou kontrolu nad daty, možnost přizpůsobení firemním procesům nebo experimentování s architekturou modelu pro jeho efektivnější škálování.
1. Zmapujte využití a cíle AI
Dříve, než se přistoupí k nasazení vlastního AI modelu, je potřeba si ujasnit, jaký problém má AI řešit. Jinou infrastrukturu totiž potřebuje firemní znalostní báze, jinou interní asistent nebo generování kódu. Pokud tento krok zvažujete, odpovězte si na tyto tři otázky:
- Komu bude AI sloužit (jednotlivci, týmy, celá organizace)?
- Co má umět (dotazy, analýzy, automatizace)?
- Kolik uživatelů ji bude využívat současně?
2. Zvolte infrastrukturu a hardware
Očekávaná zátěž a úroveň citlivosti dat napoví, kde model poběží. Zda na GPU serveru nebo cloudové instanci.
AI modely vyžadují grafické procesory – GPU. Ty dokážou paralelně zpracovat tisíce výpočtů a dramaticky zrychlit odezvu systémů. Orientačně mohou konfigurace vypadat například takto:
- Menší projekt (do 10 uživatelů): 1× RTX 5090, 128 GB RAM, NVMe úložiště.
- Střední projekt (50 úživatelů): cloudová instance s 1× NVIDIA H100 (spot, $1,5–3 / h).
- Větší projekt (100 a více uživatelů): GPU cluster, zajišťující paralelní inference, redundanci a vysokou dostupnost, např. 8× RTX 5090 (24 GB každá)
3. Vyberte model
Způsob využití umělé inteligence pomůže také s výběrem vhodného modelu. Tempo udávají čínské laboratoře, konkrétně modely DeepSeek, Qwen 3 od Alibaby a GLM-4.5 čínského startupu Z.ai. Ze západních modelů se umisťují na předních příčkách Meta Llama 4, Scout, GPT-OSS od OpenAI a Gemma 3 od Google.
Ale pozor – zcela open source je pouze GPT-OSS a částečně některé nástroje kolem Gemma 3. Ostatní modely jsou open weights. Ty mají veřejně dostupné jen natrénované parametry. Znamená to, že je můžete stáhnout a provozovat, ale nelze je dále trénovat, měnit nebo komerčně distribuovat.
Doporučené modely podle použití AI
| Použití |
Doporučený model |
Klíčová vlastnost |
| Kódování a vývoj |
Qwen 3, 235B |
Vyniká ve znalosti programovacích jazyků a generování funkčního kódu. Patří mezi top 3 modely v testech Codeforces a SWE-bench. |
| Práce s dokumenty |
Llama 4 Scout |
Dokáže pracovat s mimořádně dlouhým kontextem (až 10 milionů tokenů) – ideální pro analýzu rozsáhlé dokumentace. |
| Automatizace a agenti |
GLM-4.5 |
Dokáže samostatně využívat API, tabulky nebo firemní systémy. V praxi dosahuje přes 90 % úspěšnosti. |
| Uvažování, analytické úlohy |
DeepSeek R1 |
Dominuje v logickém a matematickém uvažování (MATH-500: 97,3 %), překonává i komerční modely OpenAI. |
| Multimodalita (text, obraz, video) |
Llama 4 Maverick |
Nativně kombinuje různé typy vstupů. Zvládne text i několik obrázků nebo video současně. |
| Edge zařízení, mobilní AI |
Qwen 3 0.6B, Gemma 3 270M |
Modely nenáročné na výkon, které jde spustit na telefonu nebo notebooku, ideální pro offline scénáře. |
| Efektivita nákladů |
DeepSeek V3. GLM-4.5 |
Nabízí vysoký výkon za dobrou cenu (od 0,11 dolarů za 1 milion tokenů). Vhodné pro rozsáhlé firemní nasazení. |
Údaje a doporučené modely v tabulce jsou platné k listopadu 2025.
Jak implementovat firemní AI
Jakmile máte vybraný model a infrastrukturu, je čas přistoupit k nasazení. Doporučujeme začít s menším projektem, na kterém si ověříte přínosy i funkčnost a postupně jej můžete rozšiřovat.
Pilotní nasazení
Připravte jeden malý model s jasně vymezenou skupinou uživatelů. Pilot umožní otestovat kvalitu odpovědí i způsob interakce s AI. Sledujte latenci odpovědí, počet chyb a míru využití. Ideální je cílit na průměrnou odezvu pod 2 sekundy a spokojenost uživatelů nad 4,5 bodu z 5.
Napojení interních dat
Aby AI skutečně rozuměla vaší organizaci, musí pracovat s interními zdroji. K tomu je potřeba porpojit jazykový model s vektorovu databází. Tento proces se označuje zkratkou RAG (Retrieval-Augmented Generation) a umožňuje rychlé vyhledávání a doplňování relevantních informací z vašich dat.
Před uložením do databáze musí data projít třemi fázemi:
- Parsing – vytažení čistého textu a metadat z dokumentů typu PDF, Word nebo webů. Vhodný je k tomu například nástroj Unstructured.io.
- Sémantický chunking – text se v této fázi rozdělí na menší logické části (chunky), které dávají samy o sobě smysl a lépe se zpracovávají jazykovým modelem.
- Embedding – nakonec se každá část převede na vektor, tedy číselnou reprezentaci sémantického významu textu. Pro embedding dobře poslouží např. model BGE-M3.
„Pro uložení a vyhledávání vektorů mohou uživatelé použít hned tři různé databáze. YugabyteDB s rozšířením pgvector je plně kompatibilní s PostgreSQL. Pro týmy zvyklé na MySQL bude nejlepší TiDB. Nabízí se ale i Milvus, což je specializovaný nástroj pro velké objemy vektorů,” vysvětluje Jan Skalla, lídr inovací v MasterDC.

Schéma procesu zpracování dotazu ve firemní AI, která pracuje s interními daty. Pokud AI pracuje s interními daty a aktuálními dokumenty, dostávají uživatelé nejrelevantnější odpovědi a zároveň se tím snižuje riziko halucinací, tedy vymyšlených odpovědí.
Ladění a optimalizace
Jakmile AI systém funguje a má přístup k interním datům, přichází na řadu fáze ladění modelu. Cílem je, aby model nejen znal fakta, ale také mluvil „jazykem firmy“, používal správnou terminologii a odpovídal konzistentně.
LoRA (Low-Rank Adaptation) je efektivní způsob, jak model upravit. Namísto ladění všech parametrů se trénují pouze malé části. Pro představu asi 0,06 % celkových parametrů. Tento přístup šetří až 80 % paměti a umožňuje 2–5krát rychlejší trénink. Ideální je to pro:
- přizpůsobení modelu firemní terminologii nebo stylu;
- specializaci na konkrétní doménu (např. právní, technickou);
- konzistentní tón komunikace napříč výstupy.
Bezpečnost a monitoring
Jelikož interní AI pracuje s citlivými interními daty, musí být adekvátně zabezpečená. Zvláště proto, že útoky na AI systémy jsou na vzestupu. Útočníci napadají data v úložištích, prompty i celé modely. S konkrétním zabezpečením vám v MasterDC poradíme. Obecně ale doporučujeme zajistit především:
- síťovou bezpečnost: izolovat AI infrastrukturu od veřejného internetu, přistupovat přes VPN a vícefaktorové ověření, vzájemně ověřovat identitu serveru a klienta.
- aplikační bezpečnost: autentizovat uživatele a řídit přístupy, omezit počet dotazů (kvůli potenciálním DoS útokům), validovat vstupů (mohou požadovat rozkrytí interních informací, způsobu zabezpečení apod.) a filtrovat výstupy, aby neobsahovaly citlivé údaje.
- bezpečnost dat: šifrovat data v úložišti i při přenosu, zabezpečit samotné úložiště, mít digitálně podepsané soubory a ověřovat jejich podpis před nahráním do paměti.
- bezpečnost infrastruktury: mít dostatečně zabezpečený operační systém, jednotlivé kontejnery a izolovat GPU pro zajištění stabilního výkonu a ochrany dat.
„Kromě standardního monitoringu infrastruktury vás bude u AI zajímat hlavně latence odpovědí, chybovost, míra využití GPU, stav interní paměti modelu a průběh zpracování dotazů. V MasterDC máme nasazený také log management, který nám pomáhá rychleji identifikovat problémy v kontextu různých událostí,“ doplňuje problematiku zabezpečení Jan Skalla.
Stojí to za to?
Identifikace scénářů, výběr hardwaru, modelu a příprava dat mohou na první pohled působit složitě. Ve skutečnosti jde ale o investici, která se v dlouhodobém horizontu vrátí nejen v úspoře nákladů, ale i vyšší produktivitě zaměstnanců.
Vlastní AI umožní:
- udržet plnou kontrolu nad interními daty;
- zpracovávat citlivé informace v bezpečném prostředí;
- předvídatelně plánovat náklady podle reálného využití výkonu;
- přizpůsobit AI model způsobu práce a firemním procesům;
- zrychlit přístup k firemním informacím bez využití externích služeb.
V MasterDC pomáháme s výběrem, nasazením a laděním AI modelů tak, aby podporovaly firemní procesy, byly spolehlivé a splňovaly požadavky na bezpečnost. Pokud přemýšlíte nad nasazením AI ve firmě, napište nám.