A přesto to možná děláte každý den, když zadáváte dotazy do veřejných AI nástrojů
A přesto to možná děláte každý den, když zadáváte dotazy do veřejných AI nástrojů.
Každý den nadšené týmy s chutí testují ChatGPT, Bard, Copilot či jiné veřejně dostupné modely. „Podívej, jak rychle nám to napsalo report!“ říkají mi manažeři. „A tady mi to optimalizovalo kus kódu,“ dodávají vývojáři. V té samé chvíli však do cloudu odplouvají informace, které dělají firmu jedinečnou: utajené marže, specifické algoritmy, postupy ověřované léta praxí.
Co pošlete do veřejného modelu dnes, může být vaše ztracená výhoda zítra.
Na první pohled se nic neděje. Odpověď dorazí, úkol je splněn, všichni jsou spokojení. Jenže na druhém konci kabelu se model učí z každého slova.
Proces, který tomu učení dává strukturu, se jmenuje reinforcement learning from human feedback (RLHF). Jeho logika je jednoduchá: model vysloví návrh, uživatel ho buď explicitně ohodnotí palcem nahoru, nebo prostě pokračuje v konverzaci. Obě varianty pro model znamenají „odměnu“. Čím víc odměn, tím pevněji se nově získaná znalost zapíše do neuronových vah.
Představte si baristu, který dostane tučné dýško pokaždé, když vám připraví kávu přesně podle chuti. Za pár týdnů už se vás neptá, pamatuje si vaši preferenci a stejnou směs nabídne komukoli, kdo se jí jen přiblíží. Stejně pracuje i veřejný jazykový model: jakmile se naučí, že „tenhle kus kódu je lepší“ nebo „takto vypadá správně nastavená marže“, nabídne stejnou kvalitu i všem ostatním, včetně konkurence. Vy jste mu přitom recept předali zdarma.
Pokud vlastníte unikátní oborovou znalost, dává to smysl? Spíš ne. Místo abyste si udrželi informační náskok, sponzorujete vývoj cizího produktu a pomáháte vyhladit rozdíly mezi vámi a ostatními hráči na trhu.
Co s tím tedy lze dělat? Nejrychlejší záplata je prohnat veškeré AI dotazy interní proxy bránou. Ta loguje každý prompt i odpověď a dokáže varovat, když se v textu objeví citlivé pasáže, třeba klíčová část algoritmu nebo čísla z finančního oddělení. Uživatel se může okamžitě rozhodnout, zda opravdu potřebuje poslat daná data ven, nebo raději zvolí obecnější formulaci.
Druhá, o něco sofistikovanější možnost je využít tzv. sandboxové prostředí. Někteří cloudoví poskytovatelé dnes dovolují vypnout ukládání konverzací do centrálního tréninku. Není to stoprocentní jistota, ale riziko výrazně snižuje. Funguje to tak, že k modelu posíláte pouze anonymizované instrukce, zatímco citlivý kontext zůstává za firewallem.
Třetí, dlouhodobě nejefektivnější cesta vede k vlastnímu modelu nebo alespoň k fine-tuningu otevřeného modelu typu Llama 3, Mistral či Chronos. Jak na to? Začněte právě těmi logy z proxy: máte v nich zlatý důl reálných dotazů a ověřených odpovědí vašich expertů. Jakmile je označíte a vyčistíte, můžete na ně model doučit, buď úplně on-premise, nebo v privátním cloudu. Získáte AI, která zná nuance vašeho oboru, ale neodnáší je z domu.
Abychom byli konkrétní, podívejme se na dvě reálné situace.
Vývojáři často posílají do veřejného chatu celé bloky proprietárního kódu s prosbou o refactoring. Okamžitý užitek je zřejmý: úspora času. Dlouhodobá ztráta už tak patrná není: uniká nejen syntaxe, ale i architektonické vzory, na nichž firma stojí. Přitom by stačilo nasadit interní „code chat“, který běží nad vaším repozitářem a nikdy neposílá data dál než do vlastní sítě.
Manažeři zase zkoušejí s AI ladit cenotvorbu. Do promptu vloží reálné marže, slevové politiky i náklady. Model vzorně spočítá tři scénáře a vyplivne tabulku. Jenže ve chvíli, kdy se tyto informace dostanou do učení, může konkurence, klidně nevědomky, získat stejný vhled do trendů a rozpětí cen. Řešení? Lokální modul typu RAG (retrieval-augmented generation), který nechá důvěrná čísla ležet na firemním serveru a veřejnému modelu poskytne pouze prázdné kolonky k vyplnění.
Směřujeme k budoucnosti, v níž bude mít AI téměř každá firma. Náskok tedy neurčuje samotná technologie, ale kvalita a exkluzivita dat, jimiž ji krmíte. Kdo si dokáže své know-how ochránit dnes, ten si zítra zachová konkurenční výhodu.
