Posledních 18 měsíců se ředitelé informační bezpečnosti (CISO) řídili jednoduchou strategií řízení generativní AI: Ovládejte prohlížeč. Pomocí zprostředkovatelů bezpečného přístupu do cloudu (CASB) a sledováním síťového provozu před známými službami AI mohly bezpečnostní týmy sledovat, zaznamenávat a blokovat přenos citlivých dat ještě předtím, než opustily firemní síť.
Zásadní posun v hardwaru a softwaru však činí tuto ochranu perimetru zastaralou. Vstupujeme do éry * * “Přines svůj model” (BYOM — Bring your Own Model)** — fenoménu, kdy zaměstnanci spouštějí výkonné velké jazykové modely (LLM) přímo na svém místním hardwaru.
Vzhledem k tomu, že tato činnost probíhá offline nebo prostřednictvím místních procesů, nezanechává žádné síťové stopy, obchází tradiční nástroje pro prevenci úniku dat (DLP) a vytváří obrovskou mezeru ve viditelnosti pro firemní bezpečnost.
Proč je místní spuštění najednou možné
Přechod od cloudové AI k lokálnímu provedení není jen trendem; je způsoben třemi technickými faktory, díky nimž je vysoce výkonná AI praktická i na běžném notebooku:
-
-
- Hardwarová akcelerace: * * moderní spotřebitelské notebooky, zejména vybavené vysoce výkonnou jednotnou pamětí (jako MacBook Pro), mohou nyní spouštět složité modely třídy 70B, které dříve vyžadovaly obrovské serverové clustery.
-
-
-
- Hmotnostní kvantování: * * metody komprese modelů do kompaktnějších a účinnějších formátů se staly zralými, což umožňuje vysoce kvalitní AI pracovat v rozsahu paměti přenosného zařízení.
** * Bezproblémová distribuce: * * * modely s otevřenou hmotností jsou nyní neuvěřitelně snadné Ke stažení a nasazení. Pouze jedním týmem může inženýr přeměnit prázdný terminál na plně funkční soukromý asistent AI.
- Hmotnostní kvantování: * * metody komprese modelů do kompaktnějších a účinnějších formátů se staly zralými, což umožňuje vysoce kvalitní AI pracovat v rozsahu paměti přenosného zařízení.
-
To vytváří “tichý” pracovní postup: inženýr si může stáhnout model, odpojit se od Wi-Fi a použít citlivý zdrojový kód nebo nastavitelné datové sady k sumarizaci dokumentů nebo auditu kódu — to vše bez jediného datového balíčku procházejícího podnikovým proxy serverem.
Tři kritická rizika “neověřeného spuštění”
Když se AI přesune z cloudu do konečného zařízení, charakter hlavní hrozby se změní. Nejde jen o exfiltraci dat (stažení dat ze společnosti), ale také o integritu, kompenzaci a původ.
1. Riziko integrity: kontaminace kódu a řešení
Když vývojáři používají neověřené komunitní modely k “vyčištění” nebo optimalizaci kódu, představují skryté riziko pro dodavatelský řetězec softwaru. Model může vydat kód, který vypadá jako funkční a prochází jednotkovými testy, ale obsahuje jemné zranitelnosti-jako je slabá validace vstupních dat nebo nebezpečné vzory vícenásobného vlákna. Pokud k tomu dojde lokálně, bezpečnostní služba nemá kontrolní protokol (audit trail), který by propojil budoucí zranitelnost s AI, která ji vygenerovala.
2. Riziko compliance: licencování a Duševní vlastnictví
Ne všechny “otevřené” modely jsou pro použití v podnikání zdarma. Mnoho vysoce výkonných modelů přichází s omezujícími licencemi, které zakazují komerční použití. Pokud zaměstnanec používá nekomerční model k vytvoření dokumentace nebo kódu připraveného k provozu, přebírá společnost významnou právní a finanční odpovědnost, která se může objevit pouze během auditu nebo kontroly při fúzi a akvizici (M&a).
3. Riziko původu: dodavatelský řetězec modelů
Stahování modelu není totéž jako stahování textového souboru; je to spíše jako stahování spustitelného souboru.
* * * Škodlivé zatížení: * * staré formáty souborů (například některé soubory “Pickle” v PyTorch) mohou spustit škodlivý kód jednoduchým faktem, že jsou staženy.
* * * Nedostatek inventáře: * * většina společností nemá “softwarovou specifikaci” (SBOM) pro AI. Nemohou vystopovat, které verze modelů se používají, odkud pocházejí a zda prošly bezpečnostní kontrolou.
Nová strategie řízení AI
Vzhledem k tomu, že blokování adres URL již není účinným řešením, musí CISO přesunout zaměření ze sítě na koncová zařízení. Chcete-li spravovat Shadow AI 2.0, organizace by měly přijmout tři klíčové strategie:
1. Zavedení kontrol na úrovni koncových bodů
Bezpečnostní týmy musí sledovat “signály” místního použití umělé inteligence pomocí existujících nástrojů pro detekci a reakci na koncových bodech (EDR):
– Vyhledávání souborů velkých modelů `např. soubory’.gguf ‘nebo’. pt’).
– Detekce lokálních výstupních serverů (např. procesy běžící na portu 11434 používané Ollamou).
– Monitorování neobvyklých vzorců použití GPU nebo NPU (neuronových procesorů).
2. Vytvoření ” vyšlapané cesty “(řízený hub model)
Shadow AI je obvykle reakcí na nepříjemnosti. Pokud jsou oficiální nástroje příliš pomalé nebo omezující, vývojáři si najdou své. Organizace mohou tento problém zmírnit poskytnutím interního kurátorského katalogu:
– Schválené modely pro konkrétní úkoly (programování, sumarizace atd.).
– Ověřené, komerčně bezpečné Licence.
– Bezpečné, hashované verze modelů (s prioritou bezpečných formátů, jako je Safetensors ).
3. Modernizace politiky
Tradiční “zásady přípustného použití” se zaměřují na SaaS a cloudové služby. Nové zásady by měly přímo regulovat stahování a spouštění artefaktů modelů na podnikových zařízeních, včetně pravidel pro zpracování dat a schválených zdrojů modelů.
- Závěr: * * obvod AI se posune zpět — na křemík na pracovní ploše zaměstnance. Aby podniky udržely bezpečnost, aniž by potlačovaly inovace, musí se přestat snažit blokovat cloud a začít spravovat artefakty a procesy, které se odehrávají přímo na zařízeních.
