Powstanie Shadow AI 2.0: dlaczego lokalne uruchamianie modeli jest nowym martwym punktem cyberbezpieczeństwa

23

Bezpieczeństwa informacji (CISO) stosowali prostą strategię zarządzania generatywną Sztuczną Inteligencją: kontroluj przeglądarkę. Korzystając z brokerów bezpiecznego dostępu do chmury (CASB) i monitorując ruch sieciowy do znanych usług AI, zespoły bezpieczeństwa mogły obserwować, rejestrować i blokować przesyłanie poufnych danych, zanim jeszcze opuściły sieć korporacyjną.

Jednak fundamentalna zmiana w sprzęcie i oprogramowaniu sprawia, że ta ochrona obwodowa staje się przestarzała. Wkraczamy w erę** bring your Own Model (Byom — Bring Your Own Model) * * — zjawiska, w którym pracownicy uruchamiają potężne duże modele językowe (LLM) bezpośrednio na swoim lokalnym sprzęcie.

Ponieważ ta aktywność odbywa się w trybie offline lub za pośrednictwem procesów lokalnych, nie pozostawia śladów sieciowych, omija tradycyjne narzędzia do zapobiegania wyciekom danych (DLP) i tworzy ogromną lukę w widoczności dla bezpieczeństwa korporacyjnego.

Dlaczego lokalne uruchomienie nagle stało się możliwe

Przejście od sztucznej inteligencji opartej na chmurze do lokalnej realizacji to nie tylko trend; wynika to z trzech czynników technicznych, które sprawiły, że sztuczna inteligencja o wysokiej wydajności jest praktyczna nawet na zwykłym laptopie:

      • Akceleracja sprzętowa: * * nowoczesne laptopy konsumenckie, szczególnie wyposażone w wysokowydajną zunifikowaną pamięć (jak MacBook Pro), mogą teraz obsługiwać złożone modele klasy 70B, które wcześniej wymagały ogromnych klastrów serwerów.
      • Masowa kwantyzacja: * * metody kompresji modeli do bardziej kompaktowych i wydajnych formatów stały się dojrzałe, umożliwiając wysokiej jakości sztuczną inteligencję do pracy w pamięci urządzenia przenośnego.
      • Bezproblemowa Dystrybucja: * * modele z otwartą wagą są teraz niezwykle łatwe do pobrania i wdrożenia. Za pomocą jednego polecenia inżynier może przekształcić pusty terminal w w pełni funkcjonalnego prywatnego asystenta AI.

Tworzy to “Cichy” przepływ pracy: inżynier może pobrać model, odłączyć się od Wi — Fi i użyć poufnego kodu źródłowego lub regulowanych zestawów danych do podsumowania dokumentów lub audytu kodu-wszystko bez pojedynczego pakietu danych przechodzącego przez korporacyjny serwer proxy.

Trzy krytyczne ryzyko “niesprawdzonego uruchomienia”

Gdy sztuczna inteligencja przenosi się z chmury do urządzenia końcowego, zmienia się charakter podstawowego zagrożenia. Nie chodzi już tylko o eksfiltrację danych (Wyprowadzenie danych z firmy), ale także o integralność, zgodność i pochodzenie.

1. Ryzyko integralności: zanieczyszczenie kodu i rozwiązań

Kiedy programiści używają niesprawdzonych, dostosowanych przez społeczność modeli do” czyszczenia ” lub optymalizacji kodu, stwarzają Ukryte ryzyko dla łańcucha dostaw oprogramowania. Model może generować kod, który wygląda na działający i przechodzi testy jednostkowe, ale zawiera subtelne luki w zabezpieczeniach — na przykład słabą walidację danych wejściowych lub niebezpieczne wzorce wielowątkowości. Jeśli dzieje się to lokalnie, bezpieczeństwo nie ma ścieżki audytu (audit trail), która powiązałaby przyszłą lukę z AI, która ją wygenerowała.

2. Ryzyko zgodności: licencjonowanie i własność intelektualna

Nie wszystkie” otwarte ” modele są bezpłatne do użytku biznesowego. Wiele modeli o wysokiej wydajności jest wyposażonych w restrykcyjne licencje, które zabraniają zastosowań komercyjnych. Jeśli pracownik korzysta z modelu non-profit do tworzenia gotowej do użycia dokumentacji lub kodu, firma ponosi znaczną odpowiedzialność prawną i finansową, która może zostać ujawniona tylko podczas audytu lub przeglądu fuzji i przejęć (M&A).

3. Ryzyko pochodzenia: łańcuch dostaw modeli

Pobieranie modelu to nie to samo, co Pobieranie pliku tekstowego; to bardziej jak pobieranie pliku wykonywalnego.
* * * Złośliwe obciążenie: * * starsze formaty plików (na przykład niektóre pliki “Pickle” w PyTorch) mogą wykonywać złośliwy kod przez prosty fakt ich pobrania.
* * * Brak zapasów: * * Większość firm nie ma “specyfikacji oprogramowania” (SBOM) dla sztucznej inteligencji. Nie mogą śledzić, które wersje modeli są używane, skąd pochodzą i czy przeszły kontrolę bezpieczeństwa.

Nowa strategia zarządzania AI

Ponieważ blokowanie adresów URL nie jest już skutecznym rozwiązaniem, CISO muszą przenieść swoją uwagę z sieci na urządzenia końcowe. Aby zarządzać Shadow AI 2.0, organizacje powinny przyjąć trzy kluczowe strategie:

1. Wdrażanie kontroli na poziomie punktów końcowych
Zespoły bezpieczeństwa muszą monitorować “sygnały” lokalnego wykorzystania sztucznej inteligencji za pomocą istniejących narzędzi do wykrywania i reagowania na punkty końcowe (EDR):
– Wyszukiwanie plików dużych modeli (np.gguf ‘lub’. pt’).
– Wykrywanie lokalnych serwerów wyjściowych (np. procesy działające na porcie 11434 używane przez Ollamę).
– Monitorowanie nietypowych wzorców wykorzystania GPU lub NPU (procesory neuronowe).

2. Tworzenie ” utartej ścieżki “(kuratorowane centrum modeli)
Shadow AI jest zwykle reakcją na niedogodności. Jeśli oficjalne narzędzia są zbyt wolne lub Restrykcyjne, Programiści znajdą swoje. Organizacje mogą złagodzić ten problem, udostępniając wewnętrzny, wyselekcjonowany katalog:
– Zatwierdzonych modeli do określonych zadań(programowanie, sumaryzacja itp.).
– Sprawdzonych, bezpiecznych komercyjnie licencji.
– Bezpiecznych, zaszyfrowanych wersji modeli (z pierwszeństwem bezpiecznych formatów, takich jak * Safetensors*).

3. Modernizacja polityk
Tradycyjne “Zasady dopuszczalnego użytkowania” koncentrują się na SaaS i usługach w chmurze. Nowe zasady powinny wyraźnie regulować pobieranie i uruchamianie artefaktów modeli na urządzeniach korporacyjnych, w tym reguł przetwarzania danych i zatwierdzonych źródeł modeli.

    • Wniosek: * * Obwód AI przesuwa się z powrotem do krzemu na pulpicie pracownika. Aby zachować bezpieczeństwo bez tłumienia innowacji, przedsiębiorstwa muszą przestać próbować blokować chmurę i zacząć zarządzać artefaktami i procesami zachodzącymi bezpośrednio na urządzeniach.