Sztuczna inteligencja sterowana intencjami: dlaczego większość sztucznej inteligencji konwersacyjnej zawodzi i jak to naprawić

13

Większość projektów AI dla przedsiębiorstw kończy się niepowodzeniem nie z powodu słabych modeli, ale z powodu wadliwej architektury. Organizacje spieszą się z wdrażaniem rozwiązań wyszukiwania opartych na modelu dużego języka (LLM), ale zasadnicze niezrozumienie sposobu, w jaki użytkownicy faktycznie wchodzą w interakcję z tymi systemami, prowadzi do rosnących kosztów i frustracji klientów. Niedawne badanie Coveo wykazało, że 72% zapytań wyszukiwanych w przedsiębiorstwach kończy się niepowodzeniem przy pierwszej próbie, a firma Gartner przewiduje, że wiele wdrożeń nie spełni oczekiwań. Główny problem? Poleganie na generowaniu wspomagania wyszukiwania (RAG) bez uprzedniego zrozumienia czego chce użytkownik.

Standardowy problem RAG: ignorowanie intencji

Standardowe podejście RAG polegające na osadzaniu zapytania, pobieraniu podobnej treści, a następnie przekazywaniu jej do LLM działa w wersjach demonstracyjnych, ale zawodzi w rzeczywistych aplikacjach. Dzieje się tak z powodu trzech kluczowych błędów: luki w intencjach, przeciążenia kontekstu i ślepoty na znaczenie.

Standardowe RAG traktuje intencję tak, jakby była tym samym co kontekst, ale tak nie jest. Na przykład użytkownik wpisując słowo „anuluj” może oznaczać anulowanie usługi, zamówienia lub spotkania. Bez tego rozróżnienia systemy często zwracają nieistotne dokumenty, co prowadzi do frustracji.

Firmy toną w danych: katalogach produktów, artykułach wsparcia, politykach i wielu innych. Modele RAG wyodrębniają informacje ze wszystkich źródeł na oślep, ukrywając przydatne informacje w szumie. Jeśli klient zapyta, jak aktywować nowy telefon, nie potrzebuje odpowiedzi na często zadawane pytania dotyczące rozliczeń.

Wreszcie, osadzanie wektorów nie uwzględnia czasu. Notowania z poprzedniego kwartału wyglądają tak samo jak z tego kwartału, jednak przedstawianie nieaktualnych ofert podważa zaufanie.

Najpierw zamiar: klasyfikuj przed wyodrębnieniem

Rozwiązaniem jest nowy model architektoniczny: Najpierw intencja. Zamiast pobierać, a następnie trasować, klasyfikuj przed pobieraniem. Oznacza to użycie lekkiego modelu językowego do przeanalizowania żądania pod kątem intencji i kontekstu, a następnie wysłanie go do najbardziej odpowiednich źródeł.

Nie chodzi o najlepsze modele; chodzi o lepszą architekturę. Architektury Intent First wykorzystują lekki model języka do analizowania żądania pod kątem intencji i kontekstu przed wysłaniem go do najbardziej odpowiednich źródeł treści (dokumenty, interfejsy API, agenci).

Jak to działa: opis krok po kroku

System Intent First działa dwuetapowo:

  1. Usługa klasyfikacji zamiarów:
  2. Normalizuje i rozszerza zapytanie.
  3. Przewiduje podstawowe zamiary przy użyciu modelu transformatora.
  4. Pobiera intencję podrzędną na podstawie głównej (np. „STATUS ZAMÓWIENIA”, „PROBLEM Z URZĄDZENIEM”).
  5. Identyfikuje źródła docelowe na podstawie mapowania intencji.

  6. Usługa wyszukiwania kontekstowego:

  7. Pobiera z przefiltrowanych źródeł, z wyłączeniem nieistotnych.
  8. Personalizuje wyniki, jeśli użytkownik jest uwierzytelniony.
  9. Ocenia dokumenty pod kątem trafności, nowości, personalizacji i zgodności z zamierzeniami.

Krytyczne środki ostrożności: przykład opieki zdrowotnej

W branżach takich jak opieka zdrowotna niezbędne są dodatkowe środki ostrożności. Kategorie zamiarów powinny obejmować zapytania kliniczne, ubezpieczeniowe, harmonogramowe, rozliczeniowe i związane z rozliczeniami. Pytania kliniczne muszą zawierać zastrzeżenia i nigdy nie powinny zastępować profesjonalnej porady lekarskiej. Skomplikowane prośby należy zawsze kierować do działu pomocy technicznej.

Obsługa przypadków brzegowych: wykrywanie frustracji

System musi obsługiwać przypadki brzegowe, wykrywając frustrację. Słowa kluczowe takie jak „okropny”, „nienawidzę” lub „nie działa” powinny natychmiast skłonić ludzi do udzielenia Ci wsparcia, całkowicie pomijając wyszukiwanie.

Wyniki i konieczność strategiczna

Pierwsi użytkownicy architektury Intent First zaobserwowali znaczną poprawę w zakresie utrzymania użytkowników. Gdy wyszukiwanie działa, użytkownicy wracają. Gdy to nie działa, opuszczają kanał.

Rynek konwersacyjnej sztucznej inteligencji szybko rośnie, ale firmy, które w dalszym ciągu wdrażają standardowe architektury RAG, nadal będą ponosić porażki. Sztuczna inteligencja z pewnością udzieli błędnych odpowiedzi, użytkownicy porzucą kanały cyfrowe, a koszty wsparcia wzrosną. „Najpierw zamiar” nie dotyczy najlepszych modeli; chodzi o zrozumienie czego użytkownik chce, zanim spróbuje mu pomóc.

Demonstracja jest prosta. Produkcja jest trudna. Ale model sukcesu produkcyjnego jest jasny: Najpierw zamiar.