Intent-First-KI: Warum die meisten Konversations-KI scheitern und wie man das Problem beheben kann

6

Die meisten KI-Projekte in Unternehmen scheitern nicht an schwachen Modellen, sondern an einer fehlerhaften Architektur. Unternehmen beeilen sich, auf Large Language Model (LLM) basierende Suchlösungen bereitzustellen, aber ein grundlegendes Missverständnis darüber, wie Benutzer tatsächlich mit diesen Systemen interagieren, treibt die Kosten in die Höhe und frustriert die Kunden. Eine aktuelle Studie von Coveo ergab, dass 72 % der Suchanfragen in Unternehmen beim ersten Versuch scheitern, und Gartner prognostiziert, dass viele Bereitstellungen die Erwartungen nicht erfüllen werden. Das Kernproblem? Eine Abhängigkeit von Retrieval-Augmented Generation (RAG), ohne vorher zu verstehen, was der Benutzer will.

Das Problem mit Standard-RAG: Absicht ignoriert

Der Standard-RAG-Ansatz – das Einbetten einer Abfrage, das Abrufen ähnlicher Inhalte und die anschließende Übergabe an ein LLM – funktioniert in Demos, scheitert jedoch in realen Anwendungen. Dies ist auf drei wesentliche Fehler zurückzuführen: die Absichtslücke, die Kontextflut und der Frische-Blindspot.

Standard-RAG behandelt Absichten so, als seien sie dasselbe wie Kontext, aber das ist nicht der Fall. Wenn ein Benutzer beispielsweise „Stornieren“ eingibt, könnte dies bedeuten, dass er eine Dienstleistung, eine Bestellung oder einen Termin storniert. Ohne dies zu erkennen, geben Systeme häufig irrelevante Dokumente zurück, was zu Frustration führt.

Unternehmen sind mit Daten überschwemmt: Produktkataloge, Supportartikel, Richtlinien und mehr. RAG-Modelle rufen wahllos alle Quellen ab und verbergen nützliche Informationen im Rauschen. Wenn ein Kunde fragt, wie er ein neues Telefon aktiviert, benötigt er keine häufig gestellten Fragen zur Abrechnung.

Schließlich sind Vektoreinbettungen zeitblind. Die Werbeaktion eines letzten Quartals sieht genauso aus wie die dieses Quartals, aber die Präsentation veralteter Angebote untergräbt das Vertrauen.

Intent-First: Vor dem Abrufen klassifizieren

Die Lösung ist ein neues Architekturmuster: Intent-First. Anstatt die Daten abzurufen und dann weiterzuleiten, klassifizieren Sie sie vor dem Abruf. Dies bedeutet, dass ein leichtes Sprachmodell verwendet wird, um die Abfrage auf Absicht und Kontext zu analysieren und sie dann an die relevantesten Quellen weiterzuleiten.

Hier geht es nicht um bessere Modelle; es geht um bessere Architektur. Intent-First-Architekturen verwenden ein schlankes Sprachmodell, um eine Abfrage auf Absicht und Kontext zu analysieren, bevor sie an die relevantesten Inhaltsquellen (Dokumente, APIs, Agenten) weitergeleitet wird.

So funktioniert es: Eine Schritt-für-Schritt-Anleitung

Ein Intent-First-System funktioniert durch einen zweistufigen Prozess:

  1. Absichtsklassifizierungsdienst:
  2. Normalisiert und erweitert die Abfrage.
  3. Prognostiziert die primäre Absicht mithilfe eines Transformatormodells.
  4. Extrahiert den Unterabsicht basierend auf dem primären (z. B. „ORDER_STATUS“, „DEVICE_ISSUE“).
  5. Bestimmt Zielquellen basierend auf der Absichtszuordnung.

  6. Kontextsensitiver Abrufdienst:

  7. Ruft aus gefilterten Quellen ab, mit Ausnahme irrelevanter Quellen.
  8. Personalisiert die Ergebnisse, wenn der Benutzer authentifiziert ist.
  9. Bewertet Dokumente nach Relevanz, Aktualität, Personalisierung und Absichtsübereinstimmung.

Kritische Schutzmaßnahmen: Beispiel Gesundheitswesen

In Branchen wie dem Gesundheitswesen sind zusätzliche Schutzmaßnahmen von entscheidender Bedeutung. Absichtskategorien müssen klinische, Abdeckungs-, Termin-, Abrechnungs- und kontobezogene Abfragen umfassen. Klinische Fragen müssen Haftungsausschlüsse enthalten und ersetzen niemals eine professionelle medizinische Beratung. Komplexe Anfragen sollten immer an den menschlichen Support weitergeleitet werden.

Umgang mit Randfällen: Frustrationserkennung

Das System muss Randfälle bewältigen, indem es Frustration erkennt. Schlüsselwörter wie „schrecklich“, „Hass“ oder „funktioniert nicht“ sollten eine sofortige Weiterleitung an den menschlichen Support auslösen und die Suche vollständig umgehen.

Ergebnisse und der strategische Imperativ

Frühe Anwender der Intent-First-Architektur konnten deutliche Verbesserungen bei der Benutzerbindung verzeichnen. Wenn die Suche funktioniert, kehren die Benutzer zurück. Wenn dies fehlschlägt, verlassen sie den Kanal.

Der Markt für Konversations-KI boomt, aber Unternehmen, die weiterhin Standard-RAG-Architekturen einsetzen, werden weiterhin scheitern. KI wird selbstbewusst falsche Antworten geben, Benutzer werden digitale Kanäle verlassen und die Supportkosten werden steigen. Bei Intent-First geht es nicht um bessere Modelle; Es geht darum, zu verstehen, was ein Benutzer will, bevor Sie versuchen, ihm zu helfen.

Die Demo ist einfach. Die Produktion ist hart. Aber das Muster für den Produktionserfolg ist klar: Intent First.