Vertrauenswürdige KI: Kann ich meinem Chatbot trauen?
- Einen KI-Chatbot in 20 Minuten bauen ist technisch möglich, aber definitiv keine gute Idee.
- KI-Chatbots von der Stange bergen Risiken in Sachen Qualität, Sicherheit, Security und Recht.
- Erfahrung und ein systematischer Risiko-Ansatz sind für die erfolgreiche Entwicklung vertrauenswürdiger KI-Chatbots entscheidend.
Agenda
Ob als digitaler Assistent für die Mitarbeitenden oder zur Optimierung im Kundenservice: Immer mehr Unternehmen wollen einen eigenen KI-Chatbot. Da ist es verlockend, sich einen mit der frei zugänglichen API von OpenAI zu bauen. In wenigen Minuten können Unternehmen damit eigene GPTs erstellen – allerdings ist dies aus mehreren Gründen keine allzu gute Idee.
Entwicklung vertrauenswürdiger Bots erfordert systematischen Umgang mit Risiken
Welche Risiken KI-Chatbots von der Stange mit sich bringen können, haben bereits einige Beispiele aus der Praxis offenbart. So zum Beispiel beim KI-Chatbot des Lieferdienstes DPD, der das eigene Unternehmen nach Aufforderung eines Kunden als „schlechteste Lieferfirma der Welt“ beschimpfte. Der KI-Chatbot der kanadischen Fluglinie Air Canada hat einem Kunden fälschlich eine Rückerstattung versprochen, die das Unternehmen laut Gerichtsurteil zahlen musste. Und ein Chatbot eines US-Autohändlers konnte vor kurzem sogar dazu gebracht werden, ein Fahrzeug für nur einen Dollar zu verkaufen. Bereits an diesen Beispielen wird deutlich: Vor dem KI-Einsatz sollten Chatbots unbedingt gegen Halluzinationen, also das Erfinden von Fakten, die Herausgabe von Interna und weitere Risiken abgesichert werden. D. h. die Entwicklung vertrauenswürdiger Bots und KI-Assistenten erfordert einen systematischen Umgang mit Risiken. Hierzu schauen wir uns die Schlüsselbereiche Qualität, Sicherheit, Security und Recht im nächsten Schritt etwas genauer an.
Qualität: sind die Antworten gut genug, um wirklich hilfreich zu sein?
Wie erfolgreich ein Chatbot performt, hängt von seinen Antworten ab. So kann bereits eine schlechte Antwortqualität die Akzeptanz des Chatbots bei seinen Nutzer:innen und letztlich den ROI der gesamten KI-Investition gefährden. Durch naive Implementierungen erlauben es geschwätzige Bots den Nutzer:innen, in beliebige Themen abzuschweifen. Dies verursacht unnötig hohe Token-Kosten (Token = die Text-Einheit, nach der z. B. OpenAI die Nutzung ihrer Modelle berechnet) und führt nicht selten zu anderen Problemen, wie zum Beispiel dem Erfinden von Fakten oder der Empfehlung von Konkurrenzprodukten. Einen Chatbot beim Thema zu halten ist nicht einfach und erfordert eine explizite Programmierung der KI.
Sicherheit: können durch das Verhalten des Chatbots Schäden entstehen?
Erfundene Namen, falsche Angaben, fiktive Gerichtsentscheidungen: Wenn das Sprachmodell der generativen KI falsche Fakten erfindet, kann dies dem Unternehmen enorm schaden. Das Problem bei der Sache: Halluzinationen sind meist schwer zu entdecken, da Chatbots oft plausibel und professionell klingende Antworten geben und sie häufig in Bereichen eingesetzt werden, in denen die Nutzer:innen kein Domänenwissen haben. Ein Beispiel: Bei einem Maschinendefekt in einer Fabrik empfiehlt der B2B-KI-Verkaufsassistent falsche Teile für die Reparatur. Die Folge: Der Kunde bestellt nicht-passende Ersatzteile – es entsteht ein hoher finanzieller Schaden für die Retouren, den Versand, die Bearbeitung und die weiteren Ausfallkosten, für den wie im Fall der kanadischen Fluggesellschaft höchstwahrscheinlich der Ersatzteil-Anbieter als Betreiber der KI haftbar gemacht wird.
Security: können bösartige Nutzer:innen den Bot hacken?
Es gibt bereits spezifische Attacken auf Chatbots und deren Large Language Models (LLMs), die nicht durch die üblichen IT-Sicherheitsmaßnahmen abgedeckt werden. So zum Beispiel bei einer sogenannten „Prompt Injection“, bei der ein Angreifer die Basisanweisungen des Betreibers zur Steuerung des grundlegenden Chatbot-Verhaltens (den sogenannten Systemprompt) außer Kraft setzt oder verändert. Diese Anweisungen bestimmen u. a. die „Persönlichkeit“ und den Tonfall des Bots und können seine Reaktionen auf bestimmte Dialog-Situationen beeinflussen. Damit kann ein Bot z. B. dazu gebracht werden, zu fluchen, den Betreiber lächerlich zu machen oder auf bestimmte Weise zu antworten. Dies kann wie im DPD-Beispiel zu schlechter Presse und möglicherweise zu Rufschädigung führen. Das schlechte Benehmen bleibt jedoch auf die Chatsitzung des Angreifers beschränkt. Andere Nutzer:innen bekommen im selben Chatbot nichts davon mit – es sei denn, es gibt eine weitere schwerwiegende Sicherheitslücke im System, die Hackern Zugang zum Backend verschafft.
Recht: ist der Bot-Betreiber spezifischen rechtlichen Risiken ausgesetzt?
Durch die neue KI-Technologie können rechtliche Risiken entstehen, die Unternehmen zunehmend vor Herausforderungen stellen. So zum Beispiel beim sogenannten „Recht auf Vergessenwerden“ der aktuellen Datenschutz-Grundverordnung (DSGVO). Diese ermöglicht es Einzelpersonen, die Löschung ihrer personenbezogenen Daten zu verlangen, wenn es keinen zwingenden Grund für deren weitere Verarbeitung gibt. Ob es beim KI-Chatbot zu rechtlichen Implikationen kommen kann, hängt bereits von der Wahl des technischen Ansatzes ab, mit dem Sprachmodelle mit domänenspezifischem Wissen erweitert werden. Die „Retrieval Augmented Generation“ basiert beispielsweise auf dem Abrufen von Informationen aus einer Datenbank und macht es damit einfach, Daten zu löschen und so das Recht auf Vergessenwerden umzusetzen. Der populärere „Finetuning“-Ansatz basiert hingegen auf lokalem Neu-Training. Hier ist das gezielte Löschen einzelner Daten praktisch unmöglich.
Fazit: Das Chatbot-Verhalten ist die größere Herausforderung als die Technik
Wir halten also fest: Vertrauenswürdige KI-Chatbots und -Assistenten zu bauen, ist nicht so ganz trivial wie es auf den ersten Blick womöglich scheint. Denn: Wie sich der KI-gestützte Bot in bestimmten Situationen verhält, ist am Ende die viel größere Herausforderung als die reine Technik. Wenn es glimpflich abläuft, gefährden schlechte Bots nur die Akzeptanz und den ROI des Betreibers. Schlimmstenfalls bergen sie jedoch finanzielle, rechtliche und Reputationsrisiken, die kapitalen Schaden anrichten können. Das bedeutet jedoch nicht, dass Unternehmen den Einsatz generativer KI-Modelle und ihre vielen Vorteile meiden sollten – ganz im Gegenteil. Unsere KI-Expert:innen unterstützen dich gern dabei, sämtliche Risiken aus dem Weg zu räumen und gemeinsam vertrauenswürdige KI-Chatbots und -Assistenten für eine echte Wertschöpfung zu realisieren!
Weitere Tipps und Infos rund um den wertschöpfenden KI-Einsatz in deinem Unternehmen erhältst du am 16. Oktober 2024 bei THE SESS10N – mit inspirierenden Speaker:innen, Co-Creations und mehr.
Unsere KI-Expert:innen erreichst du direkt hier.