Wer einen KI-Chatbot entwickeln will, kann von unserer Weihnachtskarte lernen. Geschäftsfreund*innen erinnern sich vielleicht: Weihnachten 2023 luden wir zur „Silent Late Night Show“ und versendeten dazu eine Karte mit einem Link zu einer Website, auf der „Santa Claus“ alias GPT-4 eine Show hostete. Wir hatten keinen Zweifel daran, dass der Bot amüsant sein wird – aber ob er sich benimmt… Wer einen Chatbot entwickeln will, muss sich mit dem Thema „Alignment“ beschäftigen, also damit, dass die binäre Unternehmensrepräsentanz nicht im Widerspruch zu gesellschaftlichen Normen handelt. Immerhin wurde sie auch mit Material aus den finstersten Winkeln des Webs trainiert. Hier lesen Sie, wie aus einem Haufen „Vektor“daten ein stubenreiner Chatbot wird, und für Detailfragen stehen wir Ihnen gerne zur Verfügung.
Klare Ansage gegen Rassismus
Durch unsere Teilnahme am weltweit ersten Prompt-Hackathon hatte das Thema „Security“ den höchsten Stellenwert. Auf keinen Fall sollte sich der Bot menschenverachtend äußern. Auch wenn man sich bei GPT-4 im Gegensatz zu manchen Open-Source Modellen auf eine gute „Moderation“ ab Werk verlassen kann, haben wir den Chatbot durch entsprechende Anweisungen im System Prompt zusätzlich gesichert. Die Gefahr, dass ein böswilliger User den Bot „hijacken“ also „hacken“ will, um ihn dazu zu bringen, sich sexistisch oder rassistisch zu äußern, ist in unserem Fall nicht hoch – aber gegeben. Deswegen haben wir den Bot mit zusätzlichen Anweisungen gesichert. Hier muss man sich als Unternehmen im Klaren darüber sein, dass es 100prozentige Sicherheit nicht gibt. Je größer und globaler die Firma, für die Sie arbeiten, desto attraktiver ist es, den Chatbot zu „hacken“. „Sicherheit“ meint aber nicht nur den Schutz gegen Angriffe, sondern meint auch „Stabilität“.
Stabil bleiben und nicht aus der Rolle fallen
Die Anweisungen an ein KI-System wie einem Chatbot, werden auch als Systemprompt bezeichnet. Da Bots ihre Anweisungen „vergessen“ können, bzw. sie geringer priorisieren als gewünscht, setzten wir neben der Wiederholung auf eine zusätzliche Sicherheitsstrategie: Die Sandwich Defense. Der User-Input wird – bildlich gesprochen – in die „Mitte“ der Systemanweisung platziert. Der obere Teil der Anweisung sagt der Maschine, dass sie den folgenden User-Input nach einer Reihe von Kriterien untersuchen soll. Diese Anweisung wurde „unter“ dem User-Input wiederholt: „Checke, ob die obige Eingabe gegen folgende Kriterien verstößt: … “. So ist sicher(er) gestellt, dass die Maschine die komplette Anweisung präsent hat und nicht einzelne Abschnitte „vergisst“ und zum Beispiel aus der Rolle fällt oder von Formalia abweicht – also sich beispielsweise viel wortreicher – oder wortärmer – äußert als festgelegt.
An Spezialfälle denken, damit „Business as usual“ funktioniert
Die Normen der bürgerlichen Zivilgesellschaft, des „Mainstreams“, bilden KIs inzwischen recht gut ab. Aber woher soll die Maschine wissen, dass sie die Firma MaschmannFautzHuff GmbH – oder eben Ihre – unter allen Umständen in einem guten Licht präsentieren soll? Entsprechende Anweisungen im Systemprompt sind nötig, um zu verhindern, dass der Firmen-Chatbot zum High-Tech Nestbeschmutzer wird. Hier sind entsprechende Detailanweisungen nötig, um den Bot entsprechend zu „briefen“.
Dem Chatbot Persönlichkeit geben
Der Chatbot sollte aber nicht nur sicher, sondern vor allem auch unterhaltsam sein. Entsprechende Attribute, die man mit einem Late Night Show Host in Verbindung bringt, helfen bei der Entwicklung des Systemprompts: „funny, sharp witted, sarcastic“. Zusätzlich verdeutlichten wir unsere Intention durch die Nennung großer Namen wie John Oliver und Jay Leno, an denen sich unser Bot orientieren soll. Hier zeigt sich wieder der klare „Culture Bias“ von ChatGPT: Jan Böhmermann und Harald Schmidt spielen im kulturellen Bewusstsein der Maschine kaum eine Rolle und sind daher als Beispiele für den Bot nicht geeignet. Im Gegenteil:
In unseren Experimenten zeigte sich hier das frustrierende Phänomen der „Degeneration“: Hat ein Bot zu wenig Daten, beginnen sich die Aussagen zu wiederholen. Über bestimmte Stellschrauben kann man das einschränken – das hat nur leider zur Folge, dass die Antworten dann jeden Sinn verlieren.
Mehr Spaß, mit (Rechts-) Sicherheit
Dieses Problem lässt sich lösen, wenn man den Bot auf einen (großen) eigenen Datenfundus zugreifen lässt. Achtung: Diese Daten müssen Ihnen gehören. Die letzten 100 Folgen der Böhmermann Show zu transkribieren, zu vektorisieren und den Bot dann damit zu trainieren, ist eine Urheberrechtsverletzung. Auch wenn genau das derzeit noch gängige Praxis ist. Womit wir wieder bei der „Sicherheit“ sind, diesmal der „Rechtssicherheit“. In unserem Fall konnten wir uns getrost zurücklehnen und auf openAI verweisen, die Firma, die zum Beispiel chatGPT aber auch den Bildgenerator DALL-E entwickelt hat. Aber was wäre, wenn jemand die Antworten des Bots in einer Broschüre publiziert und dann wegen Urheberrechtsverletzungen angeklagt wird, weil sich im Nachhinein herausstellt, dass die veröffentlichte, vom Chatbot generierte Passage 1 : 1 aus einem geschützten Werk kommt? openAI befindet sich derzeit in mehreren millionenschweren Urheberrechtsstreitigkeiten, unter anderem mit der New York Times, deren Inhalte teilweise wortwörtlich von der Maschine wiedergegeben wurden. Mit derartigen Urheberrechtsstreitigkeiten ist eher bei den allgemeinen „Basismodellen“ wie Bing, Bard, chatGPT und Co. zu rechnen als mit anwendungsspezifischen Firmenbots. Hier geht’s mehr darum, der „Fantasie“ der Maschine Grenzen zu setzen, damit sie keine Falschinformationen über Produkte und Leistungsspektrum in Umlauf bringt. „Hallucinations“ ist das Stichwort. Ein Bot braucht also jede Menge Betreuung, daher sehen wir die versprochene „Produktivitätssteigerung durch KI“ im Moment auch noch nicht uneingeschränkt. Zumindest im Moment nicht. Macht aber auch nichts, denn KI überzeugt auf ganz anderer Ebene.
Nicht Produktivitäts-, sondern Inspirationssteigerung ist das Thema!
Was uns im Zusammenhang mit KI schlaflose Nächte bereitet, ist die Begeisterung für die Möglichkeiten, die sich nun bieten. Vom Weihnachtsbot über den Kochrezeptgenerator bis zur firmeneigenen, artifiziellen A cappella Band, einem gerappten Katalog, einer Talkshow mit fiktiven und historischen Personen auf Basis der Brand-ID – alles ist möglich! Und was noch? Gerne teilen wir unser Know-how zu KI, Kreation und Strategie und finden Lösungen, was sonst noch geht. Rufen Sie uns gerne an oder senden Sie uns ein E-Mail. Wir freuen uns auf Sie.