„Dem Kunden Zeit sparen, damit er schneller und mehr einkaufen kann“ (Interview)

blogTitle-chatbots

Der Einsatz von Chatbots spart Zeit, was zu einer höheren Kaufquote führt. Im Interview gehen Olaf Erichsen und Jan Schulze-Siebert darauf im Detail ein.

blogTitle-chatbots

Unternehmen streben danach, Prozesse zu optimieren. Das spart einerseits Geld, zum anderen lässt sich der Mehrwert für den Kunden steigern. Außerdem spielt oftmals die Skalierbarkeit der Lösungen eine wichtige Rolle.

Wenn wir als Beispiel den Customer Support einer Firma nehmen, so ist es aufwendig und kostenintensiv den Telefon-Support zu vergrößern.

Einfacher ist es hierbei zum einen am FAQ-Bereich anzusetzen oder noch besser, die FAQs mit einem Chatbot zur interaktiven Kundenkommunikation zu verbessern. Auf diese Weise kommt der Kunde schneller zu seiner Antwort und ist bereit für den Kauf.

Ein Experte auf diesem Gebiet ist Olaf Erichsen von Passage AI und Speaker auf der Chatbot-Konferenz MMC. Das im Silicon Valley gegründete Unternehmen setzt für große Kunden Chatbots zur natürlichen Kommunikation ein. Im Interview gehen wir darauf ein, wie ein Chatbot den FAQ-Bereich revolutioniert.

Interview_Image_Olaf_Erichsen

– Beginn des Interviews, Fragen von Jan Schulze-Siebert –

Lass uns zunächst das Einsatzgebiet von Chatbots abgrenzen. Für welche Unternehmen und für welche Use Cases siehst du Chatbots Stand heute als relevant an?

Chatbots sind bereits heute für alle Unternehmen relevant, die den Kundenkontakt automatisieren, E-Commerce noch attraktiver machen und interne Prozesse noch besser unterstützen wollen. Dabei übernimmt ein Chatbot die Interaktion mit dem Endkunden und macht somit viele Schritte skalierbar.

Wenn die wahrgenommene Qualität bzw. die Accuracy des Chatbots jedoch nicht ausreichend ist, kann das eher schädlich für ein Unternehmen sein, als dass es Nutzen bringt.

In der Regel liegt dies an zwei Dingen:

  • Die internen technischen Voraussetzungen beim Unternehmen sind noch nicht erfüllt

  • Der Chatbot Anbieter ist nicht in der Lage, eine solche Lösung zeitnah, in ausreichender Qualität und zu vernünftigen Kosten bereitzustellen.

So sieht man bei FAQ Chatbots für interne oder externe First Level Support Anwendungen sehr erhebliche Unterschiede hinsichtlich Automationsgrad, Qualität und Update-Fähigkeit.

Du sagst, dass Unternehmen den First Level Support oftmals mittels FAQs abdecken, jedoch die Unterschiede in der Qualität sehr groß sind. In der Zukunft sollte der Support-Kontakt interaktiv gestaltet werden, so dass der User mit einem Bot chatten kann und die wichtigen Infos auf seine Frage direkt erhält. Wie groß darf eine Wissensdatenbank für einen Chatbot sein beziehungsweise wie lernt ein Chatbot dabei die einzelnen FAQ-Fragen?

FAQ Chatbots sind aus unserer Sicht technisch vollständig gelöst: Wir sind in der Lage, selbst hunderte von FAQ Artikeln z.B. von Webseiten automatisch in unser System einzulesen und durch Kombination von Machine Learning und Elastic Search Komponenten so bestmöglich für einen effizienten und akkuraten Trainingsprozess zu strukturieren.

Der Lern- bzw. Trainingsprozess dauert hierbei circa 4 bis 6 Wochen, je nach Komplexität der zu übernehmenden Fragen und Sachverhalte. Wir können im Einleseprozess durch unser System auch Entscheidungsbäume erstellen lassen, um auf diese Weise gleichartige Artikel automatisch disambiguieren zu können.

Das ist zum Beispiel dann wichtig, wenn ein Kreditinstitut zwei vergleichbare Artikel zur Kfz-Finanzierung hat. Der eine ist für Privatkunden relevant, der andere für Geschäftskunden. Als Teil der automatisierten Einleseroutine erkennt unser System dies.

Wenn also ein User etwa die Frage eintippt: „Ich habe eine Frage zur Kfz-Finanzierung“, dann fragt unser System selbständig, ob der User Privat- oder Geschäftskunde ist, um danach den relevanten Artikel zu präsentieren.

Die Fragen an sich lernt unser System wie andere Chatbot-Anwendungen, der Prozess ist allerdings etwas komplexer - aber auch automatisierter. Einzelne Sätze werden durch Vektoren und Hashwerte strukturiert. Wichtig ist dabei die Klassifizierung der Absicht. Das findet durch unseren Intent Classifier statt.

Dabei werden Sätze in unterschiedliche Kategorien eingeteilt und können so der Such-Absicht zugeordnet werden. Anbieter, die diese Technik des Machine Learnings nicht einsetzen, haben größere Problem den Chatbot die richtigen Antworten ausliefern zu lassen.

Wenn der Chatbot nicht korrekt auf die Fragen reagiert oder mit Standardfloskeln antwortet, vergeht mir als Nutzer schnell das Interesse am Schreiben. Wie lernt ein Chatbot ein möglichst natürliches Sprachverständnis?

Ein natürliches Sprachverständnis entsteht dann, wenn der Chatbot auf die Frage eingehen kann und gegebenenfalls eine Nachfrage stellt. Sollte also der Informationsgehalt der Frage für eine Antwort nicht ausreichend sein, kann ein moderner Chatbot sich weitere Informationen besorgen.

Ein Satz kann dabei natürlich auf unterschiedliche Arten formuliert sein. Unsere Sprachmodelle können gleichartige Formulierungen verstehen. Die Formulierungen werden dann zu den jeweiligen Originalfragen gematcht, um die wirklich relevanten Antworten zu geben. Wir haben auch die Möglichkeit, weitere inhaltlich ähnliche Artikel zu präsentieren. Dies ist dann sinnvoll, wenn der User noch nicht ganz genau weiß, wonach er eigentlich sucht.

Manchmal kann es auch sehr sinnvoll sein, nur die wirklich relevanten Informationen aus einem größeren Antworttext automatisiert herauszuziehen. Dafür nutzen wir dann Ansätze aus dem Bereich Machine Reading Comprehension.

Kannst du uns das Prinzip von Machine Reading Comprehension näher erläutern? Und wie sieht das in der Praxis aus?

Machine Reading Comprehension ist ein Anwendungs- und Forschungsgebiet der künstlichen Intelligenz: Hier geht es darum, Texte inhaltlich zu verstehen und passende Antworten auf gestellte Fragen anhand des Texts neu zu formulieren.

Wie gesagt es ist ein Forschungsfeld, aber wenn man sich typische FAQ Artikel anschaut, dann geht es hier meistens nur darum, einzelne Informationen oder einen einzelnen Satz zu referenzieren - anstatt den gesamten Text vorzulesen.

Eines unserer Kundenunternehmen aus der Finanzindustrie hat bereits 358 FAQs auf ihrer Webseite und die sind teilweise bis ins Detail mit Fallunterscheidungen innerhalb eines Artikels ausformuliert. Es macht zum Beispiel einen Unterschied ob auf ein Konto in US Dollar oder in einer anderen Währung eingezahlt werden soll.

Den User interessiert aber nur der Fall seiner eigenen Währung, und nicht der Rest. Wenn dennoch der Gesamttext mit allen Fallunterscheidungen vorgelesen wird, wirkt das nicht sonderlich smart. Ein Chatbot muss das erkennen und nach weiteren Informationen fragen.

Was passiert allerdings, wenn mal nicht der richtige Sinn verstanden wird? Wie sollte dann ein Chatbot reagieren?

Chatbots und computergenerierte Konversationen sind ein Feld, welches noch immer weiter vertieft und verbessert wird. Wir empfehlen allen Unternehmen dringend, Chatbots erst mit einer menschenähnlichen Accuracy live zu schalten. Wer mit einem Chatbot zuvor startet, setzt sich dem Risiko aus, Unmut und negative Gefühle beim Anwender loszutreten und einfach nicht die gewünschten Effekte des Chatbots zu erreichen. Bei den Passage AI Chatbots ist dies je nach Komplexität des Use Cases nach ca. 4 bis 10 Wochen der Fall.

Ebenso sollte ein Handover an Mitarbeiter immer möglich sein, wenn der User das wünscht oder das Thema es vorsieht – z.B. bei Kündigungen.

Was darüber hinaus regelmäßig vorkommen kann, sind Anfragen von Usern, die nicht auf den eigentlichen Scope abzielen, z.B. Rechenaufgaben oder Fragen zum Wetter. Es ist also wichtig, sogenannte Off-Topic Anfragen identifizieren zu können. Das betrifft im Grunde also solche Anfragen, für die der Chatbot gar nicht trainiert wurde und für die er auch keine passenden Antworten aus den FAQ ziehen kann.

Als Chatbot Anbieter haben wir diesen Fall bereits bedacht und haben dazu eine Komponente für smarte Konversationen, die wir auch in anderen Use Cases einsetzen, z.B. im E-Commerce oder Voice Commerce, wo Fehleingaben des Users smart revidiert werden müssen.

Weitere Insights auf der Chatbot-Konferenz (MMC)

Das waren spannende Insights, wie ein Chatbot heutzutage aus einem FAQ-Bereich die richtige Antwort zieht. Je größer ein FAQ-Bereich wird, desto schwieriger wird es für den Nutzer darin die richtige Antwort zu finden. Für große Unternehmen ist Interaktivität in diesem Part des Supports definitiv der nächste Schritt.

Neben FAQ-Chatbots gibt es weitere Einsatzmöglichkeiten, wie beispiels E-Commerce. Dabei unterstützt ein Chatbot, die richtigen Produkte zu finden und diese in einem smarten Warenkorb Prozess zu kaufen. Der Chatbot ist demzufolge ein Conversion Treiber.

Und genau um dieses Thema geht es unter anderem im November auf der Messenger-Marketing-Conference in Köln bei Olaf Erichsen auf der Bühne. Die Konferenz bringt Experten rund um Chatbots in Facebook, WhatsApp und SMS zusammen. Tickets können jetzt noch bestellt werden. Das Event bietet allen am Thema Messenger-Kommunikation Interessierten tiefgehende Insights aus Use Cases in der Praxis von bekannten Unternehmen.

Du fragst dich, welche Speaker und welche Themen auf der MMC sind? Ich habe in meinem Vorbericht die Interviews einiger Speaker zusammengetragen. Schau mal hier.

🔥 Gutscheincode für unsere Leser:

Für alle Leser haben wir einen 10% Gutscheincode mit den Veranstaltern vereinbart. Diese kann im Checkout Prozess eingelöst werden. Der Code lautet dazu passenderweise: 10Prozent.

 

Weitere Konferenzen rund um die Chatbot-Konferenz (MMC)

Die MMC ist zudem Teil der Konferenztage rund um den SEO-Day in Köln, zu dem dieses Jahr wieder über 1000 Leute erwartet werden.

02.10.19
Gastautor Jan Schulze-Siebert

Gastautor Jan Schulze-Siebert

Jan Schulz-Siebert betreut das Content Marketing für die Messenger Marketing Conference. In seinem Blog hat er sich ausführlich mit den Anbietern, um einen Chatbot zu erstellen beschäftigt. Seiner Meinung nach wird Konversation in Zukunft einen hohen Stellenwert im Web und in Apps einnehmen.

Select Country: