alexa-conversation-ai
News: Pressemeldungen & Industrie News
24
JUN
2019
Branchennews

Sprachgesteuerte Technologie – Bringt der Fokus auf Fachkompetenz den wahren Fortschritt?

AI

Mit Maschinen natürliche Gespräche führen? Trotz großer Sprünge in der Conversational Artificial Intelligence (CAI), der von Künstlicher Intelligenz getriebenen Konversation, hat wohl Stand heute niemand die Illusion, mit etwas anderem zu sprechen als mit einem Roboter. Wenn CAI ihren Platz an der Spitze der Zukunftstechnologien einnehmen will, muss sie menschlicher werden - und der Wettlauf, genau das zu erreichen, ist in vollem Gang.

Anlässlich der Veröffentlichung unseres neuesten Artificial Intelligence M&A-Markteports wollen wir die Frage stellen, ob CAI-Modelle mit einem engeren Fokus eine Antwort wären.

 

“With the growth of many industries dependent on the development of AI technologies, strategic investors are stepping up their acquisitions and investments […]. This is one of the fastest-moving sectors, with great momentum and game-changing outcomes.”

Probleme der aktuellen Sprachsteuerung

CAI hat einen langen Weg zurückgelegt, seit eindimensionale Anwendungen zur Beantwortung einfacher, vordefinierter Fragen noch vor gut fünf bis zehn Jahren an der Tagesordnung waren. Mittlerweile gibt es hochentwickelte, sprachbasierte Assistenzsysteme, die auf anwendungsorientiertem maschinellem Lernen und Natural Language Processing (NLP) basieren. Sie unterscheiden sich deutlich von den ersten einfachen Chatbots und sie gewinnen durchaus Zulauf. Allein im dritten Quartal 2018 lieferte Amazon 6,3 Millionen Alexa-basierte Echo-Geräte aus. Diese Technologie scheint die Phantasie der Verbraucher geweckt zu haben – obwohl sie Mängel hat.

Missverständnisse und Antworten, bei denen der Kontext falsch erfasst wird sind alltäglich und haben durchaus Unterhaltungswert – dennoch erwarten wir, dass wir mit sprachbasierten AI-Systemen nach unseren eigenen Vorstellungen kommunizieren. Doch die Technologie versteht momentan vieles noch nicht. So ist es für diese Systeme schwer zu unterscheiden, wann sich ein Benutzer zwischen verschiedenen Aufgaben bewegt, wie z.B. das Diktieren einer Einkaufsliste oder das Ändern der Musik. Und natürlich versteht ein solches System nicht, wie frustrierend es ist, wenn man ein telefonisches Helpdesk-Menü neu starten muss, weil man beim allerletzten Schritt einen simplen Fehler gemacht hat.

Diese Funktionen basieren auf dem Verständnis des Kontextes und es ist schwierig, so etwas in einem Algorithmus zu erfassen. Menschliche Gespräche sind unglaublich komplex und schwer zu berechnen. Mit der steigenden Popularität des Internets der Dinge (IoT) wird das Thema an Bedeutung gewinnen und unsere Erwartungen werden nicht weniger werden. Soll sich die Technologie durchsetzen, erwarten wir eine einwandfreie Sprachsteuerung aller vernetzten Geräten - von der Anwendung in unseren Autos bis zur Kommunikation mit dem Kühlschrank.

 

“The language analysis sub-sector has experienced impressive growth over the last 30 months, as it sees its application extend to and grow in new verticals. In fact, Q1 2019 has proven to be a stellar quarter for language analysis."

Personalisierung ist Humanisierung

Trotz des großen Erfolgs von Alexas und Siris Universalansatz wissen führende Machine Learning- und Natural-Language-Processing-Experten seit langem, dass eine "menschlichere" CAI auf Personalisierung beruht. Es wird geschätzt, dass es etwa noch 15 bis 20 Jahre dauern wird, bis ein NLP und eine CAI entwickelt ist, die die wahre Komplexität der menschlichen Konversation versteht.

Bis dahin halten es die Befürworter der Personalisierung für sinnvoll, CAI für bestimmte, fokussierte Aufgaben auszubauen und zu trainieren. In dem man die für die Anpassung und das Lernen nötigen Datensätze reduziert, erleichtert man den Prozess, dass Muster verstanden und die korrekten Anforderungen erfasst werden. Durch die Definition des am besten geeigneten Anwendungsfalles und die Identifizierung datenreicher Geschäftsfelder können Entwickler vorgefertigte Antworten auf FAQs liefern, die eine menschlichere Interaktion ermöglichen.

Es geht auch darum, die Erfolgsfaktoren zu definieren, die sowohl für den Benutzer als auch für den Anwendungsfall relevant sind. So sind beispielsweise Algorithmen, die zur gesunden Ernährung animieren sollen durch mehrfache Nutzung und Interaktion erfolgreich, wohingegen Unternehmen die mehrfache Nutzung ihrer Beschwerde-Software vermeiden wollen.

 

Auf dem Weg zum Fachexperten

Unser aktueller AI-Bericht zeigt in den letzten 30 Monaten ein beeindruckendes Wachstum im Teilsektors der KI-Sprachanalyse. Ein Großteil dieses Wachstums wird durch die notwendige Verbesserung der Spracherkennungsfähigkeit untermauert.

Im November zum Beispiel hat Wluper 1,3 Millionen Dollar in einer Seed-Finanzierungsrunde gesammelt. Das in London ansässige Start-up-Unternehmen ist überzeugt, dass Sprachassistenten viel besser arbeiten, wenn die zugrunde liegende KI zur Aufgabe hat, ein Experte in einem engeren und spezialisierteren Bereich zu werden.

Wluper-Mitbegründer Hami Bahraynian kommentierte gegenüber TechCrunch: "Wenn wir an intelligente Assistenten wie Alexa oder Siri denken, werden wir nur dann glauben, dass sie wirklich gut sind, wenn sie uns richtig verstehen. Doch meistens können sie das einfach nicht. Es ist nicht die Spracherkennung, die versagt. Es ist der fehlende Fokus und die fehlende Schlussforderungsfähigkeit dieser Systeme, denn sie alle können eine Menge Dinge einigermaßen gut, aber nichts perfekt."

 

Die Herausforderungen gehen nicht aus

In den USA hat Google Duplex in seinen Sprachassistenten integriert, damit Nutzern des Pixel-3-Smartphones die Möglichkeit haben, Restaurantbuchungen automatisiert vorzunehmen. Es ein perfektes Beispiel für die Vorteile des Personalisierungsansatzes, dass weltweit große Beachtung gefunden hat. Dennoch zeigt dieses Beispiel auch die problematische Seite. Denn im Fall der Duplex-Integration war das KI-gesteuerte sprachbasierte Reservierungssystem ein klein wenig zu menschlich. Das hat Fragen über die Ethik von Roboterstimmen aufgeworfen, die sich von den Nutzern nicht als solche identifizieren lassen – also schon die nächste große Herausforderung, die im Raum steht.

Dieser Artikel wurde veröffentlicht von:

Heiko-Garrelfs

Sector Principal

Heiko Garrelfs

Als Technologie-Enthusiast seit frühester Jungend hat Heiko Gelegenheit gehabt, über die Jahre in verschiedenen Rollen und bei unterschiedlichen Unternehmen die technischen Umbrüche der letzten Jahre mitzuerleben und mitzugestalten - zuletzt als Technologieberater bei der Siemens AG. Nach dem Verlassen der Siemens AG hat Heiko verschiedene StartUps gegründet bzw beraten. "Hauptberuflich“ setzt Heiko mit seiner Firma VR/AR Projekte um. Zusätzlich arbeitet er mit Partnern an einem Startup dass sich mit Themen rund um VR/AR beschäftigt.