So funktioniert Personalisierung mit Machine Learning Methoden
Eine aktuelle KI-Studie zeigt: im Digital-Business wird der Geschäftserfolg entscheidend von einer effizienten und effektiven Personalisierung beeinflusst. Personalisierung meint die nutzerbasierte Ausspielung von Content und Interaktionsmöglichkeiten. Ein typisches Ziel ist z.B. die Optimierung der User-Journey durch Minimierung der Abbruchquote mit Hilfe von personalisierten Empfehlungen.
Künstliche Intelligenz und Personalisierung
Dabei ist es nach wie vor nicht leicht, relevante Empfehlungen an den Mann (resp. die Frau) zu bringen. Das Thema Relevanz ist zwar wichtig, gleichzeitig aber auch schwer fassbar und noch viel komplizierter zu messen. Bisher war Relevanz im dynamischen Datenrauschen lediglich über nicht-repräsentative Umfragen oder post-interaktiv anhand fragwürdiger KPIs annährend evaluierbar. Dank KI-Methoden wird sie nun ganzheitlicher, statistisch greifbar.
Künstliche Intelligenz im Bereich der Website-Personalisierung setzt u.a. auf Machine Learning-Algorithmen. Sie ist in der Lage, Content für verschiedene User Journeys optimal auszusteuern. Für jeden Nutzer sagen Künstliche Intelligenz-Anwendungen die relevanteste Next-Best-Action in Echtzeit vorher und lösen entsprechende Prozesse zur Ausspielung des Contents aus. Aber lässt sich eine User Journey wirklich vollumfänglich und mit wenigen Klicks, quasi Plug and Play, personalisieren?
Anspruchsvolle Künstliche Intelligenz
Ob überall dort, wo KI draufsteht, auch wirklich Künstliche Intelligenz drin ist, mag man bezweifeln können. Denn es gibt einige technische Herausforderungen, die bei der Personalisierung von User Journeys mittels Künstlicher Intelligenz zu beachten sind. Eine davon nennen wir den Performance Gap.
Effektive Personalisierung als Big Data-Problem
Nehmen wir an, die Personalisierungsmethode nutzt als Datengrundlage die große Vielfalt der Verhaltensdaten, welche über Behavior-Tracking kontinuierlich auf der Website bzw. dem Onlineshop eingesammelt wird. Performance Gap bezeichnet in diesem Kontext die Lücke zwischen der vorhandenen und der notwendigen Datenvielfalt (resp. Datenmenge), die ich für ein effektives Training meiner Algorithmen benötige.
Sehr vereinfacht gesagt, brauche ich umfangreiche und gut strukturierte Daten, um Machine Learning-Algorithmen zu trainieren. Auf Grund der Besucherfrequenz einzelner Seiten meines Shops ist die Datendichte für einzelne Schritte einer User Journey jedoch unterschiedlich umfangreich. Prädiktive Algorithmen, die ohne vorherige Sichtung des Daten-Potentials auf verschiedenen Seiten einer Internetpräsenz wahllos implementiert werden, arbeiten unterschiedlich effizient und liefern z.T. unzureichende Resultate. Warum ist das so?
Die natürliche Herausforderung jeder User Journey
Stellen wir uns vor, wir haben einen Online-Shop mit einer sehr einfachen User-Journey. Diese erstreckt sich von der Startseite über die Kategorien bis zu den Produktseiten. Dort angelangt, kann der Besucher Artikel in den Warenkorb legen und von hier aus den Checkout durchführen.
Bekanntermaßen hat jeder Online-Shop entlang dieses „Funnels“ eine nach hinten heraus stark abnehmende Besucherfrequenz auf einzelnen Seiten. Dies ist zum einen dadurch bedingt, dass es am Anfang des Funnels recht wenige Seiten (z.B. Startseite, Kategorien-Seiten etc.) gibt, welche sich nach hinten heraus in eine Vielzahl an Einzelseiten (z.B. Produktseiten) auffächern. Zum anderen gehen mit jedem Seitenwechsel eine nicht unwesentliche Anzahl von Nutzern verloren – aus diversen Gründen. Ganz am Ende, auf der Success-Page des Checkout, bleiben verhältnismäßig wenige Nutzer pro Tag übrig.
Man kann pauschal sagen: Am Anfang habe ich sehr viele User, über die ich sehr wenige Informationen habe. Im weiteren Verlauf der „Reise“ bis hin zum Kauf bleiben mir nur sehr wenige User erhalten, über die ich jedoch sehr viele Informationen (z.B. CRM-Daten) habe.
Für eine effektive Personalisierung gilt es daher, frühstmöglich folgende Frage zu klären: An welchen Orten meiner Website habe ich einen ausreichenden Datenmix um einen Machine Learning-Algorithmus in die Lage zu versetzen, für jeden Besucher die relevanteste Next-Best-Action vorherzusagen?
Die wirkungsvollste Personalisierung an der bestmöglichen Stelle
Um eine wirkungsvolle Künstliche Intelligenz möglichst ressourceneffizient in meine Website zu integrieren, gilt es zunächst, jene Stellen der User Journeys zu identifizieren, welche das größte Optimierungspotential haben. Wenn diese Quick-Wins einmal realisiert sind, geht es an eine schrittweise Ausweitung der Integration. Strategisch sollte neben der eigentlichen Optimierungsstrecke auch immer das Ziel im Auge behalten werden, dass eine konsolidierte User Journey durch alle Seiten hinweg zu einem kontinuierlicheren Datenstrom führen kann. Dies dient der Erschließung neuer Optimierungscases und fördert die sukzessive Schließung aller Performance Gaps auf meiner Seite.
Seit 2016 ist epicinsights Ihr zuverlässiger Datenspezialist und Technologie-Partner für die Verarbeitung und Analyse von mehrdimensionalen Datenräumen. Unsere Teams aus Projektmanagern, Software-Entwicklern, Data Science- und Machine Learning-Spezialisten begleitet Sie in die Welt der Künstlichen Intelligenz – Hands-on mit Leidenschaft, Zuverlässigkeit und einem nachhaltigen Selbstverständnis.
Postskriptum: Welche Tricks und Möglichkeiten nutzen Sie um den Performance Gap zu überwinden?
Berichten Sie uns doch von Ihren Erfahrungen an lutz@epic-insights.com
Wir freuen uns darauf.