Posts Tagged: ‘analytics’

Was kann #KI im Angesicht der #DSGVO in der Auswertung der Daten für das #Marketing wirklich leisten? #NE019X

27. November 2019 Posted by Stefan Pfeiffer

Das Thema Datenschutz getrieben durch DSGVO, die Auswirkung auf die tägliche Arbeit im Marketing und die Chancen und Risiken von Künstlicher Intelligenz in und für das Marketing waren Themas eines Talks mit Lutz Becker und Gunnar Sohn anläßlich der Next Economy Open 2019. Hier die entsprechende Aufnahme auf YouTube:

Wir haben die verschiedenen Aspekte und Facetten andiskutiert: Vom Geheule und Gejammere der Marketingverantwortlichen angesichts der Datenschutzgrundverordnung, die das Ende der Welt, vor allem aber der Zahl von Interessenten, die sie erreichen, lautstark beklagten. Und die jetzt widerlegt zu sei. scheinen, denn weniger Kontakte, die man anschreiben darf, heißt nicht weniger Erfolg

Offensichtlich kann es sogar ganz anders kommen, wie der Marketing Benchmark Report 2019 von Acoustic zeigt. Demnach sind nach Einführung der DSGVO dass die Öffnungs- und Klickraten von E-Mails seit 2014 stetig gestiegen sind (um 19% bzw. 14%). Das deutet darauf hin, dass die Datenschutzbestimmungen die Unternehmen dazu bringen, sich verstärkt auf saubere, den Regularien entsprechende Listenhygiene und gleichzeitig stärker interessiere und engagierte Abonnenten konzentrieren. Und qualitativ bessere Kontakte kombiniert mit einer guten Zielgruppenansprache in Kampagnen erhöht offensichtlich die Erfolgsrate.

Doch nicht nur die DSGVO jagt Marketingfachleuten, Webseitenbetreibern, Werbetreibenden, besonders aber Agenturen, Verlagen, aber auch Facebook oder. Google den Schauer über den Rücken. Das Cookie-Gespenst geht um: Das explizite OptIn, Cookies zu akzeptieren, und Browser wie Firefox oder Safari sind zwei Dinge, die nicht gerne gesehen werden. Da kommt es schon zu knackigen Aussagen wie der von Stefan Mölling von der Axel Springer-Tochter Media Impact:“Die Mozillas dieser Welt bevormunden sowohl die Nutzer als auch die Gesetzgeber“.

Doch es gibt auch die überlegten Aussagen: „Weniger Daten für Marketing und Vertrieb? Weniger Treibstoff für die Digitalbranche?“, unkt Jochen Schlosser. Er plädiert dafür, nicht hysterisch zu werden und stattdessen den Weg weiter zu gehen, digitale Werbung mit der Einwilligung der User zu verknüpfen. Doch die Werbebranche ist natürlich findig und arbeitet an einer Verlagerung des Trackings auf ID Management-Lösungen, wie sie auch die European NetID Foundation treibt: eine Log-in-Allianz mit möglichst vielen Partnerunternehmen als europäische Alternative zu den GAFA(M)s, den Google, Amazon, Facebook, Apple und Microsoft dieser Welt. Über solches ID Management registrieren sich mit ihren persönlicher Daten gleich für vielen Websites – und die geben dort rechtskonform an Nutzer an, ob und in welchem Umfang sie ihre Daten für Werbung zur Verfügung erhalten wollen.

Doch unterdessen kämpfen und lobbyieren Werbetreibenden und Verlage in seltsamer Allianz mit Google und Facebook – sie streiten sich sonst um die Werbeeinnahmen und sind erbitterte Gegener – in Brüssel gegen beziehungsweise für eine Aufweichung der geplanten und immer wieder verzögerten ePrivacy-Verordnung. Einige EU-Staaten scheinen Verlagen einen Blankoscheck für Online-Tracking gewähren zu wollen, andere blockieren genau das und so haben wir in Brüssel ein Pattsituation.

Unabhängig von explizitem OptIn für Cookies oder von ID Managementplattformen, auf denen die Anwender ihren „Consent“, ihre Zustimmung geben, bleibt eine für mich wesentlich Frage offen: Welcher normalen Anwender:innen versteht denn eigentlich die Privacy-Belehrungen, die dort unterbreitet werden? Welche Anwender:innen nehmen sich die Zeit, die entsprechenden Passagen zu lesen? Ehrlich: Ich tue es nicht, weil ich viel zu faul dafür bin und schnell zu den Inhalten kommen will, die mich interessieren. Meine Antwort, dass ich regelmäßig meine Cookies im Browser lösche.

Zurück zu unserem Thema personalisierte Werbung und Datenschutz für die Kunden: Es geht darum ein Gleichgewicht zu finden. so dass Kunden nicht das Gefühl haben, mit Anzeigen verfolgt zu werden die so präzise sind, dass sie eine Verletzung der Privatsphäre darzustellen scheinen. Eine durchaus komplexe und anspruchsvoll Aufgabe, die uns die kommenden Jahre begleiten wird.

Und in diesem Zusammenhang spielt auch künstliche Intelligenz künftig eine immer wichtiger werdende Rolle. Sie wird im Marketing an den verschiedensten Stellen eingesetzt und man muss sich die entsprechenden Einsatzgebiete sehr genau anschauen. Das reicht von der Erkennung von Mustern, wie sich Kunden auf Webseiten bewegen, über die Bewertung des Umfelds, wo Werbung geschaltet wird, und die automatisierte Ausspielung von Kampagnen (Stichwort Programmatic Advertising), die Vorhersage von Kunden- und Kaufverhalten bis zu Hypertargeting, die Personalisierung auf individueller Ebene. Das reicht eben von der Analyse großer Datenmengen bis zum individuellen Mikrokosmos. Hinzu kommen andere Einsatzgebiete wie Chatbots im Kundenservice oder Vertrieb oder auch der Einsatz im Content Marketing in der Erstellung und Bewertung von Inhalten.

Zum Abschluss dann doch noch einige Anmerkungen zu den mir doch zu plakativen Aussagen über „Datenschutz wie im 18. Jahrhunder“ (so geäußert von Doro Bär und Lutz Becker) oder Daten als Rohöl der digitalen Wirtschaft. Unbenommen ist, dass Daten und der intelligente Auswertung heute ein wichtiges wirtschaftliches (und in manchen Bereichen wie Medizin ein lebenswichtiges) Thema ist. Doch müssen Datenschutz und Nutzung der Daten nicht im Widerspruch stehen. Wie es schief gehen kann, zeigt das aktuelle Beispiel aus den USA, wo Patientendaten einerseits zwecks optimaler Berhandlung und Forschung analysiert werden, andererseits von Google potentiell vermarktet werden.

Daten können und sollten nur dort personalisiert zur Verfügung gestellt werden, wo Anwender explizit auf Basis einer verständlichen Belehrung zugestimmt haben. Daneben kann (und sollte) eine ertragsversprechende Analyse und Verwertung aufgrund anoymisierter Datenbestände eben gerade durch Analytics- und KI-Systeme erfolgen. Unbenommen ist auch, dass wir uns Stillstand nicht leisten können und sollten. Das kann aber andererseits nicht dazu führen, einfach mal den Datenschutz zu vergessen.

Hinweis: Die Themen künstliche Intelligenz, Kampagnenautomatisierung, Personalisierung und Content Marketing sind auch zentrale Themen des Acoustic Launch Events in Stuttgart am 4. Dezember 2019, zu dem ich Interessierte nochmals einlade.

(Stefan Pfeiffer)

 Bild von Gerd Altmann auf Pixabay

Acoustic Launch Events am 4. & 5. Dezember in Stuttgart: Was plant die Nachfolgeorganisation von IBM Watson Marketing? @GoAcoustic!

25. Oktober 2019 Posted by Stefan Pfeiffer

Die vergangenen Tag war ich etwas stiller im Blog und auf den sozialen Kanälen, denn ich bin mitten in der Vorbereitung des Acoustic Launch Events und der Acoustic TechniCon, der ersten europäischen technischen Konferenz, am 4. und 5. Dezember in Stuttgart im Mercedes-Benz Museum. Acoustic, das aus dem Kauf der IBM Watson Marketing-Produkte durch Centerbridge Partners entstanden ist, wird sich mit diesen Events erstmals in Deutschland vorstellen. In den USA ist Acoustic schon ein eigenständiges Unternehmen, in Europa werden die entsprechenden Gesellschaften nach und nach je nach gesetzlichen Vorgaben folgen – Stichwort Betriebsübergang für Deutschland.

Trends und Themen im Marketing und wie Acoustic darauf antwortet

Außenaufnahmen Mercedes-Benz MuseumWas passiert nun am 4. und 5. Dezember in Stuttgart? Das Acoustic Launch Event beginnt um 15:30 Uhr im Mercedes-Benz Museum. Dort wird Natalie Lamb, designierte EMEA-Chefin für Acoustic, zusammen mit Jay Henderson, Senior Vice President für Produkt Management, die Besucher begrüßen. Jay stellt dann die Produktstrategie von Acoustic vor, das die größte unabhängige Marketing Cloud mit einem offenen, lebendigen Ökosystem werden will. Was gerade die Trends und Themen im digitalen Marketing sind, behandelt dann Martin Meyer-Gossner, der auch als Moderator durch die Veranstaltung führt.

Gestern haben wir uns schon einmal ausgetauscht, was denn derzeit auf der Agenda der meisten CMOs steht. Customer Experience, ein möglichst positives und stringentes Erlebnis der Kunden und Interessenten beim Kontakt mit einem Unternehmen, ist und bleibt dabei ganz sicher eine Priorität. Marketing Automation, die Automatisierung von Kampagnen und Aktionen, ist ein weiteres wichtiges Thema, oft eng verwoben mit dem Kundenerlebnis.

Behindert die DSGVO das Marketing oder führt sie gar zu besserer Qualität?

All das funktioniert aber nicht ohne eine vernünftige Datenbasis. Und hier waren Martin und ich uns einig, dass noch viel zu tun ist, um alle Datensilos und -töpfe zu erschließen und wirklich für besagte Kundenerlebnisse zu nutzen. Durch die DSGVO scheint – so Martin – noch zusätzliche Verunsicherung in den Marketingabteilungen eingezogen zu sein. Der aktuelle Benchmark von Acoustic zieht da eher eine positive Zwischenbilanz: Durch entsprechende Regularien ist die Datenqualität sogar besser geworden, was man beispielsweise an den Click Throughs und Öffnungsraten von E-Mails nachverfolgen kann.

Meinungsaustauch und Diskussion im Mercedes-Benz Museum

D584416.jpgGenau an diesen Stellen gilt es dann auch, das Thema künstliche Intelligenz zu hinterfragen. Was kann KI im Angesicht der DSGVO in der Auswertung der Daten für das Marketing wirklich leisten? Wir haben sicher genug Stoff für eine interessante Diskussion mit den Referenten und dem Publikum. Es haben sich ja schon wortgewaltige Experten mit pointierter Meinung angemeldet. Und wir sind auch noch auf der Suche nach ein oder zwei Sprechern von Unternehmen, die zu den Marketingtrends ihre Meinung haben. Rund um das Mercedes-Benz Museum und in Stuttgart sitzen ja einige namhafte Unternehmen.

Nach der angedachten Diskussion können wir uns dann anschließend beim Get Together weiter austauschen und nicht nur für Mercedes-Fahrerinnen und -Fahrer bieten wir Führungen durch die faszinierende Welt des Mercedes-Benz Museums an. Ich freue mich auf jeden Fall auf diesen spannenden Nachmittag und Abend, der für alle Marketingverantwortlichen und -interessierten sicherlich sehr spannend werden wird.

Technik hautnah: Unter die Haube der Acoustic-Lösungen schauen

Am kommenden Tag, dem 5. Dezember, kann man dann unter die Haube der Acoustic-Plattform und der einzelnen Produkte schauen. Wir laden zur ersten technischen Konferenz, der Acoustic TechniCon, ein. Dazu ziehen wir im Mercedes-Benz Museum aus dem Bereich „Faszination Technik“ in das Casino auf dem (glaube ich) obersten Stockwerk um. Doch nicht durch den spektakuläre Blick auf das Stadion des VfB Stuttgart ablenken lassen! Wer mehr darüber erfahren will, wie Acoustic die oben angesprochenen Themen der Integration von Daten, der Nutzung von künstlicher Intelligenz für Customer Experience und Marketing Automation angeht, sollte aufmerksam zuhören.

IMG_2766Durch den Tag führen Avril Couper und Mateusz Urban und Kolleginnen aus der Entwicklung werden direkt vor Ort sein, denn in Böblingen sitzen einige der Developer von (bald) Acoustic, die insbesondere an dem Acoustic Content-Produkt arbeiten. Nachdem Jay Henderson an diesem Tag technisch tiefer in die Roadmap eingestiegen ist, wird Thomas Stober aus dem Labor Acoustic Content detailliert unter dem Titel „Content as a Service and Web Sites in a Omnichannel World“ vorstellen- bestimmt ganz besonders interessant, direkt von der Entwicklung mehr über die Pläne zu erfahren.

Die (bald) Acoustic-Entwickler aus Böblingen direkt vor Ort treffen

Mike Bean und Dan Carter erklären danach, wie man Benutzerverhalten mit Acoustic Analytics besser verstehen kann, Kessy Hamann und David Kerr stellen unter anderem den neuen Message Composer von Acoustic Campaign, der Marketing Automation-Komponente der Plattform vor. Das Thema Erschließung und Nutzung von Daten ist wie schon mehrmals erwähnt besonders wichtig. Bernd Schlösser wird Acoustic Exchange, das Modul, mit dem verschiedenste Datenquellen angezapft und integriert werden können, behandeln. Und natürlich will das Produktmanagement und die Entwicklung auch Feedback und Ideen. Diese können während der gesamten Veranstaltung und im abschließenden Panel vorgebracht und diskutiert werden. Am Nachmittag sollten wir dann hoffentlich auf zwei spannende Tage zurückblicken und uns mit neuen Ideen und Lösungsansätzen den täglichen Herausforderungen im Marketing widmen können.

Ich hoffe, ich habe Appetit auf die beiden Events gemacht. Hier kann man sich anmelden und ich freue mich darauf, viele neue und bekannte Gesichter in Stuttgart begrüßen zu können.

Kein Ökosystem ohne ein Netzwerk kompetenter Partner

Und ich will auch nicht versäumen auf eine weitere Veranstaltung hinzuweisen, die vor dem Launch Event stattfindet. Über das Acoustic Ökosystem habe ich bereits geschrieben. Doch dabei geht es nicht nur um Technologien von Acoustic und die absolut notwendige Integration von Produkten andere MarTech- und CRM-Anbieter. Zu einem Ökosystem gehören natürlich auch Geschäftspartner, Integratoren, Agenturen und Beratungsunternehmen aus dem Marketingumfeld. Acoustic setzt genau auf ein solches Netzwerk, will dieses fördern und ausbauen.

Deshalb treffen sich am 4. Dezember vor dem Launch Event bestehende und potentielle neue Partner von Acousic zu einem Austausch im nahe am Mercedes-Benz Museum gelegenen Hilton Garden Inn. Dort werden die EMEA-Partnerverantwortlichen Derick Wiesner und Graeme Mclaren zusammen mit Franziska Vielmeier aus der DACH-Region das Partnerprogramm vorstellen und über den gemeinsamen Go-To-Market im verbleibenden Jahr und besonders 2020 mit interessierten Partnern sprechen. Anmelden kann man sich auch hier über besagten Link.

(Stefan Pfeiffer)

AdminCamp 2016: Blick über den Tellerrand – IBM Business Analytics

7. Oktober 2016 Posted by Thomas Bahn

AdminCamp
Mal was ganz anderes - der sprichwörtliche Blick über den Tellerrand:
IBM wirbt momentan massiv für die Watson-Dienste (Cloud-only) und baut Analytics in die vorhandenen Produkte ein (IBM Connections, IBM Domino Verse Edition).

Deshalb habe ich die Teilnehmer in dieser Session kurz theoretisch in das Thema eingeführt, gezeigt, welche Produkte IBM im Portfolio (subjektive Auswahl), und IBM Cognos TM1 live installiert.

Hier die Präsentation zu meinem Vortrag in Track 2, Session 1: Blick über den Tellerrand - IBM Business Analytics:

AdminCamp 2016: Blick über den Tellerrand – IBM Business Analytics

7. Oktober 2016 Posted by Thomas Bahn

AdminCamp
Mal was ganz anderes - der sprichwörtliche Blick über den Tellerrand:
IBM wirbt momentan massiv für die Watson-Dienste (Cloud-only) und baut Analytics in die vorhandenen Produkte ein (IBM Connections, IBM Domino Verse Edition).

Deshalb habe ich die Teilnehmer in dieser Session kurz theoretisch in das Thema eingeführt, gezeigt, welche Produkte IBM im Portfolio (subjektive Auswahl), und IBM Cognos TM1 live installiert.

Hier die Präsentation zu meinem Vortrag in Track 2, Session 1: Blick über den Tellerrand - IBM Business Analytics:

IBM Insight Konferenz in Las Vegas

30. Oktober 2015 Posted by Thomas Kraus

Unter dem Motto 'Lead the Insight Economy' fand vom 25.-29. Oktober 2015 die IBM Insight Konferenz statt. Es ist die größte weltweite Veranstaltung zum Thema Big Data und Analytics. Mit rund 14.000 Teilnehmern und 1.600 sessions ist eine Vielzahl an Themen geboten, incl. einer großen Solution EXPO mit über 100 Sponsoren und Ausstellern.

Transform your Industry, Empower Yourself und Disrupt Your Marketplace waren die Aufhänger für die General Sessions - als Motivation für die Teilnehmer, sich den jeweiligen Themengebieten zu widmen. Vielen neue Ideen und Ansätze zu Advanced Analytics, Data Management, Internet of Things, Hadoop + Spark, Mobile, Cloud, Industry, Systems + Architecture, Content Management, Integration + Governance und Watson wurden mit einer Vielzahl von Sessions untermauert.

Highlight war auch die Ankündigung, dass IBM plant, das Produkt und Technologie Geschäft von 'The Weather Company' zu übernehmen.

ibm.com/ibmandweather

Die Aquisition würde IBM's kognitive und analytische Plattformen zusammenbringen mit der dynamischen Cloud Data Plattform von The Weather Company.

dev@insight umfasste einen Bereich dediziert für Techies, die für die Insight Economy entwickeln. Anwendungsentwickler konnten hier Hands-On Erfahrungen machen mit Watson, Spark, Analytics, Bluemix, Mobile und Security.

Hadoop und Spark waren auch wichtiger Teil der Konferenz, insbesondere bei Apache Spark ist IBM in eine Vorreiter-Rolle gegangen, da die Open Source Technologie Spark in eine Vielzahl von Produkten Einzug erhält.

Kundenvorträge und Erfahrungsberichte waren ebenfalls ein wichtiger Bestandteil, auch europäische Kunden waren hier vertreten.

Hier kann man einen Eindruck von der IBM Insight 2015 bekommen:

http://ibmgo.com

http://ibmevents.tumblr.com

#ibminsight

 

Der einsame Kampf des Kunden gegen den Online-Shop. Wie CEM (Customer Experience Management) Antworten auf unbeantwortete Fragen nach dem WARUM liefern kann.

3. August 2015 Posted by Rüdiger Reh

Teil 2 von 3

Warum kommt es nicht zum Kaufabschluss?

image
Beim Online-Shoppen kommt es schnell zu Problemen und anders als im Geschäft, hat man hier nicht direkt einen Ansprechpartner, der helfen kann. Die Folge ist, dass der Kauf häufig abgebrochen wird. Mit einem Customer Experience Management (CEM) Tool kann jeder Onlineshop-Besitzer besser verstehen, was in seinem Shop passiert. Dafür ist es wichtig, dass das Tool 100% der Kunden-Daten im Shop erfasst. Sampling, also das Erfassen von nur einem Teil des Traffics, spart zwar Geld, kostet aber mehr, weil niemand sagen kann, ob nicht gerade der Teil ausgefiltert wird, wo Schwierigkeiten auftraten. Sobald der Traffic erfasst und verarbeitet wird, ermöglicht ein CEM-Werkzeug erste, einfache Adhoc-Analysen wie z.B. Zeige mir alle Kunden, die alle Schritte des Einkaufsprozesses durchlaufen, aber trotzdem nicht gekauft haben! Die Replay-Funktion eines CEM-Tools ermöglicht nun die Wiedergabe einiger Kunden-Sessions, wie in einem Film. Wichtig ist, dass der echte HTML-Code des Kunden wiedergegeben wird und nicht etwa eine Link-Sammlung oder Snapshots der besuchten Seiten. Das Nachstellen von aufgetretenen Problemen verschlingt üblicherweise Unmengen an Zeit, Ressourcen und damit Geld, mit den Daten aus einem CEM-Werkzeug lässt sich dies wesentlich schneller und effizienter bewerkstelligen.

                                                                                   

Verlorene Umsätze retten

imageEin gutes CEM-Werkzeug bietet einen weiteren Vorteil. Es ist nicht nur in der Lage zu zeigen, wie viele und welche Kunden von einem Problem betroffen waren, sondern, da es ja auch den Warenkorb zum Zeitpunkt des Abbruchs kennt, kann es mit zwei Mausklicks darstellen, wieviel Umsatz durch dieses Problem verloren ging. Und mit diesen Informationen können die immer zu knappen Ressourcen in der Entwicklung und IT endlich auf Basis von harten Fakten priorisiert werden und nicht mehr nur nach Bauchgefühl oder Zahl der eingegangenen Beschwerden.

Außerdem lassen sich die so gewonnen Daten weiter nutzen, indem man sie automatisch oder manuell kontaktiert und versucht, den entgangenen Umsatz noch zu realisieren. Kunden, die derartige Probleme beim Bestellen hatten, werden diese Art der Kontaktaufnahme mit hoher Wahrscheinlichkeit als guten Service empfinden. Ein gutes CEM Tool sollte also die Möglichkeit bieten, den durch ein bestimmtes Problem entgangenen Umsatz zu beziffern und diesen Umsatz noch zu retten.

 

 

 

Der Blindflug des Kundenberaters

imageViele Online-Shopper haben bestimmt auch schon Erfahrung mit dem Kundenservice gemacht. Denn wenn man eine Ware unbedingt haben möchte, aber Probleme beim Kauf auftreten, bleibt einem nichts anderes übrig, als im Call Center anzurufen. Und hier traktieren viele Anbieter ihre potentiellen Kunden mit einer weiteren Hürde. Da der Kundenberater ja blind fliegt und nicht sehen kann, was dem Kunden widerfahren ist, stellt er eine Menge Fragen. Auch hier bietet ein gutes CEM Werkzeug wertvolle Dienste. Der Kundenberater kann sich die aktuelle Session des Kunden auf den Bildschirm holen und sieht genau, was der Kunde gemacht hat, was passiert ist und welche Fehlermeldungen das System anzeigt. Mit diesem sogenannten Shadow-Browsing ist der Agent in der Lage seine Time-to-Resolution, also das Kriterium an dem er persönlich gemessen wird, deutlich zu senken und damit weitere Kosten zu sparen. Aber vor allem kann er dem Kunden schneller und effizienter helfen, ohne endlose Fragen zu stellen, die die meisten Kunden überfordern. Das führt wiederum zu höherer Kundenzufriedenheit und damit zu höherem Umsatz.

 

Weitere Einsatzmöglichkeiten eines Customer Experience Management Tools zeige ich im dritten Teil meines Blogs an dieser Stelle am 31. August.

Gerne können Sie diese und andere Themen mit unseren Spezialisten intensiv und ausführlich diskutieren! Bitte besuchen Sie uns:

IBM auf der dmexco 2015
IBM Business Connect 2015

Der einsame Kampf des Kunden gegen den Online-Shop. Wie CEM (Customer Experience Management) Antworten auf unbeantwortete Fragen nach dem WARUM liefern kann.

3. August 2015 Posted by Rüdiger Reh

Teil 2 von 3

Warum kommt es nicht zum Kaufabschluss?

image
Beim Online-Shoppen kommt es schnell zu Problemen und anders als im Geschäft, hat man hier nicht direkt einen Ansprechpartner, der helfen kann. Die Folge ist, dass der Kauf häufig abgebrochen wird. Mit einem Customer Experience Management (CEM) Tool kann jeder Onlineshop-Besitzer besser verstehen, was in seinem Shop passiert. Dafür ist es wichtig, dass das Tool 100% der Kunden-Daten im Shop erfasst. Sampling, also das Erfassen von nur einem Teil des Traffics, spart zwar Geld, kostet aber mehr, weil niemand sagen kann, ob nicht gerade der Teil ausgefiltert wird, wo Schwierigkeiten auftraten. Sobald der Traffic erfasst und verarbeitet wird, ermöglicht ein CEM-Werkzeug erste, einfache Adhoc-Analysen wie z.B. Zeige mir alle Kunden, die alle Schritte des Einkaufsprozesses durchlaufen, aber trotzdem nicht gekauft haben! Die Replay-Funktion eines CEM-Tools ermöglicht nun die Wiedergabe einiger Kunden-Sessions, wie in einem Film. Wichtig ist, dass der echte HTML-Code des Kunden wiedergegeben wird und nicht etwa eine Link-Sammlung oder Snapshots der besuchten Seiten. Das Nachstellen von aufgetretenen Problemen verschlingt üblicherweise Unmengen an Zeit, Ressourcen und damit Geld, mit den Daten aus einem CEM-Werkzeug lässt sich dies wesentlich schneller und effizienter bewerkstelligen.

                                                                                   

Verlorene Umsätze retten

imageEin gutes CEM-Werkzeug bietet einen weiteren Vorteil. Es ist nicht nur in der Lage zu zeigen, wie viele und welche Kunden von einem Problem betroffen waren, sondern, da es ja auch den Warenkorb zum Zeitpunkt des Abbruchs kennt, kann es mit zwei Mausklicks darstellen, wieviel Umsatz durch dieses Problem verloren ging. Und mit diesen Informationen können die immer zu knappen Ressourcen in der Entwicklung und IT endlich auf Basis von harten Fakten priorisiert werden und nicht mehr nur nach Bauchgefühl oder Zahl der eingegangenen Beschwerden.

Außerdem lassen sich die so gewonnen Daten weiter nutzen, indem man sie automatisch oder manuell kontaktiert und versucht, den entgangenen Umsatz noch zu realisieren. Kunden, die derartige Probleme beim Bestellen hatten, werden diese Art der Kontaktaufnahme mit hoher Wahrscheinlichkeit als guten Service empfinden. Ein gutes CEM Tool sollte also die Möglichkeit bieten, den durch ein bestimmtes Problem entgangenen Umsatz zu beziffern und diesen Umsatz noch zu retten.

 

 

 

Der Blindflug des Kundenberaters

imageViele Online-Shopper haben bestimmt auch schon Erfahrung mit dem Kundenservice gemacht. Denn wenn man eine Ware unbedingt haben möchte, aber Probleme beim Kauf auftreten, bleibt einem nichts anderes übrig, als im Call Center anzurufen. Und hier traktieren viele Anbieter ihre potentiellen Kunden mit einer weiteren Hürde. Da der Kundenberater ja blind fliegt und nicht sehen kann, was dem Kunden widerfahren ist, stellt er eine Menge Fragen. Auch hier bietet ein gutes CEM Werkzeug wertvolle Dienste. Der Kundenberater kann sich die aktuelle Session des Kunden auf den Bildschirm holen und sieht genau, was der Kunde gemacht hat, was passiert ist und welche Fehlermeldungen das System anzeigt. Mit diesem sogenannten Shadow-Browsing ist der Agent in der Lage seine Time-to-Resolution, also das Kriterium an dem er persönlich gemessen wird, deutlich zu senken und damit weitere Kosten zu sparen. Aber vor allem kann er dem Kunden schneller und effizienter helfen, ohne endlose Fragen zu stellen, die die meisten Kunden überfordern. Das führt wiederum zu höherer Kundenzufriedenheit und damit zu höherem Umsatz.

 

Weitere Einsatzmöglichkeiten eines Customer Experience Management Tools zeige ich im dritten Teil meines Blogs an dieser Stelle am 31. August.

Gerne können Sie diese und andere Themen mit unseren Spezialisten intensiv und ausführlich diskutieren! Bitte besuchen Sie uns:

IBM auf der dmexco 2015
IBM Business Connect 2015

Der einsame Kampf des Kunden gegen den Online-Shop. Wie CEM (Customer Experience Management) Antworten auf unbeantwortete Fragen nach dem WARUM liefern kann.

3. August 2015 Posted by Rüdiger Reh

Teil 2 von 3

Warum kommt es nicht zum Kaufabschluss?

image
Beim Online-Shoppen kommt es schnell zu Problemen und anders als im Geschäft, hat man hier nicht direkt einen Ansprechpartner, der helfen kann. Die Folge ist, dass der Kauf häufig abgebrochen wird. Mit einem Customer Experience Management (CEM) Tool kann jeder Onlineshop-Besitzer besser verstehen, was in seinem Shop passiert. Dafür ist es wichtig, dass das Tool 100% der Kunden-Daten im Shop erfasst. Sampling, also das Erfassen von nur einem Teil des Traffics, spart zwar Geld, kostet aber mehr, weil niemand sagen kann, ob nicht gerade der Teil ausgefiltert wird, wo Schwierigkeiten auftraten. Sobald der Traffic erfasst und verarbeitet wird, ermöglicht ein CEM-Werkzeug erste, einfache Adhoc-Analysen wie z.B. Zeige mir alle Kunden, die alle Schritte des Einkaufsprozesses durchlaufen, aber trotzdem nicht gekauft haben! Die Replay-Funktion eines CEM-Tools ermöglicht nun die Wiedergabe einiger Kunden-Sessions, wie in einem Film. Wichtig ist, dass der echte HTML-Code des Kunden wiedergegeben wird und nicht etwa eine Link-Sammlung oder Snapshots der besuchten Seiten. Das Nachstellen von aufgetretenen Problemen verschlingt üblicherweise Unmengen an Zeit, Ressourcen und damit Geld, mit den Daten aus einem CEM-Werkzeug lässt sich dies wesentlich schneller und effizienter bewerkstelligen.

                                                                                   

Verlorene Umsätze retten

imageEin gutes CEM-Werkzeug bietet einen weiteren Vorteil. Es ist nicht nur in der Lage zu zeigen, wie viele und welche Kunden von einem Problem betroffen waren, sondern, da es ja auch den Warenkorb zum Zeitpunkt des Abbruchs kennt, kann es mit zwei Mausklicks darstellen, wieviel Umsatz durch dieses Problem verloren ging. Und mit diesen Informationen können die immer zu knappen Ressourcen in der Entwicklung und IT endlich auf Basis von harten Fakten priorisiert werden und nicht mehr nur nach Bauchgefühl oder Zahl der eingegangenen Beschwerden.

Außerdem lassen sich die so gewonnen Daten weiter nutzen, indem man sie automatisch oder manuell kontaktiert und versucht, den entgangenen Umsatz noch zu realisieren. Kunden, die derartige Probleme beim Bestellen hatten, werden diese Art der Kontaktaufnahme mit hoher Wahrscheinlichkeit als guten Service empfinden. Ein gutes CEM Tool sollte also die Möglichkeit bieten, den durch ein bestimmtes Problem entgangenen Umsatz zu beziffern und diesen Umsatz noch zu retten.

 

 

 

Der Blindflug des Kundenberaters

imageViele Online-Shopper haben bestimmt auch schon Erfahrung mit dem Kundenservice gemacht. Denn wenn man eine Ware unbedingt haben möchte, aber Probleme beim Kauf auftreten, bleibt einem nichts anderes übrig, als im Call Center anzurufen. Und hier traktieren viele Anbieter ihre potentiellen Kunden mit einer weiteren Hürde. Da der Kundenberater ja blind fliegt und nicht sehen kann, was dem Kunden widerfahren ist, stellt er eine Menge Fragen. Auch hier bietet ein gutes CEM Werkzeug wertvolle Dienste. Der Kundenberater kann sich die aktuelle Session des Kunden auf den Bildschirm holen und sieht genau, was der Kunde gemacht hat, was passiert ist und welche Fehlermeldungen das System anzeigt. Mit diesem sogenannten Shadow-Browsing ist der Agent in der Lage seine Time-to-Resolution, also das Kriterium an dem er persönlich gemessen wird, deutlich zu senken und damit weitere Kosten zu sparen. Aber vor allem kann er dem Kunden schneller und effizienter helfen, ohne endlose Fragen zu stellen, die die meisten Kunden überfordern. Das führt wiederum zu höherer Kundenzufriedenheit und damit zu höherem Umsatz.

 

Weitere Einsatzmöglichkeiten eines Customer Experience Management Tools zeige ich im dritten Teil meines Blogs an dieser Stelle am 31. August.

Gerne können Sie diese und andere Themen mit unseren Spezialisten intensiv und ausführlich diskutieren! Bitte besuchen Sie uns:

IBM auf der dmexco 2015
IBM Business Connect 2015

Der einsame Kampf des Kunden gegen den Online-Shop. Wie CEM (Customer Experience Management) Antworten auf unbeantwortete Fragen nach dem WARUM liefern kann.

15. Juli 2015 Posted by Rüdiger Reh

Teil 1 von 3

Ohne CEM wird kein Onlineshop langfristig überleben

image

Ihr CVV Code ist falsch - ist eine von zahllosen, widersprüchlichen oder schlicht falschen Meldungen, die uns beinahe täglich beim Online-Einkauf begegnet. Natürlich denkt man zunächst, man habe einen Fehler gemacht, aber nach dem dritten Versuch gibt man sicher die richtigen drei Zahlen einer gültigen Kreditkarte ein. Aber das System beharrt darauf: Ihr CVV Code ist falsch.

 

Woran liegt das?, fragt sich der Kunde. Über solche Erlebnisse kann sicher jeder, der Online shoppt berichten, mindestens einmal, wahrscheinlich sogar öfter. Meldungen die keinen Sinn ergeben oder auch nach Korrektur des Fehlers beharrlich weiter erscheinen oder schlicht keinen Hinweis auf das wirkliche Problem enthalten, gehören leider immer noch zum Alltag des geneigten Online-Shoppers.

 

Verstehen was im Online-Shop passiert

Doch wie können Shop-Anbieter erkennen, wo derartige Merkwürdigkeiten ihren Kunden das Leben schwer und manchmal das Einkaufen unmöglich machen? Um zu verstehen was auf der Website und im Online-Shop passiert, wurde in den letzten zehn Jahren mehr oder weniger viel Geld in die Webanalyse gesteckt. Egal ob Google Analytics oder Premium Lösungen wie IBM Digital Analytics oder Adobe SiteCatalyst, die Webanalyse gehört inzwischen zum guten Ton. Doch bei näherem Hinsehen zeigt sich, dass die Webanalyse zwar notwendige Informationen darüber liefert WAS auf der Website passiert, aber leider keine Antworten zum WARUM gibt.

 

Schon seit Jahren gibt es auf dem Markt entsprechende Tools, als ideale Ergänzung der zwingend notwendigen Webanalyse - Customer Experience Management (CEM) Tools wie u.a. IBM Tealeaf. Wenn dieses Thema angesprochen wird, hört man oft CEM? Brauchen wir nicht, machen wir alles mit unserer Webanalyse-Lösung! Dieser Ansatz greift aber, vermutlich aus Angst ein weiteres Tool mit hohen Implementierungskosten anzuschaffen, zu kurz, denn Webanalyse zeigt nur WAS passiert, aber nicht WARUM.

image

Was verbirgt sich hinter dem Akronym CEM ?

Wo und wie kann CEM helfen, das Einkaufserlebnis des Kunden zu optimieren, die Kundenzufriedenheit und damit die Kundenbindung zu erhöhen, Kosten zu sparen und letztendlich die Conversion zu erhöhen?

Leider ist CEM kein geschützter Begriff und jeder Hersteller versteht darunter etwas völlig anderes. In diesem Zusammenhang versteht man unter CEM ein Werkzeug und die entsprechenden Methoden, die aufzeigen und verstehen helfen wo und vor allem WARUM Kunden Probleme haben, auf einer Website eine Transaktion erfolgreich abzuschließen. Dies kann ein Kauf, eine Bestellung, eine Buchung oder auch nur das Anlegen eines Kundenkontos oder die Registrierung für den Newsletter sein. Und dies natürlich nicht nur im klassischen Web, also auf einem PC mit Browser, sondern ganz besonders auch im dramatisch wachsenden mobilen Kanal, auf Tabletts oder Smartphones.

 

Doch ein CEM-Tool ist nicht nur zur Aufklärung von Problemen einsetzbar, sondern bietet auch viele weitere Vorteile:

  • Verlorene Umsätze retten
  • Bessere Beratung des Kunden am Telefon
  • Überwachung des Pricing
  • Störungen in Usability und Technik erkennen

Diese Vorteile werde ich in den nächsten beiden Posts näher beschreiben..

Der einsame Kampf des Kunden gegen den Online-Shop. Wie CEM (Customer Experience Management) Antworten auf unbeantwortete Fragen nach dem WARUM liefern kann.

15. Juli 2015 Posted by Rüdiger Reh

Teil 1 von 3

Ohne CEM wird kein Onlineshop langfristig überleben

image

Ihr CVV Code ist falsch - ist eine von zahllosen, widersprüchlichen oder schlicht falschen Meldungen, die uns beinahe täglich beim Online-Einkauf begegnet. Natürlich denkt man zunächst, man habe einen Fehler gemacht, aber nach dem dritten Versuch gibt man sicher die richtigen drei Zahlen einer gültigen Kreditkarte ein. Aber das System beharrt darauf: Ihr CVV Code ist falsch.

 

Woran liegt das?, fragt sich der Kunde. Über solche Erlebnisse kann sicher jeder, der Online shoppt berichten, mindestens einmal, wahrscheinlich sogar öfter. Meldungen die keinen Sinn ergeben oder auch nach Korrektur des Fehlers beharrlich weiter erscheinen oder schlicht keinen Hinweis auf das wirkliche Problem enthalten, gehören leider immer noch zum Alltag des geneigten Online-Shoppers.

 

Verstehen was im Online-Shop passiert

Doch wie können Shop-Anbieter erkennen, wo derartige Merkwürdigkeiten ihren Kunden das Leben schwer und manchmal das Einkaufen unmöglich machen? Um zu verstehen was auf der Website und im Online-Shop passiert, wurde in den letzten zehn Jahren mehr oder weniger viel Geld in die Webanalyse gesteckt. Egal ob Google Analytics oder Premium Lösungen wie IBM Digital Analytics oder Adobe SiteCatalyst, die Webanalyse gehört inzwischen zum guten Ton. Doch bei näherem Hinsehen zeigt sich, dass die Webanalyse zwar notwendige Informationen darüber liefert WAS auf der Website passiert, aber leider keine Antworten zum WARUM gibt.

 

Schon seit Jahren gibt es auf dem Markt entsprechende Tools, als ideale Ergänzung der zwingend notwendigen Webanalyse - Customer Experience Management (CEM) Tools wie u.a. IBM Tealeaf. Wenn dieses Thema angesprochen wird, hört man oft CEM? Brauchen wir nicht, machen wir alles mit unserer Webanalyse-Lösung! Dieser Ansatz greift aber, vermutlich aus Angst ein weiteres Tool mit hohen Implementierungskosten anzuschaffen, zu kurz, denn Webanalyse zeigt nur WAS passiert, aber nicht WARUM.

image

Was verbirgt sich hinter dem Akronym CEM ?

Wo und wie kann CEM helfen, das Einkaufserlebnis des Kunden zu optimieren, die Kundenzufriedenheit und damit die Kundenbindung zu erhöhen, Kosten zu sparen und letztendlich die Conversion zu erhöhen?

Leider ist CEM kein geschützter Begriff und jeder Hersteller versteht darunter etwas völlig anderes. In diesem Zusammenhang versteht man unter CEM ein Werkzeug und die entsprechenden Methoden, die aufzeigen und verstehen helfen wo und vor allem WARUM Kunden Probleme haben, auf einer Website eine Transaktion erfolgreich abzuschließen. Dies kann ein Kauf, eine Bestellung, eine Buchung oder auch nur das Anlegen eines Kundenkontos oder die Registrierung für den Newsletter sein. Und dies natürlich nicht nur im klassischen Web, also auf einem PC mit Browser, sondern ganz besonders auch im dramatisch wachsenden mobilen Kanal, auf Tabletts oder Smartphones.

 

Doch ein CEM-Tool ist nicht nur zur Aufklärung von Problemen einsetzbar, sondern bietet auch viele weitere Vorteile:

  • Verlorene Umsätze retten
  • Bessere Beratung des Kunden am Telefon
  • Überwachung des Pricing
  • Störungen in Usability und Technik erkennen

Diese Vorteile werde ich in den nächsten beiden Posts näher beschreiben..

Exklusives IBM Event auf der CeBIT 2015: New Way To Work featuriung IBM Verse und IBM Watson Analytics

5. März 2015 Posted by Stefan Pfeiffer

image

Interesse an der Zukunft von E-Mail? Sie finden Cognitive Computing und Systeme wie IBM Watson Analytics spannend? Dann möchten wir Sie herzlich zu unserer exklusiven IBM Veranstaltung “A New Way to Work" einladen, die wir

am Mittwoch, den 18. März,
zwischen 15:30 und 19:00 Uhr
in Hannover auf der CeBIT

durchführen. Dort sprechen Futuristen, Experten und Kunden über die neue Art zu arbeiten.

Die Veranstaltung ist eine Kombination kurzer, knackiger Vorträge und Demos:
  • Hören Sie von Futuristen und IBM Kunden, wie sie die Konvergenz von Daten mit sozialen und mobile Technologien nutzen, um eine neue Art des Arbeitens zu erfinden.
  • Sehen Sie live, wie IBM Verse einen Arbeitsplatz schafft, der Sie und Ihre Arbeit versteht, der die Unordnung und Informationsüberflutung eindämmt, der Ihnen hilft, zu fokussieren.
  • Erfahren Sie, wie Sie mit IBM Watson Analytics die Daten gewinnen, die Sie brauchen, um Ihr Geschäft und künftige Entwicklungem noch besser zu verstehen, um erfolgreich zu sein.
  •  Lernen Sie, wie IBM Design Thinking Ihr Geschäft verändern kann, durch neue Erfahrungen, zusammenzuarbeiten, besser zu arbeiten und für Sie zu arbeiten.

Melden Sie sich noch heute mit dem Promo-Code „signature“ unter www.ibmatcebit.com/register an.

Sollten Sie organisatorische Fragen haben, steht Ihnen das IBM CeBIT Team unter cebit@de.ibm.com gerne zur Verfügung.

Wir freuen uns sehr, Sie in Hannover begrüßen zu dürfen!


 

IBM Insight 2014 Konferenz in Las Vegas

6. November 2014 Posted by Thomas Kraus

Vom 26. Bis 30. Oktober 2014 fand in Las Vegas, USA die IBM Insight 2014 Konferenz statt. 

Die IBM Insight (bisher bekannt unter dem Namen IOD – Information on Demand) ist die zentrale Kundenkonferenz zum Thema Big Data und Analytics, mit mehr als 13.000 Teilnehmern.

Die Tracks unterteilen sich in die Gebiete Business Analytics, Information Management, Enterprise Content Management, Business und Industry Leadership und Watson/Cognitive Computing. Desweiteren sind die Themen Cloud, Security und Infrastructure Matters ebenfalls ein wichtiger Bestandteil der Konferenz.

Innerhalb der IBM Insight gab es den Bereich <dev>@Insight, der speziell für Anwendungsentwickler und Practitioner ausgelegt war, um hands-on Erfahrungen mit Technologien wie Bluemix, Softlayer, API’s, devOps, Watson cognitive und dem Internet of Things zu ermöglichen.

Es gab eine Reihe von Ankündigungen, hier exemplarisch einige Highlights:

  • IBM DataWorks, um Rohdaten in relevante Informationen zu transformieren und für Business User und Anwendungsentwickler zur Verfügung zu stellen
  • IBM dashDB, als neuer Datawarehouse und Analytics Service in der Cloud
  • IBM Cloudant Data Layer Local Edition, als NoSQL Datenbank um Mobile, Web und Internet of Things Anwendungen zu unterstützen
  • IBM PureSystems for Analytics N3001, als neues Modell der PureData System for Analytics Familie mit bis zu 1,5 PB User Kapazität
  • IBM InfoSphere System z Connector for Hadoop, um Datensourcen auf dem Mainframe (DB2, IMS, VSAM, log data) effizient und sicher in ein Hadoop Cluster zu integrieren

Ein großer Meilenstein war die Ankündigung der Partnerschaft zwischen IBM und Twitter, um die Daten von Twitter mit IBM Analytics Lösungen zu integrieren. Damit sollen Unternehmen ihre Kunden, Märkte und Trends besser verstehen.

Alles in allem eine sehr inspirierende Konferenz, mit zahlreichen neuen Ideen und Denkanstößen für Anwendungsfälle in verschiedenen Industrien, als Beispiel Watson Analytics und Einsatzgebiete im Gesundheitswesen bei der Krebsvorsorge.

Der Konferenz-Blog für weitere Informationen:

http://ibmevents.tumblr.com/

 

Big Data, Google, Facebook – data privacy still en vogue?

4. November 2014 Posted by Andre Kres

imageTechnologies for business analystics like data mining, big data and real time data look on the end of the day like a mind reading exercise for the customer. Knowing key customers well enough is the magic, which creates market leaders!

On the top level is it not too bad for the customer itself. The shop, which has the product on shelf the customer likes at a reasonable price he / she is prepared to afford, will be the shop of their choice very soon. Once the data are on premise of the company, what happens to it next?

I would like to introduce multiple aspects of privacy in connection with data and information.

 

Let us construct something. Imagine your son wants to celebrate his birthday in school by sharing some jelly babies with his friends. This clever boy realized already, that some of his friends have a Muslim religion and are not allowed to eat jelly babies made of pork jelly. By his social competence he realizes, that he can't share jelly babies in class without sharing with his Muslim friends. As a cosmopolitan parent you would look online for beef jelly babies. The keyword you enter is „halal“. Assuming you are not Muslim you need to look over a lot search results for a long time. Okay, now let us go one step further:
You wife works for US Aid and travels regularly to countries like Afghanistan...
In addition to the search requests for halal food comes a round trip airline ticket to Kabul, a couple of phone or skype calls and of course lot of internet research about Afghanistan.

You can imagine how this data may be interpreted, if it’s taken out of the context.

 

Edward Snowden opened the debate. People start thinking about how they are using the internet; thinking about their data available there. Facebook loses members. Deutsche Telekom is accused of giving the NSA access to their networks. Is the internet still save to use? Or has it ever been save? Can I still trust companies as oldest data privacy institution, since Deutsche Telekom got under suspicion of leaking out data or allow total control to the NSA?

I personally believe data privacy is more important than ever. In order to protect their business, companies need to be recognized as a trusted harbor for data!

 

There is an argument that the police needs access to the data in order to prevent crime. I believe this is wrong. The police needs information - not data.  For instance if they look for a stolen green car, they don't need to know the color of the car a suspect drives. They just need to know, whether it is green or not. Of course knowing the context of the question the suspects answer would most likely be all the time „no“.

This leads to the next topic – trust. How can the policeman trust in in the suspects answer? He normally wouldn't. The policeman would track down the suspect and simple check it with his own eyes if possible – this is somehow audit ability.

The problem is accidentally gained knowledge. Taking the example of the policeman with the car and the suspect. Inspecting the car he might find out that the passenger in the car is another man with his wife. This information will most likely have consequences to his marriage, but in fact is not related to his job and he shouldn't have this information. It is not in the interest of the car passenger. The privacy of innocent citizen is heavily impacted and damage to personal wealth and safety need to be feared.

What does it mean to companies and the way they deal with customer data?

Companies need to move from data to information management. Not every application needs to have data access. Most of the consuming business intelligence application need information generated by data. Although the data might be falling under the data privacy act the information might not.

 

 

Coming back to the shop example from the beginning. In order to have the products the customer wants to buy in the shop the customer personal shopping habits need to be the input of the system.  As the shop has many customers the single customer shopping habits will be collected along with many others. The order placement system of the shop itself will order at the distributor based on information generated from all shopping habits accessible. Single personal data are not necessary anymore and should be deleted – at least it should not be possible to conclude on a single person.

The concepts of information, trust and audit ability are universal. Not only customer at all levels are discouraged with the new world - also business operations function inside the own company.

 

Have you ever wondered, why your nice and shining standard reporting are not used? The official statement range from „they are wrong“, „they do not fit my need“, to „my business area is different or not covered“. At the end of the day this is again a matter of trust and audit ability.

 Aren’t this business analyst inside the business operations functions like the policeman with car? For me it looks like they want collect their own information out of the data available as they do not trust the standard report and can not audit it. On the other hand they also may learn things, they don't need to know.

 

Taking all this argument together, I would conclude „data privacy“ is more en vouge than ever. The initial trust in main companies based on historic believes - is on risk. Companies need to invest in information management technology and avoid giving access to data. The originator of the information – the customer – need to be able to trust, that the data are not in inappropriately shared. This trust can only be achieved by an end to end trace ability for the data called data linage. This data linage data need to be audit able - in the preferred case by the customer itself.

If data linage information can not made available to end customer then trust need to come of external auditing companies.

 

Talking about Big Data also means talking about data privacy. There are plenty of information in the internet, which are not protected by any authentication mechanism and therefore public. This also includes many facebook  / google profiles, internet foren and other privately authored content. Although in the media big data and analytics is presented as the bad guy giving access to the most private secrets - there is technology available to make it “safe for the public”. In my upcoming blog posts I’m going to write more detailed about all the different aspects of data privacy I just broached and introduce technical solutions to handle the challenges coming with information need and privacy.

 

 

IBM Capacity Management Analytics – neue Wege in Sachen Kapazitätsmanagement mit analytischen Fähigkeiten

24. September 2014 Posted by Thomas Kraus

Kapazitätsmanagement ist für viele Kunden insbesondere in der IBM Mainframe Welt eine Kern-Disziplin, da es von großer Wichtigkeit ist, die IT Resourcen optimal zu nutzen, um dem Business die erforderlichen Service Levels zu bieten. In vielen Fällen sind die heutigen Verfahren stark manuell geprägt, oft unter Verwendung von Spreadsheets, die einen hohen Komplexitätsgrad haben und keine Flexibilität bieten.

IBM hat einen Ansatz entwickelt, Kapazitätsmanagement mit analytischen Funktionen zu verbinden und so einen Mehrwert für die Unternehmen zu schaffen, indem eine zentrale Lösung für System Management, Problemidentifizierung / Lösung und Kapazitätsvorhersage geboten wird.

 

Überblick

 

IBM System z ist für viele Kunden die Zielplattform für geschäftskritische Anwendungen wie Enterprise Resource Planung, Datawarehouse Anwendungen, Transaktions- und Vertragsverarbeitung.

Umso wichtiger ist es, für die System z Plattform eine solide Kapazitätsplanung zu verwenden, um IT Prozesse zu optimieren und die Ergebnisse zu verbessern. Viele Kunden verwenden Lösungen, die entweder mit hohen Kosten verbunden sind oder stark manuell geprägt und somit schwer wartbar sind.

 

Mit IBM Capacity Management Analytics hat IBM eine integrierte Lösung auf den Markt gebracht, mit der man effektives und kosten-effizientes Kapazitätsmanagement realisieren kann. Von historischem Reporting bis hin zu Prognosen für zukünftige Anforderungen deckt IBM Capacity Management Analytics ein umfangreiches Spektrum ab. Die Lösung beinhaltet vorkonfigurierte dynamische Reports, die für einen ersten Einstieg verwendet werden.

 

Somit bietet IBM Capacity Management Analytics eine Lösung, die es ermöglicht, Einsichten für eine optimale zEnterprise Nutzung zu gewinnen und für die Zukunft zu optimieren.

 

Komponenten der Lösung

 

IBM Capacity Management Analytics besteht aus 3 Komponenten:

Cognos Business Intelligence – bietet die analytischen Fähigkeiten für Reporting, Dashboards, Collaboration und Mobile BI

 

SPSS Modeler – für predictive Analytics zur Vorhersage zukünftiger Anforderungen. Ein besonderes Feature ist das Real-Time Scoring, das es ermöglicht, aktuelle mit erwarteter Nutzung zu vergleichen, und Anomalien zu erkennen bevor sie Einfluß auf das System haben.

 

Tivoli Decision Support für z/OS – als Datensammlung für das Kapazitäts-Warehouse.

 

Teil der Lösung ist das IBM Capacity Management Analytics Solution Kit, das vorgefertigte interaktive Reports und Modelle beinhaltet (siehe Grafik unten).

image

 

 

Ein beispielhafter Report zum Thema LPAR CPU Forecast, der eine Projektion von Kapazitätsbedarf auf Basis von historischen Werten darstellt:

image

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Autor:

Thomas Kraus

IBM and The Open Group Master Certified IT Architect

e-mail: thomas.kraus@de.ibm.com

 

Weitere Informationen:

http://www-03.ibm.com/software/products/en/capacity-management-analytics

 

[EN] Predictive Analytics and Customer Experience can be a Dangerous Mix – Chief Marketing Technologist

16. September 2014 Posted by Stefan Pfeiffer

Ever experienced an overbooked flight at an airport? Hearing the offer to get some cash, if you take the later flight or stay overnight? Well, I heavily recommend to read this posting and the thoughts on predictive analytics and customer experience.

Two trends, each racing forward, that have the potential for disastrous collisions:

  1. The need for truly customer-centric organizations in a fully connected world.
  2. The use of algorithms, predictive analytics, and big data to optimize everything.

In many cases, these can be synergistic. But some are train wrecks.

I experienced just how badly those two things can clash first-hand this week, when the Westin Cleveland Downtown reneged on my supposedly prepaid reservation at Content Marketing World. … How could that be? They failed to accurately predict the demand from an event that was outside their domain of expertise, a rapidly growing Content Marketing World. …
Here’s how something like that happens. Reserving rooms in a hotel is a ridiculously simple algorithm — …. If typically 5% of your reservations fail to show up, you could theoretically book 105% of your capacity.

That’s a classic insight that predictive analytics can deliver. But it’s also the point where you shift from a deterministic booking algorithm to a probabilistic one.

… You may think it’s worth occasionally sacrificing the happiness of individual customers for that extra revenue from overbooking. But in world of search and social media, there’s a risk that you will trigger outsized negative consequences.

Predictive analytics and customer experience can be a dangerous mix – Chief Marketing Technologist.

In the world of Social Media and Word-of-Mouth people need to think before to trust analytics only. Or – in this case – take the risk of bad reputation. In other cases the damage could be even much worse.

I am a strong believer, that analytics is able to help, but there still needs to a human brain involved, before making a decision. And I have the strong feeling, that this human brain is taken out of the process more and more often. This makes me concerned.


Filed under: English Tagged: Analytics, Customer Experience