Posts Tagged: ‘analytics’

POWER8 – ein wichtiger Meilenstein in der Big-Data-Technologie

30. Mai 2014 Posted by Wolfgang Wendt

In den vergangenen Wochen haben wir die achte Generation von Power-Systemen angekündigt. Während meiner Zeit bei IBM habe ich schon einige Power-Ankündigungen mitbekommen, das erste mal 1991, damals in der Gründungszeit der RS6000. Nun verfolge ich die Entwicklung schon seit mehr als 20 Jahren und ich muss sagen, dass ich immer wieder begeistert von den Neuerungen jeder Generation bin.

Derzeit begleitet IBM die Kunden mit POWER8 in das Zeitalter riesiger Datenmengen und damit steigender Komplexität. POWER8 unterstützt also genau das, was der Markt erwartet, die Businessanforderungen und Technologiemöglichkeiten stimmen überein. Die neuen Systeme unterstützen Unternehmen dabei, die rasant ansteigende Menge von Daten zu bewältigen und neue Workloads zu realisieren. In Rechenzentren können extrem hohe Datenanforderungen mit bisher nicht gekannter Geschwindigkeit verarbeitet werden und so in Echtzeit zur Verfügung stehen. Einem aktuellen Branchen-Benchmark zufolge ermöglichen die Power-Systeme von IBM unseren Kunden eine bis zu 1000-mal schnellere Datenanalyse, wodurch sich die Laufzeiten auf wenige Sekunden reduzieren. Bisher dauerte dies mehrere Stunden.

Die POWER8-Ankündigung ist vor allem für die Wirtschaft von enormer Bedeutung. Dies zeigten die ersten Gespräche, die ich mit Business Partnern und Kunden hierzu geführt habe. In den Gesprächen erlebe ich immer wieder die Begeisterung für die neue POWER8-Technologie. Unternehmen aus der Versicherungsbranche beispielsweise sehen enorme Vorteile für ihr Geschäft, auch der Indstriebereich hat schon die Verfügarkeit der Server angefragt. Es scheint geradezu eine Renaissance bei den Kunden zu sein, wenn es darum geht verschiedene Workflow-Applikationen an einer zentralen Stelle schnell zu verwalten.

Tom Rosamilia, der weltweite STG-Leader bezeichnet POWER8 als ersten wirklich bahnbrechenden Fortschritt bei High-End-Server-Technik seit Jahrzehnten. Er spricht von „radikalen technischen Neuerungen und vollständigem Support für ein offenes Server-Ökosystem, das unsere Kunden nahtlos in die Welt von riesigen Datenvolumina und Komplexität führen wird.“ Ich kann mich dem anschließen und bin gespannt was die Zukunft bringen wird.

[EN] “Creating a world we want to live in and not some Orwellian nightmare” | Marie Wallace of IBM on Social Media Today

10. April 2014 Posted by StefanP.

A very interesting interview with my colleague Marie Wallace. I like her fresh thinking on analytics, the role of the computer and where it should and her view on protecting the individual. Here are my favorite quotes, but for sure the whole interview is worth to read.

I personally don’t believe that computers have gotten particularly smart in recent years, at least as it relates to the knowledge worker. They don’t respond to our e-mails, prepare our reports, perform research, read and summarize articles, prioritize work items, etc. They just shove more and more stuff at us and expect us to handle the deluge. This is why I believe that cognitive computing and people analytics will become increasingly important as it aims to “make computers smarter for people”.

And to answer your question about my philosophy, personally it’s about putting people first. I want to live in a world where technology enriches our lives and I feel that analytics badly implemented has the potential to exploit. So for me it’s all about ensuring that individual interests are protected, that trust is developed and maintained, and that analytics never exploits the individual.

via Marie Wallace of IBM | Social Media Today.


Filed under: English Tagged: Analytics, Big Data, Data Privacy, IBM

[EN] The Yin and Yang of Collaboration: Engagement and Analytics

3. März 2014 Posted by StefanP.

I like this posting by Rich Blank on the Yin and Yang of Collaboration: Engagement and Analytics. Here are some of my favorite quotes out of the posting – and a good graphic representing the Collaboration game:

Let’s face it: Getting people’s attention, getting time on their calendar, getting them on the phone, getting people to collaborate on anything is like herding cats. Competing demands personally and professionally, increasing amount of information in an increasing variety of forms from an increasing number of channels — that’s why the future of collaboration will focus on engagement and the underlying analytics that drive human behavior, productivity, efficiencies, satisfaction, revenue opportunities or other metrics impacting your organization. …

Devices Matter

In today’s busy world, collaboration requires access across multiple devices. In particular, mobile drives engagement because of the convenient anywhere, anytime, and real-time benefits.

via The Yin and Yang of Collaboration: Engagement and Analytics.

I needed to pick that one – not only just because of my two cats but furthermore based on my experience how few people are really engaged and how difficult it is to get attention.

Junk In = Junk Out

We all know the phrase and this has never been more relevant than in the world of enterprise collaboration today. Engagement gets the junk in while analytics gets the junk out. And the future of collaboration involves big data analytics that track, measure and report on the impact of communications, collaborative efforts and overall productivity. …

From those collaborative analytics, you can unlock HUGE opportunities for productivity, efficiencies, cost savings and revenue that previously could never be realized. It’s a collaborative cycle. Engagement drives analytics and analytics drive engagement! Some of this is happening today yet we are still in the early stages when it comes to engagement and analytics in enterprise collaboration.

via The Yin and Yang of Collaboration: Engagement and Analytics.

We have all heard about the promise of Analytics – just most recently in announcements like IBM Mail Next from my employer -, but it is clear, that Analytics needs to prove its value in practical life. This is, what I am keen to see in the near future. Systems helping to improve work – not systems causing more work. And by the way: This is for me the promise of IBM Mail Next.

On the topic of engagement and analytics absolutely checkout the postings by Marie Wallace here, e.g. Reverse Engineering Employee Engagement

And if you are interested in her approach, just check out our new solution page at ibm.com/engage.


Filed under: English Tagged: Analytics, Collaboration, IBMWatson, SocBiz

[EN] Build a smarter enterprise. With the power of social, mobile, cloud, big data & analytics [Video]

20. Februar 2014 Posted by StefanP.

New video on  „Build a smarter enterprise. With the power of social, mobile, cloud, big data & analytics” to promote IBM’s presence at CeBIT 2014 in hall 2, booth A10, 10 — 14 March in Hanover, Germany.
ibm.com/de/cebit/en


Filed under: English Tagged: Analytics, CeBIT, Cloud, IBM, Mobile, SocBiz

[EN] Social Processes See Customers, Employees, Citizens As Markets Of One – Forbes

14. Februar 2014 Posted by StefanP.

In the 15 months since their first notice to acquire Kenexa, and across their other various recent acquisitions, IBM’s intentions for social business are starting to crystalize. At the recent IBM Connect 2014 event, I heard three key closely fitting themes across various interviews and sessions:

  1. What we have learned about external Social media and commerce processes can apply inside the organization, and vice-versa.

  2. An organization’s capabilities to work with behavioral science, psychology and analytics will become a future differentiator

  3. We are moving towards micro-segmentation of audiences to eventually reach what I refer to as Markets of One

via Social Processes See Customers, Employees, Citizens As Markets Of One – Forbes.

And check out the complete interview Rawn Shaw did with Craig Hayman and Scott Hebner.

Previous Postings on IBM Connect 2014


Filed under: English Tagged: Analytics, IBMConnect

[DE] ‘Datability’ – Respekt vor dem Kunden statt manipulierbares Klickvieh

12. Februar 2014 Posted by StefanP.

Zuerst erschienen im CeBIT-Blog und mein Beitrag zur Themenwoche und Blogparade “Social Business & Future Workplace” der CeBIT.

Datability, das Motto der CeBIT 2014 – ich soll es kommentieren und tue mich schwer damit. Ist es die ‘Ability’ ‘Data’, die Fähigkeit Daten zum Schlechten oder zum Guten zu verwenden? Für beides gibt es Beispiele. Wenn IBM Watson im medizinischen Bereich Daten auswertet, um Ärzten bei der Behandlung von Patienten zu helfen, ist das eine durchweg begrüssenswerte Fähigkeit, ‘Big Data’ zu nutzen. Wenn Geheimdienste wahllos Daten von Bürgern sammeln und ‘abhören’, ist das zumindest fragwürdig und kann nicht mit dem vermeintlichen Argument „Schutz vor terroristischen Anschlägen“ einfach so entschuldigt werden, Nine-Eleven hin, Nine-Eleven her.

In letzter Zeit wird gerade auch von der Bedeutung von ‘Big Data’ für das Marketing gesprochen. Marketiers der neuen Generation – so in vielen Artikeln auch der sogenannten Analysten nachzulesen – brauchen die Kompetenz, Daten bewusst und konsequent zu analysieren, damit Unternehmen zu einer möglichst gezielten Ansprache der Kunden kommen. Ist das nun gut oder schlecht? Gunnar Sohn spricht davon, dass Unternehmenskommunikation im Netz unterdessen eine Fortsetzung der Werbeberieselung mit anderen Mitteln ist, Kunden von vielen Marketiers als manipulierbares Klickvieh gesehen werden.

Und da ist sicher auch was dran. Viel zu viele Unternehmen ‘be-SPAM-men’ ihre Kunden und Interessenten mit mehr oder weniger nutzlosen Werbebotschaften, statt ihnen die Inhalte zu liefern, die die Kunden wollen und brauchen, und mit ihnen in wirklichen Dialog zu treten. Seien wir ehrlich. Die Grenzen sind dabei fliessend: Wann sind Inhalte qualititativ wertvoll, wann sind sie Werbung? Bin ich Klickvieh, wenn Amazon mir Artikel aufgrund meiner voherigen Käufe und meiner Klicks vorschlägt oder ist das nur guter Service? Immerhin macht Amazon durch seine zielgerichteten Empfehlungen auch 30 % mehr Umsatz als vorher. Ganz sicher ist es Belästigung, wenn ich laufend E-Mail-Newsletter mit platten Werbebotschaften oder ungefragt zahllose Veranstaltungseinladungen auf XING bekomme. Klar ist auch, dass informative, unterhaltsame Inhalte und wirkliche Kommunikation für den Anbieter wesentlich anspruchsvoller, anstrengender und ressourcenintensiver, sprich teurer ist. Und da only “Cash counts”und das nächste Quartalsende naht …

Meine Kollegin Marie Wallace hat es vor einiger Zeit auf den Punkt gebracht. Marie, ein herausragende Denkerin im Bereich Analytics, ruft dazu auf, dass wir Datenschutz und Privatsphäre endlich ernst nehmen müssen. Sie bemerkt zurecht, dass totale Anonymisierung von Daten ebenso kontraproduktiv ist wie die komplette Offenlegung. Das Werkzeug für Datenschutz sei nicht der Vorschlaghammer, sondern das Skalpell. Die Handlungsmaxime müsse Transparenz sein, offen zu legen, was Unternehmen mit den Daten machen, um so das Vertrauen der Anwender zu gewinnen. Siehe oben: Patienten teilen wahrscheinlich gerne ihre Informationen, wenn dadurch andere Patienten besser behandelt werden können. Und es gibt genug andere Szenarien, wo Kunden ihre Daten bestimmt nicht ausgewertet sehen wollen.

Aber eins ist auch klar: Wir kommen um Analytics nicht mehr herum. Gerade ‘Predictive Analytics’, also vorhersagende Analysen, bieten in riesiges positives Potential, das wir ausschöpfen müssen, gerade auch hier in Deutschland, wo wir immer schwarz malen und das Negative zuerst sehen. Marie ruft diejenigen, die ‘Analytics’-Lösungen bauen, dazu auf, Data Privacy als Nummer 1-Priorität beim Design der Lösungen im Kopf zu haben, auch wenn dies Projekte viel komplizierter mache. Ich schliesse mich diesem Aufruf von Marie voll an und übertrage das, was sie für Data Scientists und IT-Architekten formuliert hat, ins Marketing. Auch wir Marketiers müssen den Datenschutz unserer Kunden zu allererst im Kopf haben. Datenschutz ist nicht nur Schutz der Privatsphäre des Kunden. Datenschutz zeigt vor allem auch Respekt vor dem Kunden (und Bürger).

Verwandte Links:


Filed under: Deutsch Tagged: Analytics, Big Data, CeBIT, Data Privacy

Build a smarter enterprise. With the power of social, mobile, cloud, big data & analytics [Video]

2. Februar 2014 Posted by Stefan Pfeiffer

New video on "Build a smarter enterprise. With the power of social, mobile, cloud, big data & analytics" to promote IBM's presence at CeBIT 2014 in hall 2, booth A10, 10 -- 14 March in Hanover, Germany.

    ibm.com/de/cebit/en
 


    



 

Cloud macht Analytics Beine

22. Oktober 2013 Posted by Philipp Boltze

 

Bild

Wer letzte Woche auf der IBM Business Connect in Mannheim war, wird meinen Vortrag mit gleichem Titel vielleicht schon gehört haben. Für alle Anderen möchte ich hier aber nochmals beschreiben, warum Cloud und Analytics so wunderbar zusammen passen ....

 

BildImmer mehr Leute ....  wollen immer mehr Daten .....  in immer anderen Formen  ....  immer schneller  .....   analysieren. So oder so ähnlich mag der Leiter Business Intelligence - Mr. B.I. -  eines großen Konzern gedacht haben, als er mit seinem Problem zu uns kam.
Aber das oben Beschriebene ist eigentlich gar nicht ein Problem an sich. Dumm ist nur, dass die dafür erforderliche IT Infrastruktur exponentiell wächst (2 x 2 x 2 x 2 = 16!). Und das noch Dümmere ist, dass so eine BI Umgebung ja nicht immer den gleichbleibenden IT Bedarf analog zu einer Glühbirne benötigt, sondern es Lastspitzen gibt und die Hardware muss so groß ausgelegt werden, dass auch die Lastspitzen abgefangen werden können. Ganz schön doof, ganz schön umflexibel und ganz schön teuer!

 

Tja, und wie können wir nun diesem armen Mann helfen? 

"Was wäre denn, wenn Sie unbegrenzte IT Ressourcen hätten und für diese auch nur so lange zahlen müssten, wie Sie sie benötigen?"    -   "EIN TRAUM!"

 

Der aufmerksame Leser wird sicher schon ahnen, was jetzt kommt:       Ab in die Cloud!

 

Schnell war klar, dass wir hier den Beweis antreten mussten. Ein Proof of Concept.

 

Und das Konzept war einfach: Lade Deinen Daten in unsere IBM Cloud. Wir bereiten ein DB2 und ein Cognos Image soweit vor und können nun beide so oft und so viel hoch- und runterfahren wie wir wollen. Also mal ein einzelner Cognos Server, mal 3 parallel. Je nachdem, was benötigt wird.

 

Die Ergebnisse konnten sich mehr als sehen lassen. 

Bild

Ich will sie auch gar nicht weiter kommentieren.

 

Ein wichtiger Punkt dabei ist es natürlich, wie ich dieses "Atmen" des Systems, also das Hinzufügen und Wegnehmen von Instanzen realisiere. Erst wenn ich das mache, kann ich die Vorteile der Cloud, z.B. stundenweise Abrechnung, nutzen. Wir haben uns dabei zwei mögliche Varianten angeschaut:

Bild

  1. Zeitgesteuert
    Aus Erfahrung weiß man, daß Montag früh z.B. viele Nutzer sich ihre Reports holen und dass am Mittwoch Nachmittag eher Saure-Gurken-Zeit ist. Basierend auf diesen Erfahrungswerten kann man, durch sog. Scripte gesteuert, Instanzen hinzufügen und wieder wegnehmen. Man kann damit allerdings nicht auf unvorhersehbare Ereignisse reagieren. Zumindest nicht automatisiert.
     
  2. Workload gesteuert
    Die andere Möglichkeit ist es, sich die Anfragen anzuschauen, und ähnlich wie an der Aldi Kasse einfach neue Instanzen (Kassen) hinzufügen, wenn die Schlange zu lang wird. Da das Hinzufügen eines neuen Servers allerdings einige Minute in Anspruch nimmt, muss man sich auch anschauen, wie viel im Einkaufskorb, respektiv wie umfangreich der Report ist und die Warteschlange entsprechend bewerten. Hier gehört durchaus etwas Intelligenz rein; man bekommt dann aber auch ein System, dass sehr schnell auch auf unerwartete Gegebenheiten reagiert.

 

 

Aber was haben wir daraus gelernt?

 

  • Clouds, zumindest wenn man sie sich mit Anderen teilt (shared), können zwar kaum Leistungsgarantien geben, aber zumindest die IBM Cloud hat trotzdem alle Erwartungen mehr als übertroffen.
    Wer jetzt noch auf Private Clouds geht, wie sie SoftLayer anbietet, der bekommt nicht nur eine stundengenaue Abrechnung, sondern muss sich die Leistung noch nicht mal mit Anderen teilen. (siehe dazu sich meine Blog zu SoftLayer)
     
  • Das Hinzufügen und Wegnehmen von zusätzlichen Cognos Instanzen geht sehr schnell und einfach
     
  • Es muss im Einzelfall geprüft werden, ob man die kostengünstigere, zeitgesteuerte Variante nehmen kann, oder doch den Aufwand betreiben muss, die Workload qualitativ zu bewerten.
     
  • Ganz entscheidend, und damit kommen wir zum berühmten Bottleneck der Lösung, ist die Verbindung zwischen dem Datenpool und der Cloud. Ich muss wissen, wie viele Daten in die Cloud transferiert werden müssen und vor allem auch welche Spitzenlast, also wie viele Daten in einem bestimmten Zeitraum übertragen werden müssen. Dies bestimmt dann die Verbindung: Entweder eine einfache VPN Verbindung oder doch eine Direktverbindung mit extrem hohem Datendurchsatz.
     
  • Und zum Thema Datenschutz muss sich natürlich jeder selbst Gedanken machen. Hier muss man aber vor allem prüfen, WELCHE Daten ich wirklich in die Cloud transferieren muss, um daraus Reports zu ziehen. Eine Versicherung ist sicher eher an der Auswertung der etwas unkritischeren Rechnungsdaten interessiert und nicht an der Krankenakte des Kunden.

 

Sie sehen an diesem Beispiel, wie einfach und sinnvoll es ist, Analytics in der Cloud zu betreiben. Sprechen Sie uns doch einfach mal an, wenn auch Sie an einem Test (PoC) interessiert sind.

 

 

 

Digital Experience: Das Bild des eigenen Unternehmens bewusst gestalten

8. August 2013 Posted by Stefan Pfeiffer

Vor wenigen Jahren ging noch die Mär durchs Land, dass man als Unternehmen eigentlich nur eine Facebook-Präsenz brauche. Dies reiche, um das eigene Unternehmen online zu repräsentieren. Diese Empfehlung war schnell verjährt. Unterdessen hat man erkannt, dass Unternehmen eine Vielzahl von Kanälen bespielen müssen, um ihre Kunden zu erreichen. Doch nicht nur die Kanäle – eigene Webseite, E-Mail Newsletter, Facebook, Twitter, Communities … – sind vielfältiger geworden. Die Nutzung ist unterdessen mobil. Neueste Studien zeigen, dass die Informationen, die mobil mit anderen geteilt werden, die Zahl der am Desktop geteilten Informationen überholt hat. Und es kommt noch schlimmer. Die Kunden sind nicht nur “always on”, auf den kanälen, die sie mögen, haben nicht nur die Frechheit, dort ihre Meinung zu äußeren, nein, sie sind auch unserer platten Werbe- und Marketingnachrichten überdrüssig. Sie erwarten -  Data Privacy hin und her – individualisierte, für sie relevante Informationen und Angebote und eben nicht die generischen 08/15-Informationen. Und sie erwarten – unabhängig vom Kommunikationskanal -, dass Unternehmen schnell und kompetent auf ihre Anfragen reagieren.

All dies stellt neue, komplexere Herausforderungen an Marketingabteilungen und Unternehmenskommunikation. Das zielgerichtete und einfache Verteilen von Information, die individualisierte Ansprache ist ebenso wichtig wie eine laufende, genaue Analyse der verschiedenen Kanäle und Marketingmassnahmen. Marketing muss heute mehr denn je das gesamthafte Bild, die umfassende digitale Präsenz, die ein Unternehmen bietet, und die Erfahrungen, die Kunden mit den verschiedenen Kanälen machen, im Blick haben. Nicht umsonst wird von einigen schon ein Chief Digital Officer gefordert, dessen Aufgabe es ist sicherzustellen, dass die digitalen Ressourcen vorhanden sind und genutzt werden, um sich effektiv mit Kunden zu vernetzen, Kundenzufriedenheit zu erhöhen und Umsätze zu steigern.

Die Herausforderungen haben sich herauskristallisiert. Neben der grundlegenden Einstellung und dem damit einher gehenden Kulturwandel, den ein Unternehmen insbesondere in der Kundenkommunikation durchlaufen muss, gibt es eine Reihe technologischer Hilfsmittel, die den Weg deutlich erleichtern und vereinfachen. Wir in der IBM reden unterdessen von der Digital Experience, einer deutlichen Weiterentwicklung einer Web Experience. Folgende Funktionsbereiche helfen dabei, diese Digital Experience für Unternehmen und Kunden effizient zu gestalten:

  • Einfache Distribution von Inhalten – Seit Jahren reden wir gerade im Umfeld von Web Content Management davon, dass wir die Marketingfachleute und Experten  in die Lage versetzen wollen, Inhalte selbst schnell zu publizieren. Doch die Realität ist meist eine andere. Ineffiziente Genehmigungsprozesse und unzureichende Software-Lösungen haben dies meist verhindert. Doch spätestens in unserem sozialen Zeitalter, im Zeitalter von Twitter, YouTube und Facebook, wo Informationen rasend schnell verbreitet werden, muss das oben genannte Paradigma umgesetzt werden. Die Experten müssen in die Lage versetzt werden, mit einem Social Media Publisher Inhalte in soziale Kanäle ebenso wie auf der eigenen Webseite zu veröffentlichen.  Und ja, natürlich müssen wir die Qualität der Inhalte sicherstellen, angefangen von banalen Dingen wie korrekte Rechtschreibung bis hin zu Einhaltung von Compliance-Anforderungen. Die Mitarbeiter, die publizieren, müssen ausgebildet sein und das Unternehmen braucht Social Media Guidelines, an denen sich die Mitarbeiter orientieren können.
  • Multimedia – Multimedia ist nichts neues, aber sicherlich gewinnen heute im Zeitalter von YouTube vor allem Videoinformationen dramatisch an Bedeutung. Daneben gibt es natürlich Infografiken, Grafiken, Fotos, Audioaufnahmen und – man glaubt es kaum – den guten alten Text. Die Texte haben wir vielleicht noch ganz gut im Griff, aber bei den multimedialen Inhalten ist das oft noch nicht der Fall. Aber genau das ist notwendig. Wir müssen den Mitarbeitern als Unternehmen einen “genehmigten” Satz von Multimedia-Quellen zur Verfügung stellen, die sie – siehe oben – beim Publizieren nutzen sollen und können. Ein leistungsfähiges Digital Asset Management – natürlich integriert mit Web Content Management, Social Media Publisher und Marketing Automation-Tools – ist deshalb heute unverzichtbar.
  • Analytics und Optimierung – Gerade im Marketing ändern sich derzeit die Zeiten. E-Mail Marketing und Newsletter haben weiter wichtige Bedeutung, aber auch andere Kanäle – insbesondere Social Media und Special Interest Communities – gewinnen an Bedeutung. Um so wichtiger ist es, das eigene Marketingmix laufend zu überprüfen und zu optimieren. Das reicht von der Analyse der Klickwege auf der eigenen Webseite bis zur Prüfung, welche Inhalte bei den Kunden am besten ankommen.
    Eine "Heatmap" zeigt, welche Bereiche auf einer Webseite wie intensiv genutzt werden.

    Eine “Heatmap” zeigt, welche Bereiche auf einer Webseite wie intensiv genutzt werden.

  • Mobile Experiences – Wie wichtig mobile Kanäle sind, zeigen Zahlen wie die von Morgan Stanley: Demnach haben 90 Prozent der Mobil-User ihre Gerät rund um die Uhr in Reichweite. Und immer mehr Kunden teilen – wie oben angesprochen – Inhalte über ihre mobilen Endgeräte. Um so wichtiger ist es, eine für Tablets und Smart Phones optimierte digitale Präsenz zu kreieren. Ob das nun eine native App oder eine für die Geräte optimierte Webrpräsenz im Responsive Design ist, kann je nach Anwendungsfall entschieden werden. Und auch hier gilt: Die mobile Nutzung sollte analysiert werden, um potentielle Schwächen zu beseitigen und zu optimieren.
  • Social-Media-Integration – Soziale Kanäle bestimmen heute in hohem Maße die Meinung und beeinflussen maßgeblich Kaufentscheidungen. Deshalb ist es wichtig, sie auf vielfältige Weise in die eigenen Marketing-Aktivitäten einzubauen. Das reicht vom Publizieren von Inhalten auf Plattformen wie Twitter, Facebook oder LinkedIn über die Integration von Communities – geschlossen oder offen – in die eigene Webseite bis zur laufenden Beobachtung der Kanäle, dem Social Media Monitoring, um auf Anfragen über die sozialen Medien oder auf Stimmungen dort angemessen und prompt reagieren zu können.

Bei all den Facetten, die wie gerade beschrieben zu beachten sind, sollte ein Aspekt unbedingt im Auge behalten werden: Wir befinden uns im Wandel vom Massenmarketing hin zur personalisierten, besser individualisierten Ansprache der Kunden. Kunden wollten schon immer ernst genommen werden. Oft scheint das in Zeiten outgesourceter Call Center, von Warteschleifen und von Telefonautomaten vergessen worden zu sein. Die sozialen Medien in Kombination mit der rasanten Verbreitung der mobilen Endgeräte fordert und fördert jedoch die individuelle Ansprache. Unternehmen müssen bei der Gestaltung ihrer digitalen Präsenz genau darauf reagieren

Jacques Bughin und James Manyika von McKinsey haben gerade einen beeindruckenden Aufsatz unter dem Titel “Measuring the full impact of digital capital” geschrieben. Sie plädieren darin dafür, dass “Digitale Assets” nicht als Ausgaben, sondern als Kapital gesehen werden sollten und führen eine Vielzahl von Beispielen, wo und wie soziale Medien und mobile Endgeräte die heutige Geschäftswelt revolutionieren. Ihrem Schlussplädoyer kann ich mich nur anschliessen:

The need for growth and competitiveness will force companies to build strong digital capabilities. Viewing them as assets rather than additional areas of spending requires a new set of management and financial lenses. Embracing them is a major shift—but one worth making for companies striving to master a still-evolving landscape.

via Measuring the full impact of digital capital | McKinsey & Company.

Zeit ist nicht zu verlieren, denn Geschäftsmodelle wandeln sich heute rasant. Und Kunden sind schnell weg, wenn sie nicht die Betreuung erhalten, die sie heute erwarten.

Weitere Informationen zu IBM’s Vision von der Digital Experience sind hier auf Englisch zu finden. Und natürlich stehe ich auch jederzeit für Rückfragen und Gespräche zur Verfügung.

[DE] “Big Data” – Risiken, Chancen und Aufgaben

30. Juni 2013 Posted by StefanP.

20130630-173720.jpg

“Big Data” ist ein neues Modewort, das nicht nur die IT Industrie durch das digitale Mediendorf treibt. Auch “The European” widmet sich in seiner aktuellen Printausgabe des Themas. Die Beiträge sind wohl geschrieben worden, bevor der PRISM-Aspekt von “Big Data” publik wurde. Dies gibt manchem Beitrag ein gewisses Geschmäckle. Wenn T-Systems-Vorstandsmitglied Reinhard Clemens darüber lästert, wie wir Deutschen wieder einmal technologieskeptisch sind, dabei die Obama-Wahlkampagne zitiert und IT-Unternehmen dazu auffordert, den Nutzen von “Big Data” jenseits des rein Kommerziellen deutlich zu machen, bekommt das schon jetzt eine neue Bedeutung.

Um es klar zu sagen: Ich bin technologiefreundlich und glaube, dass Technologien wie Watson und vergleichbare Systeme in der zielgerichteten Analyse von “Big Data” unendlich viel Nützliches und Gutes bewirken können, in Wirtschaft ebenso wie im Gesundheitswesen. Jedoch machen PRISM und die vergleichbaren Vorfälle auch deutlich, dass der kontrollierte Umgang mit unseren Daten ein elementares Thema ist. Sich dabei auf Behörden wie die NSA zu kaprizieren, ist nicht genug. Die Google’s und Amazon’s dieser Welt gehören ebenfalls in den Blick – und kontrolliert. Gerd Leonhard vergleicht die Datenkraken von heute mit den Ölgiganten, den Exxons und MobileOils, von gestern. Nur wer kann Kontrolle in einer globalen Welt jenseits der Nationalstaaten leisten? Wer kann multinationale Konzerne und Stattsorgane kontrollieren? Darüber müssen wir nachdenken und dabei – so weit möglich – mit der Kontrolle unserer eigenen, persönlichen Daten beginnen.

Die Potenziale, die derzeit entfaltet werden, sind gigantisch. “Big Data” wird von anderen Megatrends befeuert: “Mobile” – überall “on” sein, Daten generieren und abrufen – und “Social” – sich vernetzen, Informationen teilen und austauschen, eben gerade auch mobil – produzieren immer mehr Daten, die ausgewertet werden können. Die Cloud (um es mal platt zu sagen) ist der Ort, wo sie mehr oder weniger sicher und gesichert gespeichert werden.

Der Rohstoff Öl ist endlich. Der Rohstoff Information, Data, scheint – so der Vergleich nicht hinkt – unendlich, ja wachsend. MEssieht so aus, als ob wir erst am Anfang der Möglichkeiten von “Big Data” sind. Wenn heute unerlaubt, ohne persönliche Einwilligung E-Mails unter dem Deckmäntelchen der nationalen Sicherheit abgehört werden, wenn schon seit Jahren persönliches Surf- und Kaufverhalten ausgewertet und monetarisiert wird, so kommen schon jetzt Geoinformationen und vor allem multimediale Inhalte unzähliger Kameras hinzu. Und all diese Informationen werden intelligent vernetzt. Ich will hier bestimmt nicht den Datenteufel an die Wand malen, aber jedem sollte bewusst sein, welche auch negativen Möglichkeiten “Big Data” bietet und wie – besser in welchem Rahmen – man seine persönlichen Daten auf Google und Co. schützen kann. Ich rede von Schutz, nicht Verweigerung!

Das Bekanntwerden von PRISM läutet (hoffentlich) eine neue Phase der Sensibiltität gegenüber Datenüberwachung und den “Big Brother’s “ein, hoffentlich nicht im Sinne platter Bilderstürmerei und Technologiefeindlichkeit (wie wir sie nur zu oft gerade in Deutschland pflegen), sondern vielmehr in der konstruktiven, streithaften und streitbaren Auseinandersetzung um die Vorteile und Gefahren von “Big Data”. Das Netz und die dort generierten Daten haben ungeheueres, positives Potential. Es liegt an uns allen die negativen Aspekte einzudämmen.

P.S. Ich hoffe, dass die gegenwärtige Diskussion nicht wieder einmal nur dazu führt, dass ausschliesslich die USA-Administration platt kritisiert werden. Es wäre endlich an der Zeit, dass auch gerade die selbsternannte deutsche Netzeliten endlich einmal einen kritischen Blick auf die kommerziellen Datensammler und -verwerter wirft, statt blauäugig und anbetend selbstdeklarierten Gutkonzernen alles durchgehen zu lassen.

P.P.S. In einem solchen “Big Picture” bekommt das Verhalten eines Snowden eine neue Dimension.


Filed under: Deutsch Tagged: Analytics, BigData, DataPrivacy

[EN] Analytics for HR augments, does not replace good management « A Smarter Planet Blog

31. Mai 2013 Posted by StefanP.

Great posting from Bob Sutor. I in particular like this paragraph on HR and analytics:

Data augments, not replaces, good management

With all of this analysis and heat mapping, the question of “will a computer make HR decisions?” always comes up. In short: No. Employees aren’t going to be whittled down to a score. Employees are important resources and talent. A machine won’t give anyone an excuse for poor communication of what employees need to understand to do their jobs. Analytics for HR does not replace good management nor an understanding of the social and cultural aspects of a working environment.

via Survey Says! Big Data Can Help Build Smarter Workforces « A Smarter Planet Blog.

And Bob quotes the creation of the IBM Social Business (previously Blogging) Guidelines as an example, how to engage influencers (instead of running to run the big analysis):

Social networks are not flat. Some employees create more content, and have more influence on their peers. So, rather than asking “what is the sum total of all employees’ thoughts” on some corporate message, the company may first ask the opinion of several of these influencers. …

For example, IBM’s first blogging guidelines for employees in 2005 came about because corporate communications asked a number of early employee bloggers to draft the policy. It was incredibly empowering at the time. These influencers said “Wow. They let us do this instead of just having some anonymous policy makers set some rules!” And the powers that be said “this seems reasonable. Let’s go with it.”

IBM chose those influencers for this work because they had really self-identified themselves because of their early and independent blogging. Their excitement to participate rendered results that then spread a belief and confidence in all employees that the rules were reasonable. What that group came up with also laid the foundation for what are now IBM’s social business guidelines.

via Survey Says! Big Data Can Help Build Smarter Workforces « A Smarter Planet Blog.


Filed under: English Tagged: Analytics, HR, IBM, SmarterWorkforce, SocBiz

[EN] Evolution of the networked enterprise: McKinsey Global Survey results on Social Business

28. März 2013 Posted by StefanP.

Interesting result out of a McKinsey survey confirming that Social is on the rise and merging with Cloud, Mobile and Big Data. Beyond technology it is obvious, that organizational barriers and change seems to be the most challenging issue:

With respect to productivity benefits in particular, the results indicate that companies must invest time and effort to enable greater productivity (particularly among knowledge workers) and competitive advantage. The likely need for significant organizational change is a challenging problem—and one that must be met by doing far more than changing the tools in a company’s portfolio. Companies can realize potential advantages more quickly by getting started early on the organizational transformations that will facilitate better use of technologies.

One way to facilitate and encourage more employee use of social technologies—and thus enhance their related benefits—is equipping workers with mobile access to these tools. Companies can also deploy cloud-based solutions when appropriate to make these solutions more scalable and decrease time to value.

via Evolution of the networked enterprise: Survey results – McKinsey Quarterly – High Tech – Strategy & Analysis.

Two graphs out of the study (you should read online or download). Which technologies are being used and which risks are being seen:

Technologien-2

Risks


Filed under: English Tagged: Analysts, Analytics, ChangeManagement, Cloud, Mobile, SocBoz

[EN] Smart Social Q&A builds bridge between people and knowledge within a company – Thomas Schaeck on Social Business features of the future

21. März 2013 Posted by StefanP.

Very interesting conversation with Thomas Schaeck from the IBM Lab in Boeblingen talking about aspects of the future development of IBM’s Social flagship product Connections. I am always stressing, how important analytics and providing users the right content, context and experts is. We need to put people in the centre and help them effectively in their daily work. This is where a Social Business-platform can and should stand out, differentiates from competitors filling functional gaps. And Smart Social Q&A sounds like a very interesting concept, designed and developed together with a German customer:

IBM is collaborating with Robert Bosch GmbH, IBM’s research partner on this initiative. The two are integrating an early version of Smart Social Q&A with the multinational engineering and electronics firm’s Connect platform, which is based on IBM Connections. Schaeck believes that within several years, social business platforms and smart applications leveraging them, like Smart Social Q&A, will be common and essential for large enterprises to remain competitive.

“Smart Social Q&A builds a bridge between all the people and all the knowledge within a company, whether it has a couple thousand or hundreds of thousands of employees,” Schaeck said. “It gets knowledge from people’s heads into the social business platform, where it becomes useful to everybody.”

via Meet Thomas Schaeck: Another Person for a Smarter Planet « A Smarter Planet Blog.


Filed under: English Tagged: Analytics, Connections, IBM, SocBiz

Artikelserie: Was Sie schon immer ueber BigData wissen wollten

4. Dezember 2012 Posted by Romeo Kienzler

 Hallo. 

Ich möchte hier eine kleine Serie über BigData schreiben. 

Sie wird ungefaehr die folgenden Topics beinhalten: 

  • Was ist BigData? 
  • Einige interessante BigData UseCases aus Sicht von IBM 
  • Einige interessante BigData UseCases aus globaler Sicht 
  • BigData Storage 
  • BigData Analytics 
    • Applied Statistics / Descriptive, Predictive, Prescriptive
    • Large Scale Mathematics
    • BigData Visualization 
  • Parallelization / Harddisk / Hauptspeicher / CPU Datendurchsatz
  • Fehler Toleranz / Commodity Hardware 
  • 360 Grad Ansicht: ETL (Extract Transform Load), Hadoop, Stream Computing, Massive Parallel DWH 
  • Ausblick, Self-Service BI 

Ich möchte nun mit der Definition von BigData beginnen. 

Wir sehen ein Datanprozessierungsproblem als BigData Problem wenn mindestens eines 
der folgenden V's zutrifft: 

Volume

Die groessten traditionellen DWH's die ich in meiner Laufbahn bisher kennen lernen durfte 
waren ca. 100 TB gross. Hier wurde jedoch sorgfältig ausgewählt welche Daten man im DWH 
speichert und welche nicht. Ziel von BigData ist es, den Zugriff von Unternehmen auf alle fuer Ihre Entscheidung relevanten Daten zu erweitern.
 
 
image
 
 
 
 
 
 
 
 
Abbildung 1: Seit Beginn der Menschheitsgeschichte bis 2003 wurden gleich viel Daten produziert
wie seit 2003 bis heute. 100 Millionen Tweets werden pro Tag verschickt, 35 Stunden Video in
 jeder Minute auf YouTube geladen, 6,1 Billionen Textnachrichten wurden
 2011 gesendet und 247 Millarden E-Mails gingen durch das Netz. 80 % davon sind Spam und Viren.
Die Informationsmenge nimmt schneller zu als die Moeglichkeiten wie Unternehmen diese 
Informationen prozessierenkoennen. Fuer den Teil zwischen den beiden Kurven befinden sich die
 Unternehmen im Blindflug.


Variaety

In traditionellen DWH's werden nur strukturierte Daten aufbereitet die ueber einen ETL Prozess 
vorher sorgfaeltig vom relationalen relationalen in DWH spezifische Strukturen ueberfuehrt 
wurden. Man sagt dass diese Prozess vom Aufwand her oft schon 70-80% des DHW Gesamtaufwandes 
darstellt. Der neue Ansatz lautet "Feature Extraction". Daten werden nicht mehr transformiert 
sondern so wie sie von der Quelle stammen importiert. Dies beinhaltet nicht nur strukturierte 
Daten, sondern auch "semi-structured data" wie z.B. News-Feeds oder "unstructured data" wie 
z.B. Freiform-Texte, Audio und Video. 

Velocity

Man unterscheidet zwischen "Data at Rest" und "Data in Motion". Beim Letzteren geht es um 
Echtzeit oder annähernde Echtzeitprozessierung (Near-RealTime). Zumeist setzt dies voraus 
dass Daten nicht oder nur sekundaer auf persistenten Speichermedien gehalten werden. 
Das Data-Processing findet auf dem Netzwerk, im Hauptspeicher und letztendlich in der CPU 
statt. Ein prominentes Beispiel hierfuer ist momentan "Click-Stream Analytics", bei dem 
der Pfad eines Webseitenbesuchers in Echtzeit verfolgt wird und dazu passende Inhalte 
geschaltet werden (vgl. "Recommender System"). 

Im naechsten Beitrag werde ich auf einige interessante IBM BigData UseCases eingehen wo
klar wird welche Rolle die 3 V's spielen.

Für die heutige Arbeit unverzichtbar: Informationen filtern, Kontext herstellen

24. September 2012 Posted by Stefan Pfeiffer

Bei einer Vorstandspräsentation bei einem deutschen Mittelständler zum Thema Von Social Media zum Social Business habe ich dieser Tage dieses Video zur Einführung gezeigt. Die Datenmengen sind enorm: 100 Millionen Tweets werden pro Tag verschickt, 35 Stunden Video in jeder Minute auf YouTube geladen, 6,1 Billionen Textnachrichten wurden 2011 gesendet und 247 Millarden E-Mails gingen durch das Netz. 80 % davon sind Spam und Viren. Die Informationsflut ist im wahrsten Sinne des Wortes überwältigend. Nach diesem Video habe ich live Facebook, Twitter, Xing und YouTube demonstriert, bevor ich den unternehmensinternen Einsatz sozialer Kanäle in der IBM gezeigt habe. In der IBM wie auch im Web 2.0 geht die Kommunikation über viel mehr Kanäle als es noch vor Jahren der Fall war. E-Mail wird dabei als Kanal nicht abgelöst. Es kommen einfach weitere Kanäle hinzu, über die Nachrichten “gepushed” werden: Microblogs, Instant Messaging, SMSe, Mails, die über soziale Netzwerke wie Xing, LinkedIn oder Facebook verschickt werden (und die weitere Posteingänge erzeugen).

Hinzu kommt der Strom von maximal 140 Zeichen langen Meldungen auf Twitter, die Facebook-Wall, auf der stetig neue Infos geteilt werden, der Xing-Nachrichtenstrom und so weiter. Dann noch Blogs, Wikis und Communities, in denen auch latent neue Informationen hinzukommen. Die Vorstände waren beeindruckt, ja vielleicht sogar abgeschreckt durch diese neue Welt der Informations- und Kanalüberflutung. “Wer liest denn das alles” oder “Können Sie das denn alles lesen” war die logische Frage. Ich habe dann gezeigt, wie ich die externen sozialen Kanäle mit Hilfe von Hootsuite verfolge, bestimmte “Hashtags” monitore und auch den Versand von Nachrichten in diesen Medien steuere. “Ja, aber das macht der normale Jugendliche nicht so. Sie machen das ja professionell.”, war die Reaktion. Das mag sein, aber ich habe den Vorständen mit auf den Weg gegeben, dass die Welt der sozialen Kanäle mit ihrer Informationsflut und -vielfalt nicht aufzuhalten ist. Diese Flut zu bewältigen, in der Lage zu sein, die wichtigen Informationen herauszufiltern, ist eine wichtige Fähigkeit und Kompetenz, die man heutzutage erlernen muss, privat, aber auch gerade am Arbeitsplatz.

Mein Kollege und ich haben den Vorständen dann auch die IBM-interne Arbeitsweise gezeigt, demonstriert, wie wir in Echtzeit mit IBM Sametime chatten oder im internen sozialen Netzwerk IBM Connections Informationen teilen und Projekte steuern. Dabei zeigten wir einige IBM-interne Communities. Der Kollege ist Mitglied in rund 20 Communities. Ich habe es eben einmal geprüft und festgestellt, dass ich in 88 Communities eingetragen bin. [Kleine Randbemerkung: Déja vu? Sicherlich, in den Glanzzeiten von Lotus Notes haben wir erlebt, wie für jedes Thema eine Notes-Datenbank erstellt wurde. Und den Kollegen von Microsoft geht es mit Sharepoint auch nicht anders. Natürlich stellt sich wieder die Frage, ob all diese Communities, Aktivitäten und Foren wirklich notwendig sind, oder ob man nicht besser einige Informationstöpfe zusammenfassen sollte. Doch genau das ist keine Frage des zugrunde liegenden Systems, sondern eine organisatorische Entscheidung, die die Software nur möglichst optimal unterstützen sollte. Nicht umsonst haben wir in IBM Connections beispielsweise Sub-Communities eingeführt.]

Natürlich wurde auch hier von den Vorständen die Frage gestellt, wie wir denn bei allen Communities, Blogs und Foren die Übersicht behalten. Eine nützliche Funktion ist hierfür die tägliche Zusammenfassung der Aktivitäten einer Community (oder eines Forum, eines Blogs, Wikis etc.), die man sich - sinnigerweise per E-Mail - zuschicken lassen kann. Natürlich lasse ich mir diese Zusammenfassung nicht für alle 88 Communities, Blogs etc. zuschicken. Ich bekomme sie nur für einen Bruchteil, nur von denen, die für meine Arbeit tagesaktuell wichtig sind. Alle anderen Communities und Informationsquellen recherchiere ich dann, wenn es nötig ist. Man muß und sollte sich nicht immer alle Informationen nach dem Push-Prinzip zusenden lassen. Oft ist das Pull-Prinzip wesentlich sinnvoller.

Hier sind wir immer noch beim möglichst intelligenten Umgang mit der Informationsflut, bei persönlichen Arbeits- und Filtertechniken, mit denen man diese Flut bewältigt und bei der Notwendigkeit, diese Techniken beigebracht zu bekommen. Aber in Zeiten von Watson können und sollten wir auch systemtechnische Hilfe an- und einfordern. Die IT-Systeme müssen uns nicht nur helfen, durch die Informationsfluten zu navigieren und Informationen leicht zu finden. Sie sollten auch Informationen in einen Kontext stellen. Was meine ich damit? Wenn ich mir in IBM Connections einen Blogbeitrag ansehe, schlägt mir die Software in der Seitenleiste automatisch ähnliche Beiträge vor. Ich finde dort auch Kollegen, die sich mit dem Thema beschäftigt haben, identifiziere als über das System Experten. IBM Connections stellt so über Social Analytics genau wie oben gefordert Kontext her.

Solche Funktionalitäten zeigen, wie sich Social Software und Analytics sinnvoll ergänzen können. Sie sind auch ein deutliches, funktionales Differenzierungsmerkmal des IBM Angebots zu den Marktbegleitern. Hat man dann Technologien wie Watson im Kopf, so lässt sich erahnen, wie viel an dieser Stelle noch zu erwarten ist. Analytische Funktionen werden in Zeiten, in denen man oft keine/n Sekretär/in mehr hat, der die Post vorsortiert, zum neuen Assistenten, der bei der Bewältigung der Arbeit hilft. Das entbindet nicht davon, selbst zu denken. Jedoch kann und sollte Software wie IBM Connections dabei untersützen, besser und schneller zu entscheiden.