Posts Tagged: ‘teccr’

Apache Cassandra NoSQL auf SoftLayer – as a Service & Ultrafast

26. August 2015 Posted by Romeo Kienzler

Ich betreue schon seit einiger Zeit unseren Partner Instaclustr der eine Apache Cassandra NoSQL Datenbank as Service anbietet. Wir haben nun diese Datenbank auf Softlayer provisioniert und können Sie in unserer Platform Cloud Lösung "Bluemix" as Service anbieten.

D.h. von nun an habe ich alle Vorteile von NoSQL Cassandra sowie die Vorteile eines Managed Service plus die Performance von IBM Softlayer Bare Metal Server - aus einer Hand und in ca. 10 Sekunden provisioniert.

Ben Slater - Product Engineer von Instaclustr hat hierzu einen Blog Artikel geschrieben in dem er beschreibt dass Cassandra auf IBM Softlayer doppelt so schnell ist wie auf dem schnellsten Server von Amazon Web Services.

Dies hat nun zur Folge dass unsere Kunden Ihr Business durch ultraschnelle Antwortzeiten beschleunigen können. Beispielsweise kann nun ein Kunde von IBM ein Echtzeit Recommendersystem aufbauen - mit 100 ms Latenz.

Bei IBM Bluemix gibt es einen Free Tier - das gilt für jeden Service - d.h. man kann (auch produktiv) seine Applikation in diesem Free Tier laufen lassen wenn die darin enthaltenen Resourcen ausreichen. Hier eine Liste meiner Lieblings-Services die im Free Tier enthalten sind:

20 GB Hadoop MapReduce

50 GB Apache Spark

20 GB CouchDB

500 MB MongoDB

1 GB DB2, ElasticSearch

Node.js, Liberty, PHP, Python, Go, R, Scala, JavaEE, ...

2 GB RAM DOCKER

500 MB RAM  CloudFoundry

12 GB RAM - 80 GB HD, 8vCores OpenStack

Sie können sich hier für den Free Tier registrieren - nach der 30 tägigen Trial wird Ihr account automatisch in den Free Tier umgewandelt. Viel Spass.

Bei Fragen stehe ich jederzeit zur Verfügung

romeo . kienzler ( at ) ch  . i b m . com

Apache Cassandra NoSQL auf SoftLayer – as a Service & Ultrafast

26. August 2015 Posted by Romeo Kienzler

Ich betreue schon seit einiger Zeit unseren Partner Instaclustr der eine Apache Cassandra NoSQL Datenbank as Service anbietet. Wir haben nun diese Datenbank auf Softlayer provisioniert und können Sie in unserer Platform Cloud Lösung "Bluemix" as Service anbieten.

 

D.h. von nun an habe ich alle Vorteile von NoSQL Cassandra sowie die Vorteile eines Managed Service plus die Performance von IBM Softlayer Bare Metal Server.

Ben Slater - Product Engineer von Instaclustr hat hierzu einen Blog Artikel geschrieben in dem er beschreibt dass Cassandra auf IBM Softlayer doppelt so schnell ist wie auf dem schnellsten Server von Amazon Web Services.

 

Dies hat nun zur Folge dass unsere Kunden Ihr Business durch Ultraschnelle Antwortzeiten beschleunigen können. Beispielsweise kann nun ein Kunde von IBM ein Echtzeit Recommendersystem aufbauen - mit 100 ms Latenz.

Bei IBM Bluemix gibt es einen Free Tier - das gilt für jeden Service - d.h. man kann (auch produktiv) seine Applikation in diesem Free Tier laufen lassen wenn die darin enthaltenen Resourcen ausreichen. Hier eine Liste meiner Lieblings-Services die im Free Tier enthalten sind:

20 GB Hadoop MapReduce

50 GB Apache Spark

20 GB CouchDB

500 MB MongoDB

1 GB DB2, ElasticSearch

Node.js, Liberty, PHP, Python, Go, R, Scala, JavaEE, ...


2 GB RAM DOCKER

500 MB RAM  CloudFoundry

12 GB RAM - 80 GB HD, 8vCores OpenStack

Sie können sich hier für den Free Tier registrieren - nach der 30 tägigen Trial wird Ihr account automatisch in den Free Tier umgewandelt. Viel Spass.

Bei Fragen stehe ich jederzeit zur Verfügung

romeo . kienzler ( at ) ch  . i b m . com

Apache Cassandra NoSQL auf SoftLayer – as a Service & Ultrafast

26. August 2015 Posted by Romeo Kienzler

Ich betreue schon seit einiger Zeit unseren Partner Instaclustr der eine Apache Cassandra NoSQL Datenbank as Service anbietet. Wir haben nun diese Datenbank auf Softlayer provisioniert und können Sie in unserer Platform Cloud Lösung "Bluemix" as Service anbieten.

D.h. von nun an habe ich alle Vorteile von NoSQL Cassandra sowie die Vorteile eines Managed Service plus die Performance von IBM Softlayer Bare Metal Server - aus einer Hand und in ca. 10 Sekunden provisioniert.

Ben Slater - Product Engineer von Instaclustr hat hierzu einen Blog Artikel geschrieben in dem er beschreibt dass Cassandra auf IBM Softlayer doppelt so schnell ist wie auf dem schnellsten Server von Amazon Web Services.

Dies hat nun zur Folge dass unsere Kunden Ihr Business durch ultraschnelle Antwortzeiten beschleunigen können. Beispielsweise kann nun ein Kunde von IBM ein Echtzeit Recommendersystem aufbauen - mit 100 ms Latenz.

Bei IBM Bluemix gibt es einen Free Tier - das gilt für jeden Service - d.h. man kann (auch produktiv) seine Applikation in diesem Free Tier laufen lassen wenn die darin enthaltenen Resourcen ausreichen. Hier eine Liste meiner Lieblings-Services die im Free Tier enthalten sind:

20 GB Hadoop MapReduce

50 GB Apache Spark

20 GB CouchDB

500 MB MongoDB

1 GB DB2, ElasticSearch

Node.js, Liberty, PHP, Python, Go, R, Scala, JavaEE, ...

2 GB RAM DOCKER

500 MB RAM  CloudFoundry

12 GB RAM - 80 GB HD, 8vCores OpenStack

Sie können sich hier für den Free Tier registrieren - nach der 30 tägigen Trial wird Ihr account automatisch in den Free Tier umgewandelt. Viel Spass.

Bei Fragen stehe ich jederzeit zur Verfügung

romeo . kienzler ( at ) ch  . i b m . com

Twitter Analyse mit Node.js, Node-RED, CouchDB/Cloudant und R

4. August 2015 Posted by Romeo Kienzler

Hallo,

ich habe leider noch keinen deutschen Audio-Track im Video, aber ich wollte es trotzdem mal teilen. Hier sieht man wie man mit IBM Bluemix (IBM PaaS Cloud) in weniger als 10 Minuten eine Twitteranalyse durchführt. Die blauen Vögel die um meinen Kopf fliegen kommen übrigens daher dass ich seit über 1,5 Jahren fast ausschliesslich mit IBM Bluemix arbeite und es mir immernoch extrem Freude bereitet da ich mich wirklich darauf verlassen kann dass die komplette Software-Infrastruktur von IBM gewartet wird und ich mich nur noch auf meinen eigenen Code fixieren muss, viel Spass:

 

Anbei noch der Link zum R-Script auf welches im Video hingewiesen wird.

https://github.com/romeokienzler/developerWorks/blob/master/tweets.r

Uebrigens, man kann das ganze ganz leicht selbst ausprobieren da IBM neben einem 30-tägigen Testaccount einen sogenanntes "Free Tier" anbietet bei dem alle Services bis zu einer bestimmten Resourcenkonfiguration komplett kostenlos (auch in Produktion) genutzt werden können.

Hier ein paar Beispiele:

  • 50 GB Hadoop
  • 20 GB CouchDB
  • 500 MB MongoDB
  • 1 GB DB2
  • 2 GB RAM DOCKER
  • 500 MB RAM  CloudFoundry
  • 12 GB RAM - 80 GB HD, 8vCores OpenStack

Hier kann man sich dafür anmelden:

http://ibm.biz/joinIBMCloud
 

 

Twitter Analyse mit Node.js, Node-RED, CouchDB/Cloudant und R

4. August 2015 Posted by Romeo Kienzler

Hallo,

ich habe leider noch keinen deutschen Audio-Track im Video, aber ich wollte es trotzdem mal teilen. Hier sieht man wie man mit IBM Bluemix (IBM PaaS Cloud) in weniger als 10 Minuten eine Twitteranalyse durchführt. Die blauen Vögel die um meinen Kopf fliegen kommen übrigens daher dass ich seit über 1,5 Jahren fast ausschliesslich mit IBM Bluemix arbeite und es mir immernoch extrem Freude bereitet da ich mich wirklich darauf verlassen kann dass die komplette Software-Infrastruktur von IBM gewartet wird und ich mich nur noch auf meinen eigenen Code fixieren muss, viel Spass:

 

Anbei noch der Link zum R-Script auf welches im Video hingewiesen wird.

https://github.com/romeokienzler/developerWorks/blob/master/tweets.r

Uebrigens, man kann das ganze ganz leicht selbst ausprobieren da IBM neben einem 30-tägigen Testaccount einen sogenanntes "Free Tier" anbietet bei dem alle Services bis zu einer bestimmten Resourcenkonfiguration komplett kostenlos (auch in Produktion) genutzt werden können.

Hier ein paar Beispiele:

  • 50 GB Hadoop
  • 20 GB CouchDB
  • 500 MB MongoDB
  • 1 GB DB2
  • 2 GB RAM DOCKER
  • 500 MB RAM  CloudFoundry
  • 12 GB RAM - 80 GB HD, 8vCores OpenStack

Hier kann man sich dafür anmelden:

http://ibm.biz/joinIBMCloud
 

 

Twitter Analyse mit Node.js, Node-RED, CouchDB/Cloudant und R

4. August 2015 Posted by Romeo Kienzler

Hallo,

ich habe leider noch keinen deutschen Audio-Track im Video, aber ich wollte es trotzdem mal teilen. Hier sieht man wie man mit IBM Bluemix (IBM PaaS Cloud) in weniger als 10 Minuten eine Twitteranalyse durchführt. Die blauen Vögel die um meinen Kopf fliegen kommen übrigens daher dass ich seit über 1,5 Jahren fast ausschliesslich mit IBM Bluemix arbeite und es mir immernoch extrem Freude bereitet da ich mich wirklich darauf verlassen kann dass die komplette Software-Infrastruktur von IBM gewartet wird und ich mich nur noch auf meinen eigenen Code fixieren muss, viel Spass:

 

Anbei noch der Link zum R-Script auf welches im Video hingewiesen wird.

https://github.com/romeokienzler/developerWorks/blob/master/tweets.r

Uebrigens, man kann das ganze ganz leicht selbst ausprobieren da IBM neben einem 30-tägigen Testaccount einen sogenanntes "Free Tier" anbietet bei dem alle Services bis zu einer bestimmten Resourcenkonfiguration komplett kostenlos (auch in Produktion) genutzt werden können.

Hier ein paar Beispiele:

  • 50 GB Hadoop
  • 20 GB CouchDB
  • 500 MB MongoDB
  • 1 GB DB2
  • 2 GB RAM DOCKER
  • 500 MB RAM  CloudFoundry
  • 12 GB RAM - 80 GB HD, 8vCores OpenStack

Hier kann man sich dafür anmelden:

http://ibm.biz/joinIBMCloud
 

 

1 Jahr Bluemix – ein Erfahrungsbericht aus technischer Sicht

21. Juli 2015 Posted by Romeo Kienzler

Mein Name ist Romeo Kienzler und ich arbeite als Data Scientist, Architect und Technology Evangelist bei IBM Zurich (EcoD DACH) und befasse mich hauptsächlich mit dem Thema „Data Management & Analytics in the Cloud“ auf der technischen Ebene.

Mein Fokus liegt in der Betreuung von Start-Ups und akademischen Einrichtugen – ab und zu arbeite ich aber auch mit größeren Enterprise-Kunden.

Ich arbeite nun seit dem Beginn der “OpenBeta” Anfang 2014 intensiv mit Bluemix und möchte hier einen kurzen Erfahrungsbericht schreiben.

 

IBM Bluemix, die „Open by Design“ PaaS (Platform as a Service) Cloud der IBM die auf offenen Standards basiert

 IBM Bluemix ist die PaaS (Platform as a Service) Cloud von IBM, welche letztes Frühjahr in die „Open Beta“ ging und seit knapp über einem Jahr nun in Produktion ist.

Der Hauptunterschied zu anderen PaaS Clouds ist der „Open By Design“-Approach, den IBM hier fährt. Anstelle von proprietären Schnittstellen basiert die IBM Cloud auf den Standards „ OpenStack “, „ DOCKER “ und „ CloudFoundry “. OpenStack ist ein offener Standard für Infrastructure Clouds (IaaS), CloudFoundry das äquivalent dazu für Platform Clouds (PaaS) und DOCKER sind „ultra-light“ virtuelle Maschinen die auf Container Isolation basieren. Eine Docker VM startet beispielsweise in < 100 ms. Somit wird der „Vendor Lock-In“ reduziert – andererseits profitieren die OpenSource Communities auch von OpenSource Engagement der IBM.
Wie das OpenSource Engagement von IBM aussieht? Derzeit arbeiten beispielsweise über 150 aktive IBM Entwickler am Source-Code von „CloudFoundry“. Zusätzlich ist IBM auch Mitglied in der CloudFoundry Foundation, offizieller Platinum Member der OpenStack Foundation und ist mit DOCKER eine stategische Partnerschaft eingegangen. Ich denke dass diese Standards in hohem Masse von den Erfahrungen die IBM im Enterprise Geschäft hat profitieren, da IBM einerseits sicherstellt dass diese Standards sich den Bedürfnissen der Enterprise Kunden anpassen und kontinuierlich erweitert werden, andererseits profitieren die Kunden davon Ihr Know-How, Prozesse und Toolset nun mit jeder Cloud (private, hybrid oder public) verwendet werden können die auf diesen Standards basiert.

Doch was macht der offene CloudFoundry – Standard eigentlich so spannend?

 Das offene System bringt entscheidende Vorteile in Sachen Kompatibilität und Breite der angebotenen Technologien.

Es gibt weltweit keine Cloud die mehr Services anbietet, als die IBM Platform Cloud, aktuell sind es über 100 Services, aber es kommt ca. jeder Woche mindestens einer dazu. Neben Standards Services wie MongoDB, MySQL, PostgreSQL, Redis, DB2, CouchDB gibt es auch spezialisierte Services für alle möglichen Anforderungen.

Auf Runtime-Ebene wird alles von IBM WebSpehre Liberty (JEE Container analog TomCat oder Jetty) über Node.js zu einer Vielzahl von CloudFoundry Plugins für nahezu jede Programmiersprache und Frameworks unterstützt. Dies gilt nicht nur für PHP, Python oder Perl sondern auch für „Exoten“ wie Go, R, Scala oder „Aliens“ wie Eiffel, Erlang oder Haskel.

Hier ein Beispiel wie einfach sich die PHP/MySQL Applikation "Wordpress" installieren lässt:

Aber neben den Runtimes gibt es auch ein offenes Services-Ecosystem und dies wird durch den sogenannten IBM Cloud Marketplace ermöglicht, in dem Fremdanbieter ihren Service über IBM anbieten können. Hierbei geschieht die Abrechnung jedoch zentral via IBM – ähnlich einem App-Store – nur für Services. Und nicht zu vergessen natürlich die IBM Watson Cognitive Computing Services oder auch die Cloud Integration Services, mit dem man ein lokales Data Center mit der IBM Cloud integrieren kann.

Meine ganz persönliche Erfahrung mit IBM Bluemix

Ich habe nun diese Reise seit über 18 Monaten begleitet und kann mit guten Gewissen sagen, dass die IBM Platform Cloud unter den großen Wettbewerbern die offenste und reichhaltigste darstellt.

Es macht wirklich Spaß damit zu entwickeln, da man sich nun voll und ganz auf die Applikationsentwicklung konzentrieren kann – lästiges Aufsetzen von Servern, Infrastruktur, Netzwerk und Middleware entfällt völlig. Eine Datenbank startet in unter 7 Sekunden und eine Applikation ist mit einem einzigen Befehl in ca. 1 Minute installiert und unter einer öffentlichen URL erreichbar.

Und nicht nur dies, mit einer einfachen zusätzlichen Konfiguration ist die Applikation sogar horizontal skalierbar – ohne die eigentliche Applikation zu ändern. Dies bedeutet dass bei geringem Workload die Applikation faktisch „schläft“ und nur ein Minimum an Ressourcen benötigt. Wird die Applikation jedoch hohem Load ausgesetzt, werden vollautomatisch zusätzliche Instannzen auch über Servergrenzen hinweg gestartet und auch wieder gestoppt. Dies alles geschieht ohne Zutun des Applikationsentwicklers und auch ohne dass der Anwender etwas davon mitbekommt. (Außer natürlich eine angenehme, immer konstante – vordefinierte – Response-Time von z.B. 100ms).

Schlussendlich bietet diese Cloud zusätzlich noch eine komplette DevOps Integration mit automatischem Build Service „as a Serivce“ basierend auf Jenkins mit Plugins für Maven, Ant, Grunt, Gradle, ein privates GIT repository , Eclipse Orion, Rational Jazz und vieles mehr. Somit können neben traditionellen Softwareentwicklungsprozessen auch moderne Prozesse wie Scrum, Kanban, Contineous Integration und Contineous Delivery einfach integriert werden – wenn nötig sogar ohne lokale Installationen da sowohl Eclipse, das Source Code Reposiotry, der BuildServier und die Runtime als Cloud – Service verfügbar sind. Natürlich kann auf Wunsch auch jede Komponente lokal oder bei einem anderen Cloud-Provider verwendet werden.

IBM hat hier ein Meisterstück geleistet

Dies alles hat IBM in 1 Jahr vom Beta auf Produktionsqualität getrieben und dies ist erst der Anfang der Reise. Falls alle Software die IBM im Portfolio hat wird cloud-enabled d.h. über Bluemix.net verfügbar sein – zusätzlich natürlich mit dem wöchentlich wachsenden Partnernetzwerk.

Interessiert? Versuchen Sie es doch selbst einmal – IBM hat einen sehr großzügigen „Free Tier“ bei dem (unabhängig von der einmonatigen Trial) viele Services und Runtimes kostenlos (auch in Produktion) genutzt werden können.

Unter folgendem Link können Sie sich für die Trial registieren (wird nach 30 Tagen automatisch ins Free Tier konvertiert): https://ibm.biz/BdXhUK

Anbei noch ein kleines Video-Tutorial, in dem man sehen kann, wie man eine JavaEE WebApplikation innerhalb von 60 Sekunden schreiben und unter einer öffentlichen URL in der IBM Cloud verfügbar machen kann.
 

-----------------------------------------------------------------------------------------------------------------------------------
IBM Cloud Free Tier: 20 GB Hadoop, 20 GB CouchDB, 500 MB MongoDB, 1 GB DB2
2 GB RAM DOCKER, 500 MB RAM  CloudFoundry, 12 GB RAM - 80 GB HD, 8vCores OpenStack
https://ibm.biz/BdXhUK
-----------------------------------------------------------------------------------------------------------------------------------

 

1 Jahr Bluemix – ein Erfahrungsbericht aus technischer Sicht

21. Juli 2015 Posted by Romeo Kienzler

Mein Name ist Romeo Kienzler und ich arbeite als Data Scientist, Architect und Technology Evangelist bei IBM Zurich (EcoD DACH) und befasse mich hauptsächlich mit dem Thema „Data Management & Analytics in the Cloud“ auf der technischen Ebene.

Mein Fokus liegt in der Betreuung von Start-Ups und akademischen Einrichtugen – ab und zu arbeite ich aber auch mit größeren Enterprise-Kunden.

Ich arbeite nun seit dem Beginn der “OpenBeta” Anfang 2014 intensiv mit Bluemix und möchte hier einen kurzen Erfahrungsbericht schreiben.

 

IBM Bluemix, die „Open by Design“ PaaS (Platform as a Service) Cloud der IBM die auf offenen Standards basiert

 IBM Bluemix ist die PaaS (Platform as a Service) Cloud von IBM, welche letztes Frühjahr in die „Open Beta“ ging und seit knapp über einem Jahr nun in Produktion ist.

Der Hauptunterschied zu anderen PaaS Clouds ist der „Open By Design“-Approach, den IBM hier fährt. Anstelle von proprietären Schnittstellen basiert die IBM Cloud auf den Standards „ OpenStack “, „ DOCKER “ und „ CloudFoundry “. OpenStack ist ein offener Standard für Infrastructure Clouds (IaaS), CloudFoundry das äquivalent dazu für Platform Clouds (PaaS) und DOCKER sind „ultra-light“ virtuelle Maschinen die auf Container Isolation basieren. Eine Docker VM startet beispielsweise in < 100 ms. Somit wird der „Vendor Lock-In“ reduziert – andererseits profitieren die OpenSource Communities auch von OpenSource Engagement der IBM.
Wie das OpenSource Engagement von IBM aussieht? Derzeit arbeiten beispielsweise über 150 aktive IBM Entwickler am Source-Code von „CloudFoundry“. Zusätzlich ist IBM auch Mitglied in der CloudFoundry Foundation, offizieller Platinum Member der OpenStack Foundation und ist mit DOCKER eine stategische Partnerschaft eingegangen. Ich denke dass diese Standards in hohem Masse von den Erfahrungen die IBM im Enterprise Geschäft hat profitieren, da IBM einerseits sicherstellt dass diese Standards sich den Bedürfnissen der Enterprise Kunden anpassen und kontinuierlich erweitert werden, andererseits profitieren die Kunden davon Ihr Know-How, Prozesse und Toolset nun mit jeder Cloud (private, hybrid oder public) verwendet werden können die auf diesen Standards basiert.

Doch was macht der offene CloudFoundry – Standard eigentlich so spannend?

 Das offene System bringt entscheidende Vorteile in Sachen Kompatibilität und Breite der angebotenen Technologien.

Es gibt weltweit keine Cloud die mehr Services anbietet, als die IBM Platform Cloud, aktuell sind es über 100 Services, aber es kommt ca. jeder Woche mindestens einer dazu. Neben Standards Services wie MongoDB, MySQL, PostgreSQL, Redis, DB2, CouchDB gibt es auch spezialisierte Services für alle möglichen Anforderungen.

Auf Runtime-Ebene wird alles von IBM WebSpehre Liberty (JEE Container analog TomCat oder Jetty) über Node.js zu einer Vielzahl von CloudFoundry Plugins für nahezu jede Programmiersprache und Frameworks unterstützt. Dies gilt nicht nur für PHP, Python oder Perl sondern auch für „Exoten“ wie Go, R, Scala oder „Aliens“ wie Eiffel, Erlang oder Haskel.

Hier ein Beispiel wie einfach sich die PHP/MySQL Applikation "Wordpress" installieren lässt:

Aber neben den Runtimes gibt es auch ein offenes Services-Ecosystem und dies wird durch den sogenannten IBM Cloud Marketplace ermöglicht, in dem Fremdanbieter ihren Service über IBM anbieten können. Hierbei geschieht die Abrechnung jedoch zentral via IBM – ähnlich einem App-Store – nur für Services. Und nicht zu vergessen natürlich die IBM Watson Cognitive Computing Services oder auch die Cloud Integration Services, mit dem man ein lokales Data Center mit der IBM Cloud integrieren kann.

Meine ganz persönliche Erfahrung mit IBM Bluemix

Ich habe nun diese Reise seit über 18 Monaten begleitet und kann mit guten Gewissen sagen, dass die IBM Platform Cloud unter den großen Wettbewerbern die offenste und reichhaltigste darstellt.

Es macht wirklich Spaß damit zu entwickeln, da man sich nun voll und ganz auf die Applikationsentwicklung konzentrieren kann – lästiges Aufsetzen von Servern, Infrastruktur, Netzwerk und Middleware entfällt völlig. Eine Datenbank startet in unter 7 Sekunden und eine Applikation ist mit einem einzigen Befehl in ca. 1 Minute installiert und unter einer öffentlichen URL erreichbar.

Und nicht nur dies, mit einer einfachen zusätzlichen Konfiguration ist die Applikation sogar horizontal skalierbar – ohne die eigentliche Applikation zu ändern. Dies bedeutet dass bei geringem Workload die Applikation faktisch „schläft“ und nur ein Minimum an Ressourcen benötigt. Wird die Applikation jedoch hohem Load ausgesetzt, werden vollautomatisch zusätzliche Instannzen auch über Servergrenzen hinweg gestartet und auch wieder gestoppt. Dies alles geschieht ohne Zutun des Applikationsentwicklers und auch ohne dass der Anwender etwas davon mitbekommt. (Außer natürlich eine angenehme, immer konstante – vordefinierte – Response-Time von z.B. 100ms).

Schlussendlich bietet diese Cloud zusätzlich noch eine komplette DevOps Integration mit automatischem Build Service „as a Serivce“ basierend auf Jenkins mit Plugins für Maven, Ant, Grunt, Gradle, ein privates GIT repository , Eclipse Orion, Rational Jazz und vieles mehr. Somit können neben traditionellen Softwareentwicklungsprozessen auch moderne Prozesse wie Scrum, Kanban, Contineous Integration und Contineous Delivery einfach integriert werden – wenn nötig sogar ohne lokale Installationen da sowohl Eclipse, das Source Code Reposiotry, der BuildServier und die Runtime als Cloud – Service verfügbar sind. Natürlich kann auf Wunsch auch jede Komponente lokal oder bei einem anderen Cloud-Provider verwendet werden.

IBM hat hier ein Meisterstück geleistet

Dies alles hat IBM in 1 Jahr vom Beta auf Produktionsqualität getrieben und dies ist erst der Anfang der Reise. Falls alle Software die IBM im Portfolio hat wird cloud-enabled d.h. über Bluemix.net verfügbar sein – zusätzlich natürlich mit dem wöchentlich wachsenden Partnernetzwerk.

Interessiert? Versuchen Sie es doch selbst einmal – IBM hat einen sehr großzügigen „Free Tier“ bei dem (unabhängig von der einmonatigen Trial) viele Services und Runtimes kostenlos (auch in Produktion) genutzt werden können.

Unter folgendem Link können Sie sich für die Trial registieren (wird nach 30 Tagen automatisch ins Free Tier konvertiert): https://ibm.biz/BdXhUK

Anbei noch ein kleines Video-Tutorial, in dem man sehen kann, wie man eine JavaEE WebApplikation innerhalb von 60 Sekunden schreiben und unter einer öffentlichen URL in der IBM Cloud verfügbar machen kann.
 

-----------------------------------------------------------------------------------------------------------------------------------
IBM Cloud Free Tier: 20 GB Hadoop, 20 GB CouchDB, 500 MB MongoDB, 1 GB DB2
2 GB RAM DOCKER, 500 MB RAM  CloudFoundry, 12 GB RAM - 80 GB HD, 8vCores OpenStack
https://ibm.biz/BdXhUK
-----------------------------------------------------------------------------------------------------------------------------------

 

Der Global Technology Outlook – Ein Blick in die Zukunft von IT und Business

2. Juli 2015 Posted by Thomas Harrer

TEC Kundenkonferenz

Am 10. und 11. Juni 2015 fand die TEC Kundenkonferenz im IBM Labor Böblingen statt. Dabei ging es um das Querdenken zwischen Chef-Technologen von Kundenunternehmen und Experten der IBM. Viele Teilnehmer bewegte dabei die zentrale Frage: Wie können sie Innovation mittels aufkommender technologischer Möglichkeiten im eigenen Unternehmen gestalten und umsetzen?

Der Global Technology Outlook – ein Blick in die Zukunft von IT und Business

Dirk Wittkopp, Vice President und Leiter der IBM Entwicklung in Deutschland warf zu Beginn der Konferenz zunächst den Blick nach vorne und referierte über den IBM Global Technology Outlook 2015. Dabei handelt es sich um eine weltweite Studie von IBM Research, in der mit einem Horizont von ca. 5-7 Jahren technologische Entwicklungen und Trends beschrieben werden. Laut Wittkopp sind es vor allem technologische Entwicklungen in offenen Eco-Systemen, die zukünftig Innovationen und disruptive Veränderungen in den Märkten bewirken.

imageDaten als Rohstoff

Daten sind der Rohstoff für das 21. Jahrhundert. Der Global Technology Outlook 2015 beschreibt sechs Trend-Themen rund um Daten. Dabei sollte klar sein, dass Daten eine Gravität haben und größere Latenzzeiten für den Transport von Daten für viele Echtzeitszenarien rund um das Internet der Dinge nicht möglich sind. Für sehr schnelle Rekationszeiten verbietet sich z.B. der Transport der Daten in ein weit entferntes Cloud-Rechenzentrum.

 

Themen des Global Technology Outlooks

Data at the Edge - das sind Daten, die direkt in Smartphones oder unzähligen Sensoren generiert werden. Diese Daten haben ein großes Potential, für bessere Einsichten (z.B. für den Straßenverkehr, für die Gesundheit etc.) zu haben. Allerdings müssen diese Daten vor Ort analysiert und aggregiert werden können, da die Netzwerke nicht in der Lage sein werden, dieses Potential effektiv und effizient zu heben.

Industry Data Curation - das bedeutet, dass verschiedene Rohdaten so angereichert werden, dass in einem bestimmten Branchenkontext ein Gesamtbild aus den Daten entsteht und tatsächliche Einsichten generiert werden. Dazu muss immer mehr die Semantik von Sprache, Bildern, analogen Daten und Video-Informationen analysiert und in einen Unternehmens- bzw. Branchenbezug gesetzt werden.

Cloud Data Foundation - dabei geht es um Grundlagen, um vermehrt verteilte Daten nutzen zu können, so dass kritische Unternehmensdaten aus eigenen skalierbaren Datastores mit eigenen oder fremden Daten aus öffentlichen Cloud-Services sicher und effizient kombiniert und ausgewertet werden können. Dafür werden neue APIs und Ecosysteme bestehend aus Anbietern von Produkten und Services zur Cloud Data entstehen. Dirk Wittkopp führte aus, dass dabei IBM Bluemix ein Schlüsselelement für die zukünftige Softwareentwicklung sein wird.

Transforming Healthcare - immense Daten, die das Gesundheitswesen und die Medizin massiv verändern können, werden immer mehr generiert und könnten zu einer besseren medizinischen Versorgung genutzt werden. Dabei sind Sicherheitsaspekte besonders wichtig.

Payment Insights - die zunehmende Digitalisierung und die aufkommenden mobilen Bezahlungsverfahren wird einen neuen Markt für die Nutzung von Einsichten aus Bezahlungsinformationen ermöglichen.

Neuromorphic Computing - heutige Computersysteme haben für die schnelle Verarbeitung von komplexen Sensorinformationen (z.B. Videoinhalte) bei weitem noch nicht die Effizienz von biologischen Systemen. Eine aufkommende neue Computerarchitektur wird für "Neuronale" Aufgaben eine um Faktoren bessere Energieeffizienz aufweisen (Beispiel: IBM SyNAPSE Chip mit 1 Million Neuronen und 256 Millionen Synapsen)

Fazit

Die Digitalisierung wird weiter fortschreiten. Die intelligente Nutzung von Daten wird für viele Branchen und Unternehmen zu einem differenzierenden Faktor. IBM kann dabei helfen, diesen Weg zum Erfolg zu führen. Mit diesem Fazit nahmen die Teilnehmer der TEC Kundenkonferenz sehr viel Anregungen aus dem Vortrag zum Global Technologie Outlook und aus den anderen Vorträgen der spannenden Agenda mit.

 

Der Global Technology Outlook – Ein Blick in die Zukunft von IT und Business

2. Juli 2015 Posted by Thomas Harrer

TEC Kundenkonferenz

Am 10. und 11. Juni 2015 fand die TEC Kundenkonferenz im IBM Labor Böblingen statt. Dabei ging es um das Querdenken zwischen Chef-Technologen von Kundenunternehmen und Experten der IBM. Viele Teilnehmer bewegte dabei die zentrale Frage: Wie können sie Innovation mittels aufkommender technologischer Möglichkeiten im eigenen Unternehmen gestalten und umsetzen?

Der Global Technology Outlook – ein Blick in die Zukunft von IT und Business

Dirk Wittkopp, Vice President und Leiter der IBM Entwicklung in Deutschland warf zu Beginn der Konferenz zunächst den Blick nach vorne und referierte über den IBM Global Technology Outlook 2015. Dabei handelt es sich um eine weltweite Studie von IBM Research, in der mit einem Horizont von ca. 5-7 Jahren technologische Entwicklungen und Trends beschrieben werden. Laut Wittkopp sind es vor allem technologische Entwicklungen in offenen Eco-Systemen, die zukünftig Innovationen und disruptive Veränderungen in den Märkten bewirken.

imageDaten als Rohstoff

Daten sind der Rohstoff für das 21. Jahrhundert. Der Global Technology Outlook 2015 beschreibt sechs Trend-Themen rund um Daten. Dabei sollte klar sein, dass Daten eine Gravität haben und größere Latenzzeiten für den Transport von Daten für viele Echtzeitszenarien rund um das Internet der Dinge nicht möglich sind. Für sehr schnelle Rekationszeiten verbietet sich z.B. der Transport der Daten in ein weit entferntes Cloud-Rechenzentrum.

 

Themen des Global Technology Outlooks

Data at the Edge - das sind Daten, die direkt in Smartphones oder unzähligen Sensoren generiert werden. Diese Daten haben ein großes Potential, für bessere Einsichten (z.B. für den Straßenverkehr, für die Gesundheit etc.) zu haben. Allerdings müssen diese Daten vor Ort analysiert und aggregiert werden können, da die Netzwerke nicht in der Lage sein werden, dieses Potential effektiv und effizient zu heben.

Industry Data Curation - das bedeutet, dass verschiedene Rohdaten so angereichert werden, dass in einem bestimmten Branchenkontext ein Gesamtbild aus den Daten entsteht und tatsächliche Einsichten generiert werden. Dazu muss immer mehr die Semantik von Sprache, Bildern, analogen Daten und Video-Informationen analysiert und in einen Unternehmens- bzw. Branchenbezug gesetzt werden.

Cloud Data Foundation - dabei geht es um Grundlagen, um vermehrt verteilte Daten nutzen zu können, so dass kritische Unternehmensdaten aus eigenen skalierbaren Datastores mit eigenen oder fremden Daten aus öffentlichen Cloud-Services sicher und effizient kombiniert und ausgewertet werden können. Dafür werden neue APIs und Ecosysteme bestehend aus Anbietern von Produkten und Services zur Cloud Data entstehen. Dirk Wittkopp führte aus, dass dabei IBM Bluemix ein Schlüsselelement für die zukünftige Softwareentwicklung sein wird.

Transforming Healthcare - immense Daten, die das Gesundheitswesen und die Medizin massiv verändern können, werden immer mehr generiert und könnten zu einer besseren medizinischen Versorgung genutzt werden. Dabei sind Sicherheitsaspekte besonders wichtig.

Payment Insights - die zunehmende Digitalisierung und die aufkommenden mobilen Bezahlungsverfahren wird einen neuen Markt für die Nutzung von Einsichten aus Bezahlungsinformationen ermöglichen.

Neuromorphic Computing - heutige Computersysteme haben für die schnelle Verarbeitung von komplexen Sensorinformationen (z.B. Videoinhalte) bei weitem noch nicht die Effizienz von biologischen Systemen. Eine aufkommende neue Computerarchitektur wird für "Neuronale" Aufgaben eine um Faktoren bessere Energieeffizienz aufweisen (Beispiel: IBM SyNAPSE Chip mit 1 Million Neuronen und 256 Millionen Synapsen)

Fazit

Die Digitalisierung wird weiter fortschreiten. Die intelligente Nutzung von Daten wird für viele Branchen und Unternehmen zu einem differenzierenden Faktor. IBM kann dabei helfen, diesen Weg zum Erfolg zu führen. Mit diesem Fazit nahmen die Teilnehmer der TEC Kundenkonferenz sehr viel Anregungen aus dem Vortrag zum Global Technologie Outlook und aus den anderen Vorträgen der spannenden Agenda mit.

 

Services – wie aus einer Hand! – Alles zum richtigen Vorgehen rund um Service-Integration in Multi-Sourcing/ Hybrid-IT (12/12)

29. Januar 2015 Posted by Bernd Kueppers

Entwicklung bzw. Fortschreibung der IT-Sourcing Strategieimage

(geschrieben von Bernd Küppers & Frank Deleiter)
 
Im vorangehenden Beitrag haben wir diskutiert, warum immer mehr Unternehmen IT-Sourcing betreiben und welche Möglichkeiten es dazu gibt. In diesem Artikel möchten wir nun Anregungen geben, wie man als Unternehmen seine individuelle IT-Sourcing Strategie festlegen kann.

Eine IT-Sourcing Strategie sollte Teil einer unternehmensweiten Sourcing-Strategie sein, in der die Unternehmensleitung festlegt, wie die Fertigungstiefe des Unternehmens in den einzelnen Bereichen der Organisation sein sollte bzw. nach welchen Kriterien die Fertigungstiefe zu bestimmen ist. Damit ist eine Sourcing-Strategie immer individuell auf ein Unternehmen zugeschnitten.

Die Entwicklung dieser Strategie besteht wie im Schaubild illustriert typischerweise aus mehreren Schritten:image
 
1. Start und Strategische Analyse

Nach der Basisklärung (u.a. Grundzweck der Aufgabenstellung, Umfang der Untersuchung, strategische Rahmenbedingungen und Strukturüberblick hinsichtlich der IT- Leistungen) muss als zentraler Ausgangspunkt aller Sourcing-Überlegungen festgestellt werden, inwieweit ein Unternehmen bereit ist, Verantwortung und Ressourcen (zwischen intern und extern) zu verteilen. Dadurch kann sich der Lösungsraum der Sourcing Varianten zielgerichtet eingrenzen. Die Optionen wie „Eigenbetrieb“, „Teil-Sourcing“, „Total-Outsourcing“ ebenso wie die mögliche zukünftige Form der Zusammenarbeit werden initial bewertet und ein Sourcing-Profil definiert.

Ebenso wichtig ist die Einschätzung der Kernkompetenzen der IT. Für Kernkompetenzen einer IT sollte lediglich internes Sourcing weiter verfolgt werden. Für alle weiteren Aufgabenbereiche (Nicht-Kernkompetenzen) kann weiter auf Produktivitätserhöhung hin untersucht und damit auch die Option des externen Sourcing weiterverfolgt werden.

In der strategischen Analyse wird weiterhin ein Bewertungsmodell entwickelt und verabschiedet. Abhängig von der Granularität der Serviceblöcke sollte aus Effizienzgründen das Modell Kriterien für eine Vorfilterung enthalten, da es für manche Aufgabenbereiche bzgl. externem Sourcing keinen Sinn macht, weiter zu untersuchen. Als Filter-Kriterien eignen sich beispielsweise „Service ist Kernkompetenz“, „Gering eingestufte Reife eines Services bei IT Providern“ oder „Aufwandsteil für den Service zu gering“.

Für die verbleibenden Servicebausteine sind die Kriterien für die eigentliche Bewertung der Service-Kandidaten festzulegen. Als Bewertungskriterien eignen sich beispielsweise: Aufwand, Kosten, Volumenschwankung, heutige Einschätzung der Fertigkeiten und Grad der Industrialisierung sowie der Dokumentationsstand. Sie können Indikationen bzgl. des Nutzens von Sourcing und dem mit der Transformation zum Sourcing verbundenen Aufwand geben.

Im Vorfeld sollte geklärt sein, inwieweit vorhandene Skills im Rahmen des Projekts berücksichtigt werden sollen und ggf. durch eine optionale Organisationsanalyse mit erhoben werden sollen. Diese sind insbesondere beim Transfer von Sourcing-Kandidaten in den definierten Kernkompetenzen von Relevanz. Entsprechend ist dies bei den Kriterien dann (z.B. als Aufwand für Personaltransfer) zu berücksichtigen.

2. Bewertung ausgewählter Service-Bausteine

In dieser Phase erfolgt die eigentliche Evaluierung von Service-Bausteinen mit dem definierten Team der IT Organisation. Nach der Wertung der Kriterien sollte erkennbar sein, welche Service-Bausteine gleichzeitig einen großen Nutzen versprechen und vertretbaren Transformationsaufwand indizieren.

3. Bewertung der Steuerungsfähigkeit

In der dritten Phase wird untersucht, ob die Fähigkeiten zur Service Integration der Services von verschiedenen Dienstleistern gut genug ausgeprägt sind, oder in welchem Bereich diese Fähigkeiten noch verbessert werden sollten. Die Bewertung der Fähigkeiten zur Service Integration kann sehr gut entlang der sechs Dimensionen des IBM Service Integration Capability Models erfolgen, wie in den vorangehenden Beiträgen dieses Blogs beschrieben (4/12 bis 10/12).
Falls die Fähigkeiten zur Service Integration nicht hinreichend ausgeprägt sind, dann kann es in der Folge zu Problemen bei der Zusammenarbeit mit den Service Providern und zu spürbaren Einbußen bei der Service-Qualität kommen. Daher ist es wichtig, das richtige Maß an Fähigkeiten zur Service Integration rechtzeitig zu entwickeln – oder sich von einem erfahrenen Partner an dieser Stelle Unterstützung zu holen.

4. Entwicklung und Abstimmung der Sourcing-Strategie

In dieser Phase wird nach Kenntnis der aussichtsreichsten Service-Kandidaten ein sinnvoller Service-Schnitt entwickelt. Dabei werden typischerweise einzelne Bausteine wieder zugunsten der Volumengrößen und Steuerungsaufwände zu größeren Sourcing-Blöcken zusammengeführt. Die so entstandenen Sourcing-Blöcke werden ggf. auch um weitere angrenzende Aufgabenbereiche ergänzt, die in der Einzel-Bewertung als Service-Kandidaten nicht aussichtsreich erschienen.

Teil des Zielbilds für das Sourcing Modell ist eine Roadmap zur Optimierung der Steuerungsfähigkeit von IT Dienstleistern und ein grundlegendes Zusammenarbeitsmodell mit den Providern.

An dieser Stelle kommt bzgl. der eigentlichen Sourcing Strategie ein Meilenstein zur Abstimmung mit der Geschäftsführung, bevor es dann mit den nächsten Phasen weitergeht:

5. Vorbereitung der Umsetzung des Zielbildes

Nach der Abstimmung und Entscheidung bzgl. eines oder mehrerer Piloten sind für die ausgewählten Serviceblöcke die Anforderungen so zu beschreiben, dass ein angefragter Provider ausreichend Informationen hat, um einen RFI zu beantworten. Der Provider wird beauftragt, die Kosten für den ausgewählten Piloten zu schätzen. Weiterhin sind die Auswirkungen auf betroffene Mitarbeiter zu beleuchten und zu bewerten. Die Mitarbeiter eines Sourcing Blocks sind bzgl. ihrer Skills in andere Bereiche zu entwickeln, was mit Kosten verbunden ist. Auch die kundenspezifische Erfahrung bzgl. der Mitarbeiterfluktuation muss einfließen. Diese und andere durch personelle Veränderungen bedingte größere Kostenblöcke müssen im Business Case berücksichtigt werden.


6. Business Case für Pilotservices

Im Business Case wird die Wirtschaftlichkeitsbetrachtung für einen zu definierenden (typischerweise 3-5 Jahre) Zeitraum durchgeführt. Die zwischenzeitlich beim Provider angefragten Kosten für den ausgewählten Piloten sollten jetzt vorhanden sein, damit die Ist-Kosten den Kosten des Providers plus Transformationskosten gegenübergestellt werden können. Obwohl Kosteneinsparung bei vielen Kunden gar nicht mehr als primäres Ziel einer Transformation zum Outsourcing gesehen wird, sollte immer eine angemessene Transparenz zum Kostenverlauf die Erwartungshaltung klären.

Ab diesem Punkt können die Sourcing Entscheidung getroffen werden und die Sourcing Strategie weiter umgesetzt werden. Die Ausschreibung kann beginnen.


Sourcing-Strategie-Zyklus

Da sich die Rahmenbedingungen für Unternehmen rasch verändern können, sollte die Sourcing-Strategie regelmäßig auf Aktualität geprüft und fortgeschrieben werden. Dazu sollten schon bei der ersten Entwicklung der Strategie und danach in jedem neuen Zyklus Ziele definiert werden, die in der Folge dann umgesetzt und hinsichtlich der erfolgreichen Umsetzung überprüft werden.   

Diese Sourcing Ziele sollten wie üblich “SMART” („Specific, Measurable, Accepted, Realistic, Timely”) formuliert sein, damit die Aktivitäten zur Erreichung der Ziele gut als Projekt steuerbar sind.

Ein mögliches Ziel ist zum Beispiel, dass in einem Zeitraum von 6 Monaten folgendes erreicht werden soll:
•    Es werden 5 Service-Kandidaten identifiziert und jeweils in einem Service-Steckbrief beschrieben
•    Von diesen 5 Service-Kandidaten werden die aussichtsreichsten 1-2 Kandidaten ausgewählt und näher untersucht
•    Die 1-2 Kandidaten sollen innerhalb von weiteren 6 Monaten realisierbar sein
•    Die durch Sourcing realisierte Einsparung soll –nach Abrechnung der für die Service Integration entstehenden Kosten- mindestens x Mio. € p.a. betragen.
Im Beispiel wird von der Annahme ausgegangen, dass das häufig angefragte „selektive Sourcing“ im Sourcing Profil definiert wurde.

Bei regelmäßiger Überprüfung mit Blick auf diese Ziele kann die Unternehmensleitung den Stand der Umsetzung und Zielerreichung überblicken, steuernd eingreifen und ggf. den nächsten Zyklus des Strategie-Prozesses einleiten, um die Strategie zu aktualisieren.

Der typische Zeitraum für einen Strategie-Zyklus liegt bei ca. einem Jahr. Aufgrund der dynamischen Veränderungen am Sourcing-Markt liegt die Dauer bei manchen Kunden auch schon deutlich darunter.


Mit diesem Beitrag kommen wir zum Abschluss der Serie zu Service-Integration in Multi-Sourcing/ Hybrid IT. Wir bedanken uns für Ihr Interesse und hoffen, dass wir hilfreiche Anregungen geben konnten. Wir sind natürlich auch weiterhin immer ansprechbar, wenn Sie Fragen rund um die Themen Sourcing und Service-Integration haben sollten.
Zu diesen Themen werden wir auch zukünftig bei Gelegenheit hier weitere Artikel veröffentlichen.

Bis dahin nochmals Vielen Dank für Ihr Interesse.
 

Services – wie aus einer Hand! – Alles zum richtigen Vorgehen rund um Service-Integration in Multi-Sourcing/ Hybrid-IT (11/12)

22. Januar 2015 Posted by Bernd Kueppers

Sourcing - Analyse als aktuelles Management Werkzeug für IT Entscheider
(geschrieben von Bernd Küppers & Frank Deleiter).

 

image



In den bisherigen Beiträgen dieser Reihe zu „Service Integration in Multi-Sourcing/ Hybrid IT“ haben wir besprochen, wie man Services aus verschiedenen Quellen so integrieren kann, dass Sie für den Nutzer so wirken, als kämen sie aus einer Hand. Wir haben das Vorgehen dazu anhand des IBM Service Integration Capability Models erläutert.

Der Anteil von extern eingekauften IT-Services hat in den Unternehmen in den vergangenen Jahren stark zugenommen und damit ist Service Integration immer wichtiger geworden. Nach einer Analyse von Gartner haben Kunden die durchschnittliche Anzahl ihrer externen Service Provider zwischen den Jahren 2005 und 2012 von 3.75 auf 12 Service Provider gesteigert (Gartner, 2014 Strategic Road Map for Business Process Innovation in Hybrid IT, January 15, 2014).

Aber warum wächst Sourcing eigentlich so stark? Hierfür gibt es mehrere Gründe.

1.)    Wir erleben eine stärkere Belastung der IT-Abteilungen in den Unternehmen. Die Anforderungen an die IT-Abteilungen wachsen wiederum aus mehreren Gründen:

•    Zum einen haben sich die Möglichkeiten zur Effizienzsteigerung durch die Nutzung von IT mittlerweile in jedem Fachbereich herumgesprochen. Viele dieser Bereiche fordern noch mehr IT-Unterstützung bei den Geschäftsprozessen.
•    Zum anderen gibt es Technologietrends, mit denen man sich mindestens evaluierend beschäftigen muss, z.B. mit Themen wie Cloud Computing, Analytics, Mobility und Social Media. Die Fachbereiche lesen darüber und fordern eine Positionierung zu diesen Themen und ggf. auch die Einführung solcher neuer Technologien. Die IT Sicherheit muss sich bei Einführung der neuen Technologien entsprechend ausrichten und ist wie schon immer ein kritischer Erfolgsfaktor für eine erfolgreiche IT.
•    Weiterhin haben wir Wachstum bzgl. der zu betreibenden Mengengerüste. Das Wachstum wird auch zunehmend getrieben durch diese eben erwähnten neuen Technologien und der höheren Durchdringung. Die Anzahl der Nutzer und der Endgeräte steigt und die zu betreibende Anzahl der Server und das Datenvolumen wachsen rasant.

2.)    Gleichzeitig haben wir in vielen Unternehmen eine ungünstige Konstellation in der Alterspyramide. Erfahrene Mitarbeiter scheiden aus und sind schwer zu ersetzen. Des Weiteren besteht - insbesondere in infrastruktur-schwächeren Regionen - Fachkräfte-Mangel. Gute IT-Mitarbeiter zu gewinnen, ist oft nicht einfach. Zudem ist die Mobilitätsbereitschaft gerade bei jungen Mitarbeitern hoch und es wird für eine IT Organisation immer schwieriger, mittel- und langfristig gute Mitarbeiter an sich zu binden, bevor diese wieder auf dem Weg zu einer neuen attraktiveren Arbeitsstelle sind.

3.)    Ein weiter Aspekt ist, dass viele IT-Dienstleistungen von Anbietern in der IT-Branche mittlerweile sehr ausgereift sind. Der Grad der Standardisierung, Virtualisierung und Automatisierung ist bei den Providern zum Teil sehr hoch, wodurch nicht nur qualitativ hochwertig sondern auch kostengünstig angeboten und geleistet werden kann. Das bekommen die Geschäftsleitung und die Geschäftsbereiche der Unternehmen natürlich auch mit und es entsteht dadurch ein gewisser Druck auf die IT-Abteilungen. In einigen Unternehmen ist es mittlerweile so, dass die Geschäftsbereiche für bestimmte Aufgaben Cloud-Angebote nutzen, ohne sich diesbezüglich mit der IT Abteilung abzustimmen.
 

imageIn dieser Konstellation positionieren sich viele IT-Abteilungen neu, nach dem Motto: „Der Wettbewerbsvorteil unserer IT-Abteilung ist, dass wir die internen Nutzer der IT am besten kennen und natürlich auch deren Geschäftsprozesse.“ Und das ist natürlich richtig. Man darf den eigenen Kunden nicht verlieren und muss kundenorientiert agieren. Wenn die IT-Abteilung aber zu stark betrieblich gebunden ist, kann die Kundenorientierung langfristig nicht sicherstellt werden.

Deswegen muss die IT-Abteilung sich soweit möglich auf die Steuerung und die Kundenorientierung konzentrieren und sich folglich überlegen, wie die dafür notwendige betriebliche Entlastung gelingen kann. Wie also das Thema angehen?

Entlastung kann durch Standardisierung, Automatisierung und durch die „Anpassung der Fertigungstiefe“ erreicht werden. „Fertigungstiefe anpassen“ heißt, sich mit Zulieferern und Geschäftspartnern zu vernetzen, sich also mit Sourcing zu beschäftigen: Aber was bedeutet denn Sourcing überhaupt?

Als Sourcing wird der Prozess zur Beschaffung bzw. Bereitstellung von Ressourcen bezeichnet. Dies kann sowohl intern als auch extern geschehen. Zum internen Sourcing gehört sowohl der klassische Eigenbetrieb als auch die Bereitstellung von Shared Services durch die Geschäftsbereiche eines Unternehmens.

Sourcing als IT Beschaffungsprozess ist nichts Neues, selbst externes Sourcing ist bereits seit mehr als 20 Jahren verbreitet. Neu ist lediglich, dass aktuelle externe Sourcing Angebote das selektive Auslagern immer komplexerer Aufgaben ermöglichen.

Es gibt verschiedene Formen des externen Sourcing, die in Erwägung gezogen werden können. Die Auswahl hängt dabei davon ab, wie viel Verantwortung für die Service-Erbringung ein Kunde noch selber tragen möchte und wieviel er an einen externen Service Provider übertragen möchte.

Die Möglichkeiten des Sourcing decken einen breiten Bereich ab.

Eine Variante, bei der ein Kunde im Kern selber für seine IT Services verantwortlich bleibt ist die „Staff Augmentation“, bei der die IT-Abteilung eines Kunden temporär oder dauerhaft durch Personal eines Service Providers unterstützt wird.

Dann gibt es zahlreiche Möglichkeiten, vollständige Services zu beziehen, z.B. im Bereich der Infrastruktur, im Bereich der Software-Plattformen oder der Anwendungen. Oder durch vollständige Übernahme ganzer Service-Bereiche wie z.B. IT-Infrastruktur oder IT- Anwendungsmanagement.

Diese Services können jeweils im Rahmen eines Outsourcings erbracht werden, d.h. mit der Übernahme von Personal, Anlagevermögen und Verträgen durch einen Service Provider oder als Outtasking, d.h. ohne Übernahme von Personal, Anlagevermögen und Verträgen.  
Eine Sonderform des Outtasking sind dabei Cloud-Services, die als Standard-Services angeboten werden. Diese bieten durch ihr hohes Maß an Standardisierung Kostenvorteile, sind aber weniger flexibel im Hinblick auf die Erfüllung spezifischer Anforderungen.

Die unternehmensindividuelle Sourcing Strategie setzt den Rahmen für die Nutzung der Sourcing-Möglichkeiten und diese Strategie sollte einer regelmäßigen Überprüfung unterzogen werden, da die zunehmende Angebotsvielfalt und der steigende Reifegrad von externem Sourcing immer wieder neue Chancen für eine Optimierung und Flexibilisierung der Serviceerbringung bieten.

Auf die Sourcing-Strategie werden wir im letzten Beitrag dieser Serie eingehen, der in der nächsten Woche erscheinen wird.
 

Services – wie aus einer Hand! – Alles zum richtigen Vorgehen rund um Service-Integration in Multi-Sourcing/ Hybrid-IT (10/12)

18. Dezember 2014 Posted by Bernd Kueppers

IBM Service Integration Capability Model: Business.
   

imageimageimage

 

 

 


Als sechste und damit letzte Dimension des IBM Service Integration Capability Models diskutieren wir heute die „Business“ Dimension.
Mit der Bezeichnung soll ausgedrückt werden, dass wir die Service Integrator Funktion als „Business within a Business“ ansehen. Dementsprechend ist für den Erfolg der Service Integrator Funktion die konsequente Ausrichtung am Geschäft seiner Kunden essentiell.

Kunden des Service Integrators sind zum einen die Geschäftsbereiche eines Unternehmens und zum anderen der CIO mit seiner IT Abteilung. Lieferanten des Service Integrators können sowohl hausinterne als auch externe Service Provider sein als auch Lieferanten von Hardware und Software.  

Zu den Aufgaben der „Business“ Dimension gehören:

1.)    Business Demand

Dieser Bereich beschäftigt sich damit, die Anforderungen der Kunden des Service Integrators zu verstehen und die Kunden hinsichtlich der Möglichkeiten zur Erfüllung ihrer Anforderungen zu beraten. Dabei ist es das Ziel dieses Bereiches, die Kundenanforderungen mittels eines standardisierten und konsolidierten Portfolios an Geschäftsanwendungen zu erfüllen. Eine Tätigkeit dabei ist die Kategorisierung der Geschäftsanwendungen eines Kunden nach Relevanz für die Geschäftstätigkeit.

2.)    Service Pipeline

Der Bereich „Service Pipeline“ beschäftigt sich damit, Trends zu erkennen und den zukünftigen Kundenbedarf an neuen Services zu antizipieren.
Zum Bereich “Service Pipeline” gehört auch das Service Lifecycle Management.
Im Rahmen des Service Lifecycle Managements hat dieser Bereich dafür zu sorgen, dass Auswirkungen von IT Projekten von allen Service Providern richtig verstanden und umgesetzt werden.
Der Bereich „Service Pipeline“ trifft sich regelmäßig mit den Service Providern, um Änderungen im Service Portfolio zu besprechen und Anpassungen von Service Volumina zu planen.

3.)    Service Catalogue

Der Bereich “Service Catalogue” ist dafür zuständig, einen vollständigen und überlappungsfreien Katalog von Services zu erstellen.
Der Bereich befasst sich unter anderem damit, die Auswirkungen von einzelnen Services auf die geschäftskritischen Anwendungen eines Kunden zu analysieren.
Die Services werden dann so ausgewählt, dass die geschäftskritischen Anwendungen durch Ausfälle einzelner Services möglichst wenig beeinträchtigt werden.
 
4.)    Service Levels

Der Bereich „Service Levels“ kümmert sich darum, die Güte der Services der einzelnen Service Provider so zu definieren, dass zum einen die Anforderungen der Kunden erfüllt werden und zum anderen die Einhaltung der Vereinbarung messbar ist.
Hierbei ist es elementar wichtig, dass Service Levels nicht nur mit externen Service Providern vereinbart werden, sondern auch mit internen Service Providern. Es passt zum Beispiel nicht zusammen, wenn zwar für die Infrastruktur eines externen Service Providers höchste Verfügbarkeiten vereinbart sind, aber der interne Service Provider eines Kunden, der eine Geschäftsanwendung pflegt und betreibt zu bestimmten Zeiten gar nicht erreichbar ist.

5.)    Service Supply Structure

Der Bereich “Service Supply Structure” kümmert sich darum, die Gesamtheit der zur Erbringung eines Ende-zu-Ende Services erforderlichen Tätigkeiten auf alle internen und externen Service Provider so aufzuteilen, dass alle Rollen und Verantwortlichkeiten klar definiert sind.
Bei der Aufteilung ist es besonders wichtig, dass die Service Levels konsistent sind und Rahmenbedingungen, wie z.B. Wartungsfenster für alle Service Provider gleich sind.


Mit diesem Beitrag haben wir jetzt alle Dimensionen des IBM Service Integration Capability Models besprochen. Dieses Modell hat sich in der IBM als Methode bewährt, um Service Integration in Multi Sourcing/ Hybrid IT Umgebungen zu erreichen.

In den nächsten Beiträgen wenden wir uns nun den Fragen zu, wie man Sourcing als Teil einer Management Strategie einsetzen kann und wie man als Unternehmen eine Sourcing-Strategie entwickelt.

Bis dahin wünschen wir allen Lesern dieses Blogs ein frohes Weihnachtsfest und einen guten Start in das Jahr 2015!

Services – wie aus einer Hand! – Alles zum richtigen Vorgehen rund um Service-Integration in Multi-Sourcing/ Hybrid-IT (9/12)

12. Dezember 2014 Posted by Bernd Kueppers

IBM Service Integration Capability Model: Governance.

In diesem Beitrag aus der Serie zu Service Integration in Multi Sourcing/ Hybrid IT diskutieren wir die Zusammenarbeit zwischen einem Kunden, seinem Service Integrator und seinen Service Providern.
 image
 

 

 

 

 

Die häufigste am Markt anzutreffende Governance-Struktur ist dreistufig und besteht aus einer Strategischen, einer Taktischen und einer Operationalen Ebene:

1.)    Strategische Ebene

Auf der strategischen Ebene werden die strategischen Ziele der Zusammenarbeit von Kunde und Service Provider definiert und typischerweise halbjährlich oder jährlich die Zielerreichung bewertet.

Übliche Themen der Besprechungen auf dieser Ebene sind:

•    Vergleich der erbrachten Leistung mit der vertraglich vereinbarten Leistung
•    Analyse der finanziellen Zielerreichung
•    Leistungsänderungen, Verlängerungen oder Kündigungen von Leistungen
•    Strategische Entwicklungen
•    Initiativen zur Kontinuierlichen Verbesserung
•    Eskalationen aus der taktischen Governance Ebene
•    Gesamtbericht zur Leistungsvergütung inkl. Vertragsstrafen und ggf. vereinbarten Bonuszahlungen bei Übererfüllung der Ziele.
•    Innovationen

Teilnehmer der Besprechungen auf der Strategischen Ebene sind typischerweise der CIO eines Kunden und der Gesamtverantwortliche für den Service Vertrag auf Seiten eines Service Providers. Falls ein Kunde die Service Integrator Funktion in-house etabliert hat, dann repräsentiert der CIO gleichzeitig den Service Integrator. Falls die Service Integrator Funktion von einem Dritten wahrgenommen wird, dann nimmt der Leiter der Service Integrator Funktion je nach Themenstellung ebenfalls an diesen Besprechungen teil.

Sofern eine Abstimmung zwischen Kunde, Service Integrator Funktion und mehreren Service Providern erforderlich ist, z.B. aufgrund neuer oder geänderter strategischer Zielsetzungen oder grundsätzlicher Probleme, wird der Teilnehmerkreis nochmals entsprechend erweitert.

2.)    Taktische Ebene

Auf der taktischen Ebene wird typischerweise in monatlichen Besprechungen die spezifische Implementierung der Ziele geplant, z.B. durch entsprechende Projektplanung- und Kontrolle und durch Vorgaben für die einzelnen Bereiche der IT-Organisation. Weiterhin wird die Zielerreichung z.B. im Bereich der Service Level Agreements kontrolliert.

Übliche Themen der Besprechungen auf dieser Ebene sind:

•    Kundenzufriedenheit
•    Service-Beschreibungen
•    Service-Portfolio
•    Ergebnisse von Benchmarks und Audits
•    Qualität der Service-Leistung
•    IT-Sicherheit und Kontinuität
•    Planung der kontinuierlichen Verbesserung der Services
•    Einhaltung der SLAs
•    Eskalationen aus der Operationalen Ebene

Teilnehmer der Besprechungen auf der Taktischen Ebene sind typischerweise Contract Manager und Service Manager eines Kunden und/oder des Service Integrators sowie Project Executives und Delivery Project Executives auf Seiten eines Service Providers.

Sofern eine Abstimmung zwischen Kunde, Service Integrator Funktion und mehreren Service Providern erforderlich ist, wird der Teilnehmerkreis entsprechend ausgedehnt.

Häufig findet sich auf der Taktischen Ebene außerdem ein gemeinsames Architekturboard von einem Kunden, der Service Integrator Funktion und Service Providern, in dem das Zusammenwirken der Unternehmensarchitektur eines Kunden mit den Architekturen besprochen wird, die die Service Provider für die Erbringung ihrer Leistungen nutzen.


3.)    Operationale Ebene

Auf der Operationalen Ebene werden alle Fragen bezüglich des täglichen Betriebes der IT-Systeme behandelt. Die Struktur der Besprechungen auf der Operationalen Ebene ist üblicherweise zweigeteilt in ein Service Delivery Board, das den Betrieb insgesamt im Blick hat und in Boards, die sich mit bestimmten Prozessen befassen, wie z.B. Incident Management, Problem Management oder auch Change Management (Change Advisory Board).

Übliche Themen der Besprechungen auf dieser Ebene sind:

•    Kundenzufriedenheit
•    SLA Berichte
•    Change Berichte und -Analysen
•    Status geplanter Verbesserungen und ggf. Besprechung damit verbundener Herausforderungen
•    Betriebliche Key Performance Indikatoren
•    Kapazitätsplanung

Teilnehmer des Service Delivery Boards sind der/die Service Manager auf Seiten des Service Integrators und die Delivery Project Executives aller Service Provider.

Teilnehmer der prozessbezogenen Besprechungen auf der Operationalen Ebene sind typischerweise die Mitarbeiter von Service Integrator und Service Providern, die für den jeweiligen Teil des Betriebes verantwortlich sind.

Fazit:

Für das Gelingen der Service Integration ist es sehr wichtig, dass auf der taktischen und operationalen Ebene alle Service Provider zu Besprechungen an einen Tisch geholt werden.

Im Sinne des Ende-zu Ende Gedankens bei der Service-Erbringung können die Service Provider gemeinsame Key Performance Indikatoren mit dem Service Integrator vereinbaren, so dass alle Service Provider sich an gemeinsamen Zielen orientieren, wie z.B. der Reduzierung von Incident-Volumina.  
 

Services – wie aus einer Hand! – Alles zum richtigen Vorgehen rund um Service-Integration in Multi-Sourcing/ Hybrid-IT (8/12)

4. Dezember 2014 Posted by Bernd Kueppers

IBM Service Integration Capability Model: Information.

imageIn diesem Beitrag widmen wir uns dem vierten entscheidenden Aspekt der Service-Integration:

Der "Information".

Die Dimension “Information“ des Service Integration Capability Models behandelt die Definition von Daten und Datenstrukturen, die die Service Provider und der Service Integrator gemeinsam verwenden, um die Leistung zu erbringen und zu überwachen.

In einer Multi-Sourcing Umgebung hat jeder einzelne Service Provider bestimmte vertraglich vereinbarte Service Levels für seine Services zu erfüllen. Der Service Integrator wiederum hat dann die Aufgabe, die einzelnen Service Levels zu kombinieren, um daraus Ende-zu-Ende Service Levels zu berechnen.

Nehmen wir einmal die Verfügbarkeit eines Services als Beispiel. Die Ende-zu-Ende Verfügbarkeit ergibt sich dann aus dem Produkt der Verfügbarkeiten der verschiedenen Services, die Teil des Ende-zu-Ende Services sind.  

Ein Service Integrator kann den Nachweis der Ende-zu-Ende Service Levels wie im Beispiel dargestellt rein durch Aggregation der einzelnen Service Levels erbringen oder alternativ oder ergänzend durch Auswertung von Daten zur Leistungserbringung, die er von den einzelnen Providern ad hoc oder in regelmässigen Intervallen erhält. Ad Hoc werden dann üblicherweise bestimmte Ereignisse übertragen (Events) und in regelmässigen Abständen werden Rohdaten zur Leistungserbringung (Bulk Data) übertragen.

Diese Vorgehensweise hat für den Service Integrator den Vorteil, dass er über die Darstellung der Events in einem Dashboard die Verfügbarkeit des Ende-zu-Ende Services beinahe in Echtzeit anzeigen kann, wodurch auch die Arbeit des Service Desks sinnvoll unterstützt wird.
Über die Auswertung der Rohdaten zur Leistungserbringung kann er zudem die Ende-zu-Ende Service Levels selber berechnen und so die Berechnungen der Service Provider kontrollieren.

Damit die Auswertung der Service Levels möglichst reibungslos und aufwandsarm ablaufen kann, ist es Aufgabe der Dimension „Information“ des IBM Service Integration Capability Models, die Art und Weise, wie Informationen bereitgestellt und übermittelt werden sollen, für alle Service Provider in der Multi-Sourcing Umgebung verbindlich festzulegen.

Ein weiterer Bereich, der von der „Information“ Dimension behandelt wird ist der Austausch von Ticket-Informationen zwischen den verschiedenen Service Management Toolsets der einzelnen Service Provider.

Hier ist es ggf. möglich, dass sich der Service Integrator und die einzelnen Service Provider auf bestimmte Ticket-Formate verständigen. Sollte dies nicht möglich sein können die Tools aber dennoch miteinander verbunden werden, wie im Beitrag zur „Werkzeugunterstützung“ erläutert. In diesem Fall ist dann für jede Toolschnittstelle eine Übersetzungslogik erforderlich, die z.B. in einer Middleware wie IBM Security Directory Integrator implementiert werden kann.