Mit SoftLayer, an IBM company hoch hinaus im Gaming

26. Oktober 2015 Posted by frank eisenhardt

Was IBMs Cloud-Lösungen wirklich drauf haben

image

 

 

 

 

 

von Salina Gilbert und Christina Pongratz

 

 

 

Performance, das A&O beim Gamen

Performance, Performance, Performance – darauf kommt’s beim Gamen an. Mehr als 140 Millionen Gamer nutzen unbewusst die SoftLayer-Infrastruktur und genau das macht SoftLayer bei Gaming-Unternehmen so beliebt.

Für Spieleentwickler und Publisher kommt es darauf an, dass sie weltweit Gamer erobern, zufrieden stellen und von ihnen profitieren. Wohingegen Gamer erwarten, dass sich die Entwicklungszyklen verkürzen, kein Lagging auftritt und das Spiel auch bei einer hohen Anzahl von Mitspielern reibungslos läuft. Um genau diesen Ansprüchen gerecht zu werden, brauchen Gaming Anbieter eine Infrastruktur mit Performance, Skalier- und Hochverfügbarkeit. IBM macht es möglich!

Mit der SoftLayer Cloud zur perfekten Gaming Lösung

SoftLayer ist die Cloud-Plattform für highperformance Zocker. Games sind einzigartig – so sollten die Server auch sein. Virtualisierte Server sind nicht nur dynamisch skalierbar, sieie bieten auch die Möglichkeit die Anzahl der Kerne, des Speichers,  die Speichertypen und die Kapazität je nach Bedarf anzupassen. Im Gegenzug  kommen die Bare Metal Server dann ins Spiel, wenn es um Gaming Performance geht. Diese steht beim Gamen ganz weit vorne auf der Liste. Vor allem besteht ein Performance-Vorteil, da kein Virtualisierungsoverhead entsteht.  Die Performance kann durch den Einsatz von Bare Metal Servern verbessert werden, welche zudem noch individuell mit Prozessoren, RAM, SSD Festplatten und Netwerkdurchsatz erweitert werden können. Bare Metal ist ein physisch-vorhanderner Server, der dem Nutzer ganz allein zur Verfügung steht. Dadurch entfällt das „Noisy Neighbours“-Phänomen, wo eine unfaire Ressourcenverteilung bei höheren Auslastungen entstehen kann. Was ist noch besser als hervorragende Performance? Wenn sie darüberhinaus noch berechenbar und konsistent ist!

Alle SoftLayer Server und Dienste stehen im Onlineportal per Selbstbedienung oder durch die Programmierschnittstelle (API) zur Verfügung. Dadurch ist es kinderleicht zwischen den virtuellen und Bare Metal Servern zu switchen. Auch zusätzliche Server können hochgefahren werden, um beispielsweise bei hohem Traffic der Nachfrage in Echtzeit gerecht zu werden. Wie sieht’s mit Firewall und Load Balancer aus? Bei SoftLayer sind diese mit nur wenigen Klicks und ohne Downtime installiert.

Wie sehen mögliche Herausforderungen aus und was bietet die IBM Cloud?

Ihr braucht mehr Ressourcen, um den Download-Ansturm beim Launch standzuhalten? Mit SoftLayer ist das kein Problem: Zusätzliche Server stehen auf Abruf bei hohem Datenverkehr bereit und erhöhen somit die Gesamtleistung.

Erstellung von einer Spielumgebung zum Testen, die mit der Produktivversion übereinstimmt? SoftLayer macht’s möglich: In derselben Umgebung kann das Game mit passender Hardware und Konfigurationen auf dem Testsystem getestet und ohne großen Aufwand und Downtime in der Produktivumgebung live geschaltt werden.

Und warum gerade SoftLayer? High Performance und tolle Hardware. Zudem sind die Serverzentren auch global repliziert, was kürzere Antwortzeiten (Latency) für Gamer bedeutet.  Außerdem werden die Server und Dienste pro Stunde oder Monat ohne Vetragslaufzeit abgerechnet – man zahlt nur für das, was man wirklich nutzt. Klingt interessant?

Dann los und ausprobieren – die ersten 30 Tage sind kostenlos: https://ibm.biz/SLTrialATCT

image

 

 

 

 

 

Noch nicht überzeugt? Um euch einen besseren Eindruck zu verschaffen, besucht doch einen von den IBM Gamingdays 2015 in Hamburg, München oder Berlin, unter anderem berichten Koch Media und Big Point  live von ihren erfolgreichen Projekten.

Chance nicht verpassen und jetzt anmelden!

Hamburg am 11. November 2015 – 17 Uhr im Betahaus, Coworking Hamburg – Eifflerstraße 43, 22769 Hamburg. Anmeldung unter http://www.eventbrite.de/e/ibm-gamingday-hamburg-tickets-18843660897

München am 18. November 2015 – 17 Uhr im Wer 1 – Grafinger Straße 6, 81671 München. Anmeldung unter https://www.eventbrite.de/e/ibm-gamingday-munchen-tickets-18843230610

Berlin am 03. Dezember 2015 – 17 Uhr im Ahoy Berlin UG (haftungsbeschränkt) – Windscheidstraße 18, 10627 Berlin. Anmeldung unter https://www.eventbrite.de/e/ibm-gamingday-berlin-tickets-19220439853

Kontakte knüpfen? Austauschen? Dann schauen Sie doch auf unserem nächsten Blog vorbei „Watson, (k)eine Figur aus Sherlock Holmes“.

Automation war gestern, Orchestrierung ist heute – oder doch nicht?

14. Oktober 2014 Posted by frank eisenhardt

Was wird heute für die Integration der traditionellen IT mit den neuen Cloud-geborenen Anwendungen und deren Management benötigt? Automation oder Orchestrierung? Oder beides?

Automation ist eine der ältesten Funktionalitäten, die in der IT umgesetzt wurden. Das Ziel war immer klar definiert: Wiederkehrende Tätigkeiten sollten mit Hilfe von Automaten optimiert werden.  Das war im Prinzip schon immer das erklärte Vorgehen jeder Industrie, um Kosten zu sparen und für konstante Qualität zu sorgen. So hat es schon der berühmte Henry Ford zu Beginn des 20. Jahrhunderts mit seiner Fließbandtechnik vorgemacht.

Heute spricht man in der IT gerne von der Orchestrierung vieler Komponenten.  Es geht darum, sie im „Gleichklang“ schwingen zu lassen. Die Komponenten sind meistens Cloud-Services in ihren unterschiedlichen Ausprägungen wie SaaS, PaaS oder IaaS.  Auch hybride und mit traditionellen Backend-Systemen integrierte Services müssen orchestriert und assembliert werden. Dazu gehören vielfältige Governance-Funktionen wie zum Beispiel Brokering oder auch grundlegende Beschreibungs- und Modellierungsfunktionen. In der Autoindustrie zählen hierzu Schnittstellenbeschreibungen, Lieferanten- und Supply-Chain-Management.

Um die jeweiligen IT-Komponenten in diesem Sinne zu orchestrieren, bedarf es wiederum der altbekannten Automationstechniken, also etwa Runbook-Automation, Scripting, Scheduling und diverse technische Workflows. Außerdem lassen sie sich nur mit der entsprechenden Standardisierung sinnvoll automatisieren. In der Fertigungsstraße eines Autoherstellers bilden die einzelnen Schweiß-, Lackier- oder sonstige Roboter die Automationsschicht. Die Orchestrierung ist in ihren Anforderungen hingegen etwas weicher, dynamischer und flexibler – eher vergleichbar mit dem Lieferantenmanagement oder der Logistik von tausenden von Einzelteilen in der Automobilindustrie.

Im aktuellen Cloud-Kontext stellt sich die Orchestrierung auf den folgenden drei Ebenen dar:

image

Heute haben besonders die sogenannten DevOps Prozesse und Workloads eine wichtige Funktion, denn sie sind für die Einführungen der neuen Applikationen der obersten Ebene von zentraler Bedeutung ist. Die typischen IT-Automationen finden sich eher auf der Infrastrukturebe, die auch gerne mit Software-Defined überschrieben wird.

Wie lautet also die Antwort auf die Frage Automation oder Orchestrierung? Ganz einfach: Um in der Phase der IT-Transformation und der stetig wachsenden Vielfalt an hybriden Systemen und neuen Plattformen die Komplexität managen zu können, benötigen wir beide Technologien. Das bedeutet dann oftmals auch unterschiedliche, neue Tool-Anforderungen für diese Umsetzung.

Wie die Orchestrierung konkret mit der Automation zusammenspielt und wie man an dieses Thema herangehen kann wollen wir in diesem Blog diskutieren.

Software Defined Environments, Realitätscheck und Nutzenanalyse Teil 2

24. April 2014 Posted by frank eisenhardt

Im ersten Teil wurde die die Begriffsbestimmung von SDE und die Frage nach dem Nutzen "bearbeitet". Im zweiten Teil geht es konkret um die Frage:

Was können IT Anbieter, wie z.B: IBM, in Bezug auf SDE heute bereits bieten?

Zunächst gibt es von den großen Anbietern recht ähnliche Architekturansätze die zumeist auf offenen Standards wie Cloudfoundry und OpenStack basieren. Das vermeidet eine Abhängigkeit und bietet die Flexibilität bei der Anbieterauswahl.

Auch wenn die Begriffe teilweise etwas unterschiedlich sind geht es primär um die obere Ebene von Anwendungscharakteristika-, oder Workload bezogener Definition mit Hilfe von Mustern. Diese Muster oder Patterns sind ein wichtiger Baustein für die Standardisierung und Portierbarkeit von Systemen. Aus Katalogen können vielfältige vorgefertigte Mustersysteme wiederverwendet werden. Diese definieren wie die Anwendungstopologien aufgebaut werden, wie sie skalieren und wie sie administriert und optimiert werden können. Analysetechnolgien optimieren die Infrastruktur kontinuierlich. Da dies alles sehr Anwendungsbezogen ist, und man die Schnelligkeit nur über agile Entwicklungsmethoden erreicht, ist an dieser Stelle auch das Thema DevOps zu erwähnen. Kurze Releasezyklen sind nur mit DevOps Technologien und Tools (z.B: IBM Urbancode Deploy) möglich. Das Anwendungsdeployment, die Konfiguration über mehrere Stagingumgebungen hinweg muss und kann optimiert werden.

image

Die darunter liegende Ebene der IT Ressourcen, die sich auf Speicher, Netzwerk und Rechner beziehen, muss mit Hilfe von Orchestrierungs- und Managementtools hoch automatisiert werden. Das Thema Automation ist nicht neu aber in dieser geforderten Ende zu Ende Qualität auf einer neuen Ebene zu sehen. Software Defined Network Controller sind nur einer der wichtigen Bausteine. Ebenfalls von zentraler Bedeutung sind hier wieder offene Standards wie OpenDaylight oder Openstack für eine herstellerneutrale Umsetzung.

Intelligente Platzierung der Ressourcen aufgrund vielfältiger, unterschiedlicher Richtlinien ist zwingend notwendig. Hierbei kommen oftmals Technologien aus dem High Performance Computing zum Einsatz.

Noch einmal die wesenlichen Punke:

- Unternehmen müssen auf Marktgegebenheiten schneller und flexibler reagieren. Die IT muss dafür neue Grundlagen schaffen und ist wichtiger denn je. Sie wird sich den neuen Herausforderungen stellen müssen, da diverse SaaS und PaaS Anbieter um die Gunst der Fachbereiche buhlen und sehr agil reagieren können

- Cloud Technologien werden mehr und mehr verwendet, reichen alleine aber nicht aus.

- Ein Software Defined Ansatz ermöglicht den neuen Anwendungsszenarien optimal die vorhandenen IT Ressourcen zu nutzen. Sowohl im traditionellen Rechenzentrum als auch in Cloud Umgebungen.

- Dafür sind auch moderne Management und Orchestrierungstools notwendig und verfügbar.

- Prozesse und Silo-Organisationen müssen angepasst werden.

- Im Software Defined Compute Bereich sind die Standards wie OpenStack gesetzt. Im Netzwerk Bereich ist noch nicht alles ausdiskutiert.

 

Software Defined Environments, Realitätscheck und Nutzenanalyse

14. April 2014 Posted by frank eisenhardt

Der nächste wichtige Schritt zu einer agileren, höchst effizienten IT, oder nur ein weiteres Buzzword ?

Zunächst ein Satz zu meiner Person: Dipl. Ing. (Elektrotechnik) Frank Eisenhardt, nach 10 Jahren Projekttätigkeit im Service Bereich der IBM bin ich die letzten 14 Jahre innerhalb der Softwaresparte als Senior IT-Architekt für die Systems Management und Cloud Produkte der IBM zuständig. Die folgenden Ausführungen stellen meine persönliche Meinung zu diesem Thema dar.

Was versteht man unter Software Defined Environments (SDE)?

Software Defined Environments erweitern die Virtualisierungskonzepte auf die ganze IT-Infrastruktur, inklusive Speicher und Netzwerkressourcen. Das Pooling (Gruppierung von Ressourcen), die hohe Automation und die Abstraktion wird durch einheitliche Schnittstellen (APIs) ermöglicht. Somit kann man die gesamte Infrastruktur als „IT as a Service“ bereitstellen. Die Anforderungen der Geschäftsbereiche nach immer neuen, dynamischen Workloads kann nur mit Hilfe einer Service orientierten IT umgesetzt werden. Neben Technolgieaspekten geht es auch um eine Prozess und organisatorische Transformation. Zusammengefasst:

Von „Software“ administrierte,  abstrahierte und virtualisierte IT Infrastruktur Ressourcen

Anwendungen welche die Infrastruktur Anforderungen und optimale Konfiguration „definieren“

IT Infrastruktur die multiple „Environments“ über die Rechenzentrumsgrenzen hinaus ermöglicht.

 

Welchen Nutzen kann ich als Kunde erwarten?

Eine effizientere, agilere IT ermöglicht klare Kostenvorteile in Bezug auf TCO (Total Cost of Ownership). Sicherheitsverbesserungen durch bessere Governance und Compliance, sowie Schnelligkeit und kürzere „Time to market“ sind weitere wichtige Nutzenaspekte.

Jede Branche hat wachsende und drängende Anforderungen an die IT. Auf neue Marktgegebenheiten muss schneller reagiert werden. Sei es z.B: der Ausbau der IT im Fahrzeug, Stichwort Connected Car, Car Sharing Ecosysteme und der heftige Konkurrenzdruck nicht nur in diesem Segment. Diese neuen Anforderungen lassen sich durch Technologien wie Big Data, Mobile, Social und einer zugrundeliegenden dynamischen Infrastruktur erst umsetzen. Damit ergeben sich eine Reihe von Vorteilen.

  • Einfachere Integration von neuen “front-office Systems of Engagement” mit traditionellen “back-office” Systemen. Beispielsweise eine Flugbuchungs-App und deren unterschiedliche backend Systeme.
  • Agile Entwicklung neuer Anwendungen und neuen Arten von Interaktionen mit Kunden, Partnern und Mitarbeitern.
  • Dynamische Skalierung um all die neuen “front-office” Systeme bedienen zu können. Mobile Systeme und speziell das Internet der Dinge, Stichwort Industrie 4.0 erfordern diese Skalierungsmöglichkeiten.
  • Analysetechniken müssen on demand integrierbar sein um die steigenden Datenmengen sinnvoll nutzen zu können. Analysetechniken ermöglichen auch die proaktive Optimierung der SDE Infrastruktur.
  • Hybride Konzepte, unter Nutzung unterschiedlicher Anbieter, werden durch das SDE Konzept einfacher realisierbar.
  • Fachbereich und Anwendungsentwicklung können somit neue Anwendungen schneller entwickeln und ausrollen, ohne sich um die darunterliegende Infrastruktur explizit kümmern zu müssen.

Wie stellen sich die Auswirkungen und Anforderungen an die zugrundeliegende Infrastruktur dar? Als Vergleich können vielleicht die Hausnetz Bussysteme oder generell das SmartHome Thema dienen. Ohne eine flexible, programmierbare und über definierte APIs ansprechbare Infrastruktur werden sich diese neuen, innovativen Technologien nur schwer einführen lassen. Das Internet der Dinge bzw. Industrie 4.0 wird den Druck auf diese neue Art von Infrastrukturservice ebenfalls erhöhen.

Die Frage ist inwiefern man diesen Nutzen heute schon erzielen kann und was die IT-Anbieter dementsprechend heute bereits leisten können? Mehr dazu gibt es im nächsten Blogbeitrag.

Wie sehen Sie die Relevanz für die IT im Allgemeinen und für Sie im Speziellen?