Posts Tagged: ‘Trends’

PerSwaysion: Phishing-Attacken auf Top-Manager

9. Juni 2020 Posted by Lyubomir Tulev

Bereits über 150 Unternehmen gehackt

„Jetzt lesen“ – NICHT LESEN!

Heutzutage werden wir von einer noch moderneren und raffinierteren Art gezielter Phishing-Cyberattacken bedroht: PerSwaysion. Wie bei den meisten bekannten Phishing-Angriffen, sollen auch hier Microsoft 365-Anmeldeinformationen gestohlen werden. Betrüger senden dabei E-Mails an ihre ausgesuchten Opfer mit nicht-schädlichem PDF-Anhang, der den Link „Jetzt lesen“ enthält. Der Link führt dann zu Dateien, die auf Microsoft Sway, SharePoint oder OneNote bereitgestellt werden. Diese legitimen Cloud-basierten Inhaltsfreigabe-Services werden absichtlich ausgewählt, um eine Angriffserkennung durch das IDS (Intrusion Detection System) und andere Sicherheitssysteme zu vermeiden. Die PerSwaysion-Attacke zielt hauptsächlich auf Mitglieder des obersten Managements. Inzwischen wurden die Führungskräfte von mehr als 150 Unternehmen gehackt.

Im nächsten Schritt wird dem Opfer eine speziell gestaltete Landingpage des Microsoft Sway/SharePoint-Dienstes vorgelegt. Sie enthält einen „Jetzt lesen“-Link, der zur eigentlichen Phishing-Site weiterleitet. Dort wird der Benutzer aufgefordert, seine E-Mail-Konto-Anmeldeinformationen oder andere vertrauliche Informationen einzugeben.

Sobald diese Daten gestohlen sind, laden die Angreifer als nächstes die E-Mail-Daten der Gehackten mithilfe von IMAP-APIs vom Server herunter. Daraufhin übernehmen sie diese gestohlenen Identitäten, um weitere Personen anzusprechen, die kürzlich E-Mail-Kontakt mit dem aktuellen Opfer hatten und wichtige Funktionen in demselben oder anderen Unternehmen haben.

PerSwaysion

Leichte Opfer

Im Mittelpunkt des Angriffes von PerSwaysion stehen die Nutzer, die alle Sicherheitskontrollen umgehen, in der geschäftlichen Kommunikationsinfrastruktur implementiert sind und so leicht zu Opfern werden können. Das größte Problem ist nicht nur der E-Mail-Datenverlust, sondern auch das entführte Konto, das später vom Angreifer zur Ausführung weiterer Angriffe genutzt werden kann. Zum Beispiel um geschäftliche E-Mails zu kompromittieren, indem dieser Nutzer andere Mitarbeiter anweisen kann, ungewollt betrügerische Aktivitäten durchzuführen.

Es spielt keine Rolle, wie gut die von Ihnen implementierten logischen Kontrollen und Cybersicherheits-Lösungen sind. Keine von ihnen kann ein „vertrauenswürdiges“ gephishtes Mitarbeiter-Konto erkennen und Ihr Unternehmen davor schützen. Es sei denn, Sie überwachen und inspizieren die Aktivitäten eines Mitarbeiters vollständig und vergleichen diese mit bereits eingerichteten Verhaltensvorlagen des jeweiligen Benutzers.

Eine mögliche Lösung könnte sein, die Mitarbeiter zu schulen, um die aktuellen Cyber-Angriffsvektoren zu identifizieren und sie durch ihre automatisierte, auf maschinellen Lernverfahren basierende Anomalie-Erkennung zu unterstützen. Auf diese Weise kann eine sogenannte „Human Layer Security“ gebildet werden. Dies ist der Schlüssel, um Ihre Cybersicherheit widerstandsfähig zu machen.

iQ.Suite 360 – mehrstufiger Schutz für SharePoint

PerSwaysion Wenn Sie Ihre SharePoint-Umgebung durch mehrstufigen Schutz vor Malware mit multiplen Scannern namhafter Premiumhersteller sichern möchten, sollten Sie iQ.Suite 360 einsetzen. Der Schutz der Collaboration-Umgebung wird dabei nicht nur für interne User, sondern auch beim Zugriff durch externe Kommunikationspartner gewährleistet. Ein weiteres Highlight der Lösung ist das zeitgesteuerte Scannen der gesamten SharePoint-Umgebung mit aktuellsten Malware Pattern außerhalb der Arbeitszeiten. iQ.Suite 360 ist eine compliance-konforme, mehrstufige Malware-Schutzlösung für SharePoint, die seit Kurzem von GBS (a BULPROS Company) angeboten wird.

Sind Sie bereits Opfer von Phishing-Attacken geworden? Wie schützen Sie sich vor Cyber-Angriffen? Wir freuen uns auf Ihre Kommentare.

Der Beitrag PerSwaysion: Phishing-Attacken auf Top-Manager erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

M2M – Wenn Maschinen miteinander kommunizieren

31. Oktober 2019 Posted by Denis Petkau

Moderne Kommunikationsformen mit REST API

Machine-to-Machine-Kommunikation rationalisiert Arbeitsabläufe und steigert die Produktivität

Die Kommunikation im beruflichen Alltag läuft immer häufiger über moderne Social Media-Systeme. Dazu gehören Instant Messaging, Chats, Mikroblogging mit Werkzeugen wie Skype for Business, IBM Sametime, Cisco Jabber, WhatsApp, Slack, Microsoft Teams und viele weitere. Neben diesen Kommunikationsformen zwischen Menschen, haben sich auch die Kommunikationsformen zwischen den Softwaresystemen gewandelt (Maschine-zu-Maschine Kommunikation). Lief dies in der Vergangenheit hauptsächlich über Webservices, so benutzen moderne Software-Systeme immer häufiger RESTful-Schnittstellen, um Daten zwischen Software-Systemen auszutauschen und Funktionalitäten in anderen Systemen anzustoßen. Ein Beispiel ist die Anzeige von Bildern anhand der Längen- und Breitengrad-Angaben auf Instagram.

Im technischen Bereich werden RESTful-Schnittstellen auch als „REST API“ bezeichnet. REST APis haben seit 2005 immer mehr an Bedeutung gegenüber anderen Varianten wie SOAP gewonnen, wie dies in einem Blogbeitrag von Guy Levin beschrieben ist.

Was ist REST API und wozu wird sie verwendet?

REST API bedeutet „Representational State Transfer“– „Application Programming Interface“.
Eine REST API kann man sich so ähnlich wie eine Webseite vorstellen. Von einem Nutzer „Client“ wird ein Aufruf „Call“ getätigt und die Webseite „Server“ gibt dem Nutzer anschließend eine Rückantwort. Die REST API wird also dafür gebraucht, um eine Kommunikation zwischen einem „Server“ und einem „Client“ zu ermöglichen. Besteht Bedarf, so können die Schritte einer REST API auch manuell nachgestellt werden. Eine REST API ist jedoch generell dazu ausgelegt, mehrere tausende Aufgaben der gleichen Art, z.B. den Versuch sich auf einer Seite einzuloggen, in sehr kurzer Zeit abzuarbeiten. Dementsprechend ist auch eine REST API effizienter als eine manuelle Vorgehensweise.

REST API Anhand des Bildes, soll nun der typische Aufbau und die Zusammensetzung eines typischen REST API-Aufrufs erklärt werden. Das Bild zeigt uns hierbei, wie ein solcher Aufruf aufgebaut ist. Zugegeben wirkt das Ganze für das ungeschulte Auge erst einmal suspekt. Der visuelle Aufbau kann sich von Schnittstelle zu Schnittstelle ändern, aber das Prinzip dahinter bleibt dasselbe.

Wichtige Parameter

Beim Aufbau eines REST API-Aufrufs wird zwischen bestimmten Parametern unterschieden. Die Parameter können Kopfdaten „Headers“, Rumpfdaten „Body“, Aufruftyp „POST oder GET“ oder Formatierungstypen „fullres oder minres“ sein.

Bei einem REST API-Aufruf wird je nach Aufruftyp unterschieden, welche Daten später zurückgeliefert werden. Mit einem „POST“ Aufruftyp möchte man bezwecken, dass auf dem Server, der über die URL angegeben wird, bestimmte Inhalte übertragen werden sollen. Das Bild zeigt z.B. einen Aufruf, der einen Server kontaktiert und sich versucht, sich auf ihm einzuloggen. Das kann daran erkannt werden, dass nach der URL-Angabe zum Server „https://server.gbs.com“ und der Angabe zur RESTful-Schnittstelle „/api/workflowmanager/“, die REST API-Methode „/common/login“ aufgerufen wird. In welchem Format die Daten zurückkommen, wird im „resultformat=“ Teil beschrieben.

Zusätzlich zu den oben beschriebenen Aspekten sollte noch beachtet werden, ob für den REST API-Aufruf bestimmte Kopfdaten benötigt werden. Häufiger werden bestimmte Kopfdaten benötigt, welche dann über die „Headers“ Sektion angegeben werden müssen. Wird z.B. mit einem „POST“ Aufruftyp versucht, eine andere Maschine zu kontaktieren, kann es notwendig sein, zusätzliche Informationen im Rumpf „Body“ anzugeben. Hier wird versucht, sich auf einem Server einzuloggen. Das Einloggen erfordert Benutzerdaten, um den Benutzer verifizieren zu können. Dies trifft sowohl beim manuellen Einloggen als auch beim Einloggen über einen REST API-Aufruf zu. Deswegen werden im Rumpf zusätzliche Informationen wie der Benutzername und das Benutzerkennwort benötigt. Je nachdem wie die RESTful-Schnittstelle des Servers eingestellt ist, könnten weitere Informationen benötigt werden.

Zusammengefasst braucht ein REST API-Aufruf also einen Aufruftyp (POST, GET, PUT, PATCH), eine Zieladresse (URL mit bestimmten Parametern) und bestimmte Informationen, die in Kopf- („Headers“) und Rumpfdaten („Body“) unterteilt sind.

Swagger

Genauso wie sich die Kommunikation zwischen Menschen verändert hat, so hat sich diese auch zwischen Maschinen verändert. Für die zwischenmenschliche Kommunikation sind mit der Zeit Werkzeuge dazugekommen, durch deren Hilfe es möglich ist, auf größere Distanzen mit anderen Menschen in Kontakt zu bleiben. Swagger ist ein ebenso hilfreiches Werkzeug, welches der Kommunikation zwischen Maschinen und Menschen dient. Swagger lässt sich in einer Webseite einpflegen und besitzt eine relativ einfache Oberfläche, die es dem Anwender der REST API-Methoden ermöglicht, diese schnell und einfach zu verwenden. Die URLs zu Swagger variieren von Unternehmen zu Unternehmen. Ein Beispiel einer möglichen URL zu Swagger kann wie folgt aussehen: „href=“https://server.gbs.com/api/workflowmanager/“

Popularität, Erweiterungsmöglichkeit, Dokumentierbarkeit und die einfache Handhabung von Swagger optimiert die Verwendung im Alltag bei der Entwicklung von Schnittstellen zwischen Software-Systemen. Durch die einfache Struktur und die meist gut dokumentierten REST API-Methoden, ermöglicht Swagger Anwendern mit geringen bis gar keinen Erfahrungen in der Programmierung, erfolgreich einen REST API-Aufruf zu verwenden.

Diana Maltseva, eine Bloggerin aus Minsk, schreibt in ihrem Blogbeitrag, dass die Benutzung von Swagger der beste Weg sei, Entwicklungen und wertvolle Informationen mit anderen Softwareentwicklern zu teilen.

Auch aus einer Statistik in der Präsentation der Swagger-Entwickler geht hervor, dass Swagger gegenüber anderen Hilfswerkzeugen mehr Ansehen genießt. Die Präsentation kann hier angesehen werden.

Swagger in GBS-Lösungen integriert

REST API Bei GBS nutzen wir Swagger und haben es in unseren Produkten wie die iQ.Suite, GBS Workflow Manager oder dem GBS Retirement Manager eingebunden. Dort können schnell neue REST API-Methoden hinzugefügt, dokumentiert oder genutzt werden. Durch die oben bereits erwähnte Oberfläche, lässt es sich leicht durch die einzelnen Abschnitte navigieren und bei Bedarf auch schnell bestimmte REST API-Methoden ausführen. Durch die gute Struktur und der Möglichkeit Swagger an die eigenen Bedürfnisse anzupassen, kann sich Swagger bestens in die GBS-Produkte integrieren lassen. Das Aussehen der Oberfläche sieht beim GBS Workflow Manager aus, wie im linken Bild veranschaulicht ist.

REST API Sollen REST API-Methoden über Swagger getestet werden, so sollte sich auf die Swagger-Webseite eingewählt und anschließend die gewünschten Methoden aufgeklappt werden. Zum Testen werden bestimmte Informationen in den einzelnen REST API-Methoden benötigt, die aber auch in Swagger angezeigt werden. Das Aussehen einer aufgeklappten REST API-Methode kann beispielhaft dem beistehenden Bild entnommen werden.

REST API Um die Methode zu testen, sollten die oben geforderten Informationen übergeben und anschließend auf den unten stehenden Knopf „try it out!“ geklickt werden. Wurde der Knopf gedrückt, so wird sofort eine Statusmeldung angezeigt, ob die Methode erfolgreich ausgeführt werden konnte oder nicht. Außerdem kann eine Legende der einzelnen Statuscodes angezeigt werden, dies hängt jedoch davon ab wie die Oberfläche von Swagger angepasst wurde. Bei einer Methode des GBS Workflow Manager kann dies so wie in nebenstehender Abbildung aussehen.


Übersicht über Prozessinstanzen

REST API Als Anwendungsfall kann z.B. eine Excel-Tabelle fungieren, mit der Daten aus dem GBS Workflow Manager geholt und mit den Excel-typischen Funktionen als Pivot-Tabelle oder Diagramm veranschaulicht werden können.

Damit der Anwender keine programmatischen Änderungen vornehmen muss, bietet es sich an, in der Excel-Tabelle einen Konfigurationsbereich zu integrieren. In diesem Anwendungsfall (Dashboard) sollen Daten aus bestehenden Systemen, z.B. einem Cloud-System abgeholt werden. Hierfür werden vom Dashboard bestimmte Informationen benötigt, welche in einem Konfigurationsbereich eingetragen werden. In der beistehenden Abbildung wird der Konfigurationsbereich gezeigt, der in zwei Abschnitte unterteilt ist. Der rechte Abschnitt besteht aus mehreren Zeilen, die bestimmte Informationen verlangen. Wurden alle Informationen übergeben, so kann im linken Abschnitt des Konfigurationsbereichs durch den Knopf „Importiere Daten“ der REST API Aufruf gestartet werden.

Wird der REST API-Aufruf gestartet, überprüft dieser zuerst, ob alle benötigten Informationen übergeben wurden. Fehlt eine der Informationen, wird der Anwender dazu aufgefordert diese nachzutragen. Sind bestimmte Informationen, wie beispielsweise die URL fehlerhaft, so kommt es zu einer Fehlermeldung, die anschließend dem Anwender angezeigt wird.

Die geholten Daten werden unterhalb des Abschnitts „Daten“ spezifiziert. Um diese passend einzustellen, wird jedoch Erfahrung in der Programmierung oder Hintergrundwissen benötigt, weswegen dies genauer in einem GBS Knowledge Base-Beitrag zum Thema erklärt wird.

Wurden alle Einstellungen getroffen und der REST API-Aufruf ausgeführt, werden als Resultat die gewünschten Daten unterhalb des Bereichs „Daten“ eingetragen. Falls es vom Anwender gewünscht ist, können diese Daten nun in Pivot-Tabellen und -Diagrammen visualisiert werden. Die Diagramme können in den Pivot-Tabellen nach bestimmten Kriterien gefiltert werden, um bestimmte Sachverhalte abzubilden. Nach einmaligem Ausführen des REST API-Aufrufs, werden die Daten aus den Pivot-Tabellen und -Diagrammen automatisch aktuell gehalten.

Alle Informationen auf einen Blick

REST API In der Abbildung ist eine mögliche Visualisierung zu sehen.

Man erhält mit einem Blick alle Informationen grafisch visualisiert angezeigt. Durch die Visualisierung in Microsoft Excel wird auch gewährleistet, dass die Diagramme schnell in Präsentationen eingefügt werden können und damit eine aussagekräftige Übersicht ihre Präsentation unterstützt. Unternehmen, die sich z.B. mit Kalkulationen beschäftigen, können mit solch einer Excel-Tabelle mit Leichtigkeit bestimmte Posten einer Kalkulation herausholen und anschließend als Grafik darstellen.

Unternehmen oder Abteilungen, die prozessorientiert am selben Dokument arbeiten, können so z.B. durch die Angabe eines Status eine einfache grafische Übersicht erhalten, die anzeigt, welche Dokumente sich in welchem Status befinden und wie viele Dokumente einen bestimmten Status besitzen.

Fazit

Zusammenfassend lässt sich also sagen, dass die Verwendung einer RESTful-Schnittstelle mithilfe von Swagger eine gute Lösung für verschiedenste prozessorientierte Verarbeitungen darstellt. Auf dieser Basis kann der Anwender relativ schnell und einfach eine grafische und aussagekräftige Lösung erstellen.

Der Beitrag M2M – Wenn Maschinen miteinander kommunizieren erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Oracles Ankündigung: Ab Java 11 ändern sich Release-Zyklen, Support- und Lizenzmodelle

7. Februar 2019 Posted by Dr. Rolf Kremer

Was kommt auf Java-Anwender zu?

Oracle Java Die Java-Technologie mit der Programmiersprache Java erfreut sich seit sehr vielen Jahren großer Beliebtheit. Viele im produktiven Einsatz befindlichen Software-Systeme wurden mit einer Java Entwicklungsumgebung (Java Development Kit, JDK) entwickelt und werden auf einer Java Laufzeitumgebung (Java Runtime Environment, JRE) ausgeführt. Java wurde ursprünglich von Sun Microsystems entwickelt. Seit dem Verkauf von Sun Microsystems an Oracle im Jahr 2010 wird die Java Technologie von Oracle weiterentwickelt. Im Juni 2018 kündigte Oracle an, dass die Updates zu den Java-Versionen nach einer kurzen kostenlosen Supportzeit nur noch mit einem kostenpflichtigen Support für die kommerzielle Nutzung erhältlich sind. Lesen Sie hier Oracles Ankündigung. Damit einher geht auch eine Änderung des Releasezyklus von Java.

Oracle Java Durch die bisherigen langjährigen Release- und Supportzyklen konnten die mit Java entwickelten Anwendungen für eine bestimmte Java-Version entwickelt und lange Zeit mit der gleichen Java-Version betrieben werden. Dieses Vorgehen ersparte viel Aufwand, da eine Anpassung auf eine neue Version oftmals nicht erforderlich war. Die neueren kürzeren Release- und Supportzyklen erlauben dieses Vorgehen nicht mehr. Wie von anderen Anwendungen bekannt, beispielsweise den Web-Browsern (wie Firefox oder Google Chrome), sollen neue Java-Versionen nun innerhalb von sechs Monaten veröffentlicht werden. Der Support der Versionen wird auf sechs Monate beschränkt. Ausgenommen davon sind die sogenannten Long Term Support-Versionen (LTS-Versionen), bei denen der Support weiterhin für mehrere Jahre übernommen wird. Die Version 8 ist eine solche LTS-Version. Kostenlose Updates für kommerzielle Anwender waren  jedoch nur bis Ende Januar 2019 verfügbar. Ab der Version 9 sind Updates nur noch bis zum Release der Nachfolgeversion erhältlich. Die nachfolgende LTS-Version ist die Version 11. Die von Oracle bereitgestellten JDK- und JRE-Versionen sind ab Java 11 kostenfrei nur noch in Entwicklungs- und Testumgebungen nutzbar. Für die Nutzung der JRE in einer produktiven Umgebung ist der Abschluss eines kommerziellen Support-Vertrags bei Oracle notwendig.

Update-Strategien

Oracle Java Ein Hauptvorteil des schnelleren Release-Zyklus ist auch die schnellere Bereitstellung neuer Funktionen. Dieser Vorteil ist für die Java-Anwender gültig. Daneben hat Oracle selbst einen Vorteil, denn der Support muss nicht mehrere Versionen parallel anbieten. Wird Java zum Betrieb einer Anwendung verwendet, sollte frühzeitig eingeplant werden, wie und wann eine Umstellung auf eine neuere Java-Version durchgeführt wird. Strategien können sein:

  • Die erste Strategie ist, alle sechs Monate auf die jeweils neueste Java-Version umzusteigen. Dies hat den Vorteil, dass dadurch alle neuen Funktionen und Sicherheitsupdates genutzt werden können. Zudem ist der Aufwand für ein Updates von einer Version zur direkt nächsten Version oftmals geringer, als wenn ein oder mehrere Versionen ausgelassen werden. Ferner ist so sichergestellt, dass alle veröffentlichten Bugfixes und Sicherheitsupdates auch ohne kommerziellen Support-Vertrag erhalten werden. Nachteilig wirkt sich jedoch der regelmäßige Aufwand aus, insbesondere bei der Qualitätssicherung, um sicherzustellen, dass die Anwendung auch mit der neuesten Java-Version fehlerfrei funktioniert.
  • Eine zweite Strategie ist die Aktualisierung von einer LTS-Version zur nächsten. Dies hat den Vorteil, dass eine Anwendung relativ viele Jahre mit einer einzigen Version betrieben werden kann. Um Sicherheitsupdates zu erhalten, ist jedoch der Erwerb eines kommerziellen Supports notwendig. Zudem kann der Migrations-Aufwand von einer LTS-Version zur nächsten höher ausfallen, als wenn immer auf die direkt nächste Version gewechselt wird.
  • Eine dritte Strategie ist, unabhängig von den Java-Versionszyklus zu bleiben. Es wird nur dann ein Update durchgeführt, wenn dieses erforderlich ist. Dies kann der Fall sein, wenn neue Java-Funktionalitäten verwendet werden sollen oder abhängige Systemkomponenten aktualisiert werden müssen und diese eine neuere Java-Version voraussetzen. Bei der Verwendung der Oracle JRE/JDK-Version muss in diesem Fall auf Updates oder Bugfixes verzichtet werden, falls kein kommerzieller Support-Vertrag existiert.

Subskriptions

Oracle Java Oracle bietet zwei Subskriptions an, die sich bezüglich der Art der Anwendung unterscheiden lassen:

  • Beim „Java SE Subscription“-Modell erfolgt die Abrechnung pro Prozessor und ist deshalb für Java-Anwendungen konzipiert, welches auf einem Server eingesetzt werden.
  • Falls noch Java-Client-Anwendungen eingesetzt werden, kann das „Java SE Desktop Subscription“-Modell verwendet werden, bei dem die Lizensierung pro Anwender erfolgt.

Zu berücksichtigen ist, dass es neben Oracle noch andere (große) Softwareanbieter gibt, die Java unter einer eigenen Lizenz anbieten, da sie spezielle Abkommen mit Oracle haben. So weist IBM daraufhin, dass für die Nutzung von Java in ihren eigenen Produkten, wie IBM Notes und IBM Domino, eigene Lizenzbestellungen gelten. Aus diesem Grund können IBM Notes und IBM Domino weiter betrieben werden, ohne dass die Änderung von Oracle eine Auswirkung hat. Ebenfalls sollte berücksichtigt werden, dass es neben Oracle noch andere Unternehmen gibt, die einen kostenpflichtigen Support von Java anbieten.

OpenJDK

Oracle Java Neben diesen beiden Versionen stellt Oracle eine Community-Version namens OpenJDK kostenlos zur Verfügung, welche sich auch in einer produktiven Umgebung kostenlos nutzen lässt. Das OpenJDK enthält alle Bestandteile des Oracle JDKs, um eine Laufzeitumgebung für Java bereitzustellen. Deshalb wird das OpenJDK in vielen anderen Open Source-Projekten wie beispielsweise Linux verwendet. Die Releases vom OpenJDK stehen kostenlos zum Download parat.

Beim Support hat das OpenJDK den Vorteil, dass der kostenlose Support für LTE-Versionen länger verfügbar ist als der von Oracle. Beispielsweise wird der Support beim OpenJDK für die Version 11 bis Ende September 2022 angeboten. Oracle bietet für ihre JDK-/JRE-Versionen lediglich einen kostenpflichtigen Support bis September 2026 an. Weitere Informationen zu den geplanten Releases und deren Support sind auf der Webseite von OpenJDK zu finden.
Neben Oracle gibt es jedoch auch andere Anbieter, welche ebenfalls eine Java-Laufzeitumgebung zur Verfügung stellen. Diese Produkte basieren meistens ebenso auf dem OpenJDK. Auch gibt es weitere Unternehmen, die einen kostenpflichtigen Support für Java anbieten.

GBS-Produkte

Die GBS verwendet Java schon seit sehr vielen Jahren als eine der Hauptprogrammiersprachen für die eigen-entwickelten Produkte. Hierzu gehören die E-Mail-Security-Lösung iQ.Suite CryptPro und Teile der Workflow-Management-Lösung GBS Workflow Manager. Diese Produkte werden wir in Zukunft auch auf die Lauffähigkeit unter dem OpenJDK überprüfen.

Bei Fragen wenden Sie sich bitte an unseren Support.

Der Beitrag Oracles Ankündigung: Ab Java 11 ändern sich Release-Zyklen, Support- und Lizenzmodelle erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Domino V10 ist da – flexibler und moderner

17. Januar 2019 Posted by Dr. Rolf Kremer

Langersehnte Domino-Version

Mit Spannung erwartet: Erwartung erfüllt!

Im Herbst 2018 fanden in der Domino-Welt zwei Veränderungen statt. Zum einen wurde Anfang Oktober erstmals seit fünf Jahren wieder ein Major-Release von Domino veröffentlicht. Diese langersehnte Version 10 wurde mit Spannung erwartet, da es auch die erste Version war, die von der neuen Entwicklungsmannschaft von HCL entwickelt wurde. IBM hatte im Jahr 2017 die gesamte Verantwortung für die Domino-Entwicklung und den -Support an HCL übertragen.

IBM Domino V10 verfügbar Die zweite Neuerung war Anfang Dezember die Ankündigung, dass IBM einen Großteil ihrer Software-Kollaborationssparte an HCL veräußern wird. Dazu gehören die Produkte Connections, Verse und auch Domino, welches IBM vor über 20 Jahren von der damaligen Lotus Software Corporation übernommen hatte.
Auch wenn aufgrund der fehlenden Investitionen von Seiten des Herstellers, die Anzahl an Installationen des Notes Client und des Domino-Servers in den letzten Jahren immer weiter zurückgingen, gibt es immer noch eine Vielzahl an Unternehmen, bei denen viele – teilweise auch geschäftskritische – Anwendungen auf der Domino-Plattform laufen.

Forrester-Studie konstatiert Einsparungen

IBM Domino V10 verfügbar Dass der Einsatz von Domino immer noch einen Mehrwert für ein Unternehmen haben kann, ist ein Ergebnis einer aktuellen Studie von Forrester aus dem Jahr 2019, welche allerdings auch von IBM in Auftrag gegeben wurde. Darin bescheinigt Forrester, dass der Einsatz von Domino zu Einsparungen an Software-Lizenzkosten gegenüber der Verwendung von alternativen Produkten führen kann.

Ebenfalls kann der Einsatz von Domino zu Einsparungen bei Infrastruktur- und Mitarbeiterkosten führen, da mit Domino Geschäftsprozesse kostengünstiger als mit anderen Plattformen umgesetzt werden können und auch die Ressourcen-Anforderungen an einen Domino-Server im Vergleich zu alternativen Systemen günstiger sein können.

Details zur Version 10

In der neuen Version 10 wurden Erweiterungen unter anderem für die E-Mail-, Kalender- und Workspace-Funktionalitäten vorgenommen:

  • So kann nun zu jeder E-Mail eine Auslieferungszeit definiert werden, sofern sich das Empfänger-E-Mail-Konto auf einem Domino-Server in der Version 10 befindet. Dies kann bei der täglichen Arbeit den Vorteil haben, dass beispielsweise am Freitagnachmittag fertig gestellte Unterlagen erst am Montagmorgen beim Empfänger zugestellt werden. Dadurch wird der Empfänger nicht unnötig am Wochenende mit Arbeitsaufgaben belastet. Diese zeitgesteuerte E-Mail-Auslieferung funktioniert auch, wenn der E-Mail-Client beim Versender nicht zur Auslieferungszeit läuft.
  • Ferner können E-Mails nun als Anhang weitergeleitet werden und es können mehrere E-Mail-Signaturen angelegt werden. Dazu kann eine Standard-Signatur definiert werden und die anderen Signaturen können je nach Bedarf durch eine manuelle Aktion zu einer E-Mail hinzugefügt werden. Desweiteren versucht der E-Mail-Router nun periodisch eine E-Mail an einen Empfänger zu transferieren, wenn das Versenden einer E-Mail aufgrund eines Infrastruktur-Problems gescheitert war. Dazu kann der Administrator die Anzahl der Versuche des Routers konfigurieren.
  • Im Bereich des Kalenders können erhaltene Einladungen zu Besprechungen nun auch an andere Personen weitergeleitet werden ohne den Besprechungs-Eigentümer einzuschalten. Dieser kann diese zusätzlichen Einladungen jedoch zuvor verbieten.
  • Weitere Verbesserungen hinsichtlich der Benutzerfreundlichkeit betreffen die Volltextsuche, bei der die Indizierung der Dateianhänge optimiert wurde. Zudem wird der Index nun automatisch neu erstellt, nachdem eine Datenbank korrupt gegangen ist.
  • Auch das Erscheinungsbild des Notes Clients wurde optimiert. So kann ein Farbschema oder für bestimmte Komponenten eine individuelle Farbe definiert werden. Desweiteren kann ein individuelles Hintergrundbild für den Workspace definiert werden.
  • In den vergangenen Versionen gab es keine ausreichende Unterstützung von mobilen Geräten. Das soll mit den IBM Domino Mobile Apps geändert werden. Diese stellen einen Notes Client bereit, mit dem alle Domino-Anwendungen unverändert auf einem Apple iPad genutzt werden können. Ein paar Ausnahmen gibt es, wie beispielsweise Erweiterungen, die in Java programmiert sind, da Java auf einem iOS-Betriebssystem generell nicht zur Verfügung steht. Hier existiert eine Q&A-Seite. Die IBM Domino Mobile Apps sind zurzeit in einer Beta-Version verfügbar. Zur Teilnahme an dem Beta-Programm hat IBM eine Registrierungsseite eingerichtet.
  • Neben den genannten Erweiterungen gibt es auch eine neue ODS-Version. Diese unterstützt nun Datenbanken bis zu einer maximalen Dateigröße von 256 GByte gegenüber der bisherigen Beschränkung auf 64 GByte. Daneben können Folder-Namen nun 50-mal so lang sein wie zuvor und Feldnamen können eine Länge von 32 Bytes pro Namen haben.
  • Weitere wesentliche Neuerungen in der neuen Version sind für die Entwicklung von Anwendungen hinzugefügt worden. Setzte IBM bisher auf die selbst entwickelte XPages-Technologie werden durch HCL nun etablierte Tools bei der Web-Entwicklung wie Node.js oder React unterstützt. Mit dem neuen Node.js-Modul können eine Vielzahl an Operationen auf Dokumenten durchgeführt werden, welche sich in einer Datenbank auf einem Domino Server befinden. Die Domino Datenbank verhält sich bei Node.js wie eine NoSQL-Datenbank. Dazu steht als zusätzliche Erweiterung ein Domino AppDev Package zur Verfügung.
  • Dieses enthält zudem eine Server-Komponente namens Proton. Mit Proton können Remote Anfragen von Anwendungen vorgenommen werden, die auf Dokumente in einer auf einem Domino-Server befindlichen Datenbank ausgeführt werden. Mit Hilfe eines neuen Identity- und Access Management-Services können auf Basis von OAuth 2.0 andere Systeme, auf die auf einen Domino Server befindlichen Ressourcen sicher zugreifen.
  • Weiterhin wurde dem Domino AppDev Package mit der Domino Query Language, eine an SQL angelehnte, Sprache zur Verfügung gestellt. Mit dieser Sprache können große Dokumentenbestände schnell abgefragt werden. Das Domino AppDev Package wurde in der Version 1.0 vor kurzem veröffentlicht.
  • Auf Infrastruktur-Ebene sind ebenfalls Änderungen vorgenommen worden. So unterstützt Domino 10 nun die Linux Distribution CentOS, womit Docker Container erstellt werden können. Damit ergeben sich wesentliche Verbesserungen in einer einfacheren Bereitstellung von Domino-Servern. Aktuell stellt IBM jedoch noch kein vorkonfiguriertes Docker-Image von Domino 10 zur Verfügung.

#dominoforever

IBM Domino V10 verfügbar Wie zuvor erwähnt haben IBM/HCL einige Beta-Programme aufgelegt, um die Kunden frühzeitig in die Entwicklung einzubinden. So hatte die GBS im Sommer an dem Beta-Programm für Domino 10 teilgenommen. Dadurch konnten wir unsere Produkte bereits frühzeitig auf dem neuen System testen und die neuen Funktionserweiterungen auswerten, inwiefern diese Auswirkungen auf die Funktionalität der GBS Produkte haben.

Ideenforum und Webinare

IBM Domino V10 verfügbar Für alle, die sich an der Weiterentwicklung von Domino beteiligen möchten, wurde vom IBM & HCL Produktmanagement- und Entwicklungsteam zusätzlich ein Ideenforum einrichtet. Desweiteren gibt es neue Webinare unter dem Namen „Domino Tech School“. In den Social Media-Plattformen hat sich ferner das Hashtag #dominoforever für Themen rund um die Domino-Weiterentwicklung etabliert.

GBS unterstützt weiterhin Domino

Die GBS – langjähriger ISV für Domino-Lösungen – unterstützt mit ihren Lösungen auch Domino V10. Die GBS-Lösungen für die Domino-Plattform wurden nach dem Release 10 von Domino bei IBM zertifiziert. Auch in diesem Jahr stehen wieder umfangreiche Erweiterungen bei den GBS-Produkten für die Domino-Plattform auf den jeweiligen Produkt-Roadmaps an. Zu diesen GBS-Produkten gehören neben der E-Mail-Security-Lösung iQ.Suite auch die Workflow-Management-Lösung GBS Workflow Manager und die Migrationslösung GBS Retirement Manager Und sicherlich werden wir auch das bereits für dieses Jahr angekündigte Release 11 von Domino frühzeitig betrachten, um die Lauffähigkeit unserer Produkte entsprechend zu überprüfen.


Weitere Infos zum GBS Badge Profil

Der Beitrag Domino V10 ist da – flexibler und moderner erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

ISG Leader Quadrant: Hintergründe und Entstehungsgeschichte

7. November 2018 Posted by Robert Becker

ISG Provider Lens: Anbieter im Vergleich

Zum wiederholten Mal bescheinigte das unabhängige Marktforschungs- und Beratungsunternehmen ISG der GBS ein hoch attraktives Produkt- und Serviceangebot sowie Wettbewerbsstärke im Security-Umfeld. In diesem Jahr überzeugte GBS im großen Anbietervergleich die ISG-Analysten und positionierte sich in der Kategorie „Cyber Security Solutions & Services“ mit seinem DLP-Portfolio im Leader Quadranten.

80 Anbieter – die wichtigsten Hersteller und deren Angebote auf dem deutschen Markt – wurden für diese Studie evaluiert und bewertet. Sie wurden in unterschiedlichen Marktsegmenten einer detaillierten Analyse und Positionierung innerhalb der „ISG Insight-Quadranten“ unterzogen. Im heutigen Beitrag begeben wir uns auf Spurensuche und klären, wie diese Studien und die daraus resultierende Auszeichnung „Leader“ entstanden sind, welche Entwicklung und Bedeutung sie für die Teilnehmer und die gesamte IT-Branche hat.

Wie alles begann: Cloud Computing Anbieter im Vergleich

ISG Provider Lens Welches ist die richtige Cloud-Plattform für mein Unternehmen? Mit dieser Frage begann 2010 alles. Die damalige Experton Group, die 2016 vom amerikanischen Beratungs- und Marktforschungshaus Information Services Group (ISG) übernommen wurde und ab da unter dessen Namen auftrat, legte dazu erstmals eine vergleichende Studie zu den in Deutschland verfügbaren Cloud-Angeboten auf. Bewertet wurden die wichtigsten Hersteller gemäß ihrer Cloud-Angebote aus der Perspektive deutscher IT-Manager und Anwendungsentwickler.

Ausgangspunkt für diese Studie waren einige Kernprobleme, die CIOs damals hatten: Der Markt für Cloud Computing war um das Jahr 2010 herum intransparent, was Projekte sowie Investitionsentscheidungen in die noch junge, aber vielversprechende Technologie verzögerte. Stärken und Schwächen der Anbieter waren vielfach unklar und damit nicht miteinander vergleichbar. Zudem positionierten sich die Anbieter nicht klar nach Segmenten und Geografie.

Dank des Vendor Benchmarks ließen sich die Anbieter – übrigens bis heute – nach einer ausführlichen, mehrmonatigen Bewertung in fünf Kategorien einteilen:

  • Leader sind Anbieter mit einem hoch attraktiven Produkt- und Serviceangebot sowie einer ausgeprägt starken Markt- und Wettbewerbsposition. Sie sind strategische Taktgeber und Meinungsführer, ein Garant für Innovationskraft und Stabilität.
  • Product Challenger decken mit ihren Produkten und Services die Anforderungen der Unternehmen überdurchschnittlich gut ab, können aber in den verschiedenen Kategorien der Marktbearbeitung nicht die gleichen Ressourcen und Stärken vorweisen wie die als Leader positionierten Anbieter.
  • Market Challenger verfügen über eine hohe Wettbewerbsstärke, haben allerdings auf der Portfolio-Seite noch ausgeprägtes Verbesserungspotenzial. Oft sind es etablierte Anbieter, die Trends aufgrund ihrer Größe und Unternehmensstruktur nicht schnell genug aufgreifen und somit Optimierungspotentiale vorweisen.
  • Contender mangelt es noch an ausgereiften Produkten und Services bzw. einer ausreichenden Tiefe und Breite ihrer Angebote. Anbieter in diesem Bereich sind oft Generalisten oder Nischenanbieter.
  • Rising Star – dieses Prädikat erhalten Unternehmen mit hohem Zukunftspotential. Sie können zum Zeitpunkt der Auszeichnung ein vielversprechendes Portfolio vorweisen. Zudem verfügen sie über ein ausgezeichnetes Management mit Verständnis für den lokalen Markt.

Die ersten „Leader“

Insgesamt 11 Anbieter wurden damals untersucht. Bewertet wurden sie – ausgehend von den genannten Problemen – nach vier Kriterien: Zielgruppe, Cloud-Typologie, Leistungsspektrum und nach diversen Einzelkriterien wie beispielsweise Technologie und Infrastruktur. Zum ersten Mal erhielten CIOs damit eine echte Vergleichsbasis und Segmentierung. Die ursprünglich von Experton gesetzten Ziele allesamt erreicht:

  • Einheitlicher Marktüberblick der Cloud Computing Anbieter
  • Transparenz und Vergleichbarkeit der Stärken und Schwächen der Anbieter
  • Differenzierte Positionierung der Anbieter nach Segmenten
  • Klare Kriterien für das Erstellen von Shortlists und die Investitionsplanung
  • Anregungen für eigene Projekte und Benchmarks

Der erste Vendor Benchmark wurde demnach ein voller Erfolg – die Neuauflage des Anbietervergleichs in 2011 eine logische Konsequenz.

2011: Die Zahl der Teilnehmer steigt

ISG Provider Lens Diese Neuauflage lieferte dann nicht mehr nur eine strategische Bewertung im Bereich der Cloud Services (IaaS, PaaS, SaaS), sondern bewertete auch die Angebote im Bereich der Cloud Technologien. Von über 100 Anbietern von Cloud Technologien und Services wurden 58 Anbieter für den deutschen Markt als relevant identifiziert. Sie wurden einer detaillierte Analyse und Positionierung innerhalb der „Experton Market Insight-Quadranten“ unterzogen.

Im Vergleich zum Vorjahr stellte sich der Markt für Cloud Computing in Deutschland 2011 schon als deutlich gereift dar: Die Mehrheit der Anbieter hatte ihre Angebote überarbeitet und den lokalen Marktgegebenheiten angepasst. Zudem war die Auswahl der verfügbaren Services und Technologien gestiegen und die Mehrheit der Anbieter hatte ihre Preismodelle klarer strukturiert, die Marketingunterlagen „eingedeutscht“, erste lokale Referenzen gewinnen können und die Interoperabilität ihrer Lösungen vorangetrieben.

2013: Neue Technologien und IT-Trends erhalten eigene Kategorien

Untersuchte die Experton Group bis dato nur den Cloud-Markt, weitete sie ihre Beurteilung 2013 auch auf Anbieter im Mobile Enterprise- und Big Data-Markt aus. So lieferte sie mit der ersten Auflage ihres Anbietervergleichs im Big Data-Umfeld CIOs und IT-Managern erstmals konkrete Unterstützung bei der Evaluierung und Auswahl der für ihr Unternehmen geeigneten Big Data-Lösungsanbieter und -Dienstleister.

Analog dazu lieferte Experton die erste Auflage des Anbietervergleichs „Mobile Enterprise Vendor Benchmark 2013“ und unterstützte damit CIOs und IT-Manager bei der Evaluierung und Auswahl der für ihr Unternehmen geeigneten Mobile Enterprise Lösungs-Anbieter und Dienstleister im Client-Umfeld. Die wichtigsten IT-Dienstleister hinsichtlich ihrer Mobile Enterprise Angebote und –Expertise, sowie die wichtigsten Mobile Device Management Softwareanbieter hinsichtlich ihrer Leistungsfähigkeit und ihrer Zukunftsaussichten wurden nun bewertet und verglichen.

Die Aufnahme dieser beiden Kategorien wurde nötig, da kaum eine IT-Disziplin derart fundamentalen Veränderungen unterworfen war, wie die Client IT. Spielte der Client bis dato eine eher untergeordnete Rolle, war in der Regel hoch standardisiert und als nicht strategisch bewertet, hatte sich diese Rolle massiv verändert. Eine ganze Reihe unterschiedlicher Trends haben den Client in den Fokus gerückt, auch und insbesondere auf Geschäftsleitungsebene. Darunter beispielsweise auch der Einsatz von Endgeräten in Unternehmen, die eigentlich für den privaten Gebrauch gedacht waren. Aber auch die zunehmende Mobilität der Mitarbeiter stellte veränderte Anforderungen an die entsprechenden Endgeräte.

2014: GBS erstmals dabei – und wird Leader

ISG Provider Lens 2014 war auch unsere Stunde gekommen: GBS wurde gleich im ersten Social Business Vendor Benchmark – dem nunmehr vierten und jüngsten Anbietervergleich zum „Social Business Leader 2014“ im Bereich Integration Services gekürt. Erstmals hatten die Analysten dafür im Kontext von Social Business markt-relevante Software-Produkte und Services in neun Kategorien auf den Prüfstand gestellt. Hierzu untersuchte die Experton Group nach ihrer standardisierten und bewährten Methode 100 Social Business-Angebote in Deutschland. Im Ergebnis positionierte sie den GBS AppDesigner bei den „Integration Services“ im Leader Quadranten.

Mit dem „Social Business Vendor Benchmark 2013“ veröffentlichte die Experton Group die erste Auflage des Anbietervergleichs in dem Trendthema Social Business. Die Studie gab Entscheidern in Anwenderunternehmen erstmals einen detaillierten und differenzierten Überblick zu den wichtigsten Social Software- und Serviceanbietern sowie Beratungs- und Integrationsdienstleistern im deutschen Markt für das Jahr 2014.

2015: Sicherheit rückt in den Fokus – ein Rising Star wird geboren

Es sollte nicht die letzte Top-Platzierung im Bereich Social Business für uns sein. Nur ein Jahr später, 2015, konnten wir mit unserer intuitiven Lösung zur Erstellung von modernen Web-Anwendungen unsere führende Rolle im „Experton Social Business Vendor Benchmark 2015“ im Bereich Social Transformation unterstreichen. Und damit war noch längst nicht Schluss: Im Bereich E-Mail, Messaging und Collaboration gelang uns mit iQ.Suite die Positionierung als „Rising Star“ im Product Challenger Quadranten im erstmals veröffentlichten „Security Vendor Benchmark“. In 13 Kategorien hatte die Experton Group nach ihrer standardisierten und mehrstufigen Methode die Security-Angebote markt-relevanter Anbieter auf den Prüfstand gestellt. Mit der Auszeichnung „Rising Star“ wird übrigens gleichermaßen das Zukunftspotential wie auch die strategische Ausrichtung honoriert.

In den letzten Jahren ist die IT-Sicherheit neben Cloud Computing, Big Data, Social Business und Mobile Enterprise zentrales Thema der Information-and-Communication-Technology-Branche (ICT) geworden. Insbesondere vor dem Hintergrund steigender Datenschutzanforderungen haben Sicherheitsaspekte in der E-Mail-Kommunikation und in der unternehmensübergreifenden Zusammenarbeit immer mehr an Bedeutung gewonnen. Themen wie Data Leakage Prevention und Verschlüsselung rückten zunehmend in den Fokus: Kunden verlangten immer stärker nach Lösungen, die durchgängigen Schutz bieten und einen vertrauensvollen Umgang mit Daten gewährleisten.

2016: Netzwerke, Industrie 4.0 und der Digital Workspace vervollständigen die Benchmarks

Die Zeit blieb nicht stehen – neue IT-Trends verlangten nach neuen Benchmarks, darunter Industrie 4.0/IoT Vendor Benchmark, WAN Services/ SDN Vendor Benchmark, der Digital Workspace Service Provider Benchmark sowie Digital Workspace Vendor Benchmark. Insgesamt 10 verschiedene Anbietervergleiche veröffentlichte die Experton Group fortan.

Der Digital Workspace – und als integraler Bestandteil Mobile Enterprise – ist neben Cloud Computing, Big Data, Social Business und Security zentrales ICT-Thema geworden. Vor diesem Hintergrund startet die Research-Phase der ersten Auflage des „Digital Workspace Vendor Benchmarks“ für Deutschland. Ein zentrales Thema wurde 2016 auch das Netzwerk als Enabler vieler ICT-Themen wie Cloud Computing, Big Data, Social Business und Mobile Enterprise. Software Defined Networks und innovative WAN Angebote wurden in dieser Zeit zum Teil heiß diskutiert – für Experton der Startschuss für die Research-Phase der ersten Auflage des „WAN Services und SDN Vendor Benchmarks 2016“ für Deutschland.

Mit Industrie 4.0 (I4.0) und dem Internet of Things (IoT) wurden zudem Begriffe geprägt, um die zunehmende Digitalisierung unserer Welt zu beschreiben. Beide Begriffe greifen die gleiche Veränderungsdynamik auf – die zunehmende Vernetzung und Automatisierung von Geräten und Maschinen – setzen jedoch unterschiedliche Schwerpunkte in der Betrachtungsweise: Industrie 4.0 beschäftigt sich im Kern mit dem Produktionsprozess in einer „Smart Factory“. Die intelligente Fabrik basiert auf hoch vernetzten und automatisierten Maschinen und erlaubt somit die effiziente Produktion bis hin zur Losgröße 1. Das Internet der Dinge fokussiert sich dagegen nicht auf die Produktion, sondern auf die Nutzung von digitalisierten und vernetzten Produkten und Geräten, die als Grundlage für neue, intelligente Services eingesetzt werden können.

GBS wurde „Rising Star“ im Bereich Data Leakage Prevention

Experton Security Rising Star Germany Erstmalig wurde GBS mit der iQ.Suite auch im Quadranten für Data Leakage Prevention (DLP) bewertet und erlangte hier die Auszeichnung als „Rising Star“. Die auf dem deutschen Markt relevanten DLP-Lösungen wurden von den Experton-Analysten unter anderem nach Kriterien wie der Möglichkeit zur Klassifizierung von Daten und der Fähigkeit, individuelle Black- und Whitelists zu nutzen, bewertet. Aufgrund ihrer innovativen Technologie, welche eine präzise Kontrolle des E-Mail-Verkehrs erlaubt, wurde das Unternehmen deshalb als „Rising Star“ positioniert. Die E-Mail Experten von GBS legten in der Weiterentwicklung ihrer DLP-Lösung besonderes Augenmerk darauf, Verhaltensanomalien in der elektronischen Kommunikation zu erkennen.

2017: GBS als Leader bei Data Leakage Prevention ausgezeichnet

Mit der 8. Auflage des Experton Group Cloud Vendor Benchmark Deutschland erfolgte 2017 das Re-Branding auf „ISG Provider Lens Germany 2017 Cloud Transformation/Operation Services & XaaS“ und auch die Studie wurde umbenannt. In der ISG-Studie „Provider Lens Germany 2018 – Security Services & Solutions“ wurde GBS als einer der führenden Security-Lösungsanbieter und -Dienstleister im Markt für Data Leakage Prevention positioniert und schaffte es mit seiner für Microsoft Exchange, Office 365 und IBM Domino Verse verfügbaren E-Mail-Management Lösung iQ.Suite in den Leader-Quadranten. Damit konnte die Position im Vergleich zum Vorjahr weiter verbessert werden. Die technologische Weiterentwicklung der Lösung und die Fokussierung auf die Verbesserung der Datensicherheit – gerade vor dem Hintergrund der kommenden EU-DSGVO – trugen maßgeblich dazu bei.

2018: Sicherheit der IT-Infrastruktur wird Brennpunkt-Thema

ISG Provider Lens Machen wir einen Sprung ins Jahr 2018: GBS wurde in der  ISG-Studie „Provider Lens Germany 2019 – Cyber Security Solutions & Services“ als einer der führenden Security-Lösungsanbieter und -Dienstleister im Markt für Data Leakage Prevention eingestuft. Im Zuge der fortschreitenden Digitalisierung der Geschäftswelt rückt die Sicherheit der IT-Infrastruktur stärker in den Brennpunkt. Weltweite Angriffe durch Verschlüsselungstrojaner zu Beginn des Jahres und großangelegte Hackerangriffe belegten, wie sehr Unternehmen in die Schusslinie von Cyberkriminellen geraten sind und wie hoch die Gefährdungslage ist. Kurzum: In der aktuellen Ausgabe des Anbietervergleichs im Security-Umfeld überzeugten wir die Analysten und schafften es mit unserer E-Mail-Management Lösung iQ.Suite zum wiederholten Mal in den Leader-Quadranten.

ISG Provider Lens Außerdem neu in diesem Jahr: Der Anbietervergleich „ISG Provider Lens Germany 2019 – Infrastructure & Application Sourcing“, mit dem ISG den CIOs und IT-Managern konkrete Unterstützung bei der Evaluierung und Auswahl der für ihr Unternehmen geeigneten Infrastructure & Application Sourcing -Providern lieferte. Hintergrund für diese neu aufgelegte Studie ist die zunehmende digitale Transformation von Geschäftsprozessen, Unternehmen und Geschäftsmodelle, für die neue technologische Grundlagen geschaffen werden müssen, um den steigenden Anforderungen an eine dynamische, globalisierte und „Echtzeit-getriebenen“ Welt gerecht zu werden. Die meisten Unternehmen jedoch sehen sich für die anstehenden Herausforderungen auf IT-Seite aktuell nur unzureichend gerüstet. Die ständig steigenden Anforderungen in diesem Umfeld können Unternehmen nicht mehr allein bewältigen. Aus Sicht der ISG kann nur eine unternehmensweite Sourcing-Strategie die gestellten Anforderungen erfüllen.

Fazit

Die ISG Provider Lens Studien analysieren und bewerten in einem etwa dreimonatigen, mehrstufigen Research-Prozess die Anbieter in einem bestimmten Thema und Markt. Unabhängig und kontinuierlich erhalten CIOs und IT-Manager durch die Studien konkrete Unterstützung bei der Evaluierung und Auswahl der für ihr Unternehmen geeigneten Vendors sowie Insights zu den Markttrends der kommenden Jahre. Wir sind gespannt, wie es weitergeht!

Der Beitrag ISG Leader Quadrant: Hintergründe und Entstehungsgeschichte erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Mission möglich: Anwendungs-Modernisierung für einen modernen Arbeitsplatz

5. Juli 2018 Posted by Krasimir Atanasov

Verändern Sie noch? Oder transformieren Sie schon?

Transformieren oder Chancen verpassen?

Was würden Sie für Ihr Unternehmen wählen? Neue Technologien verändern maßgeblich die Art und Weise, wie wir leben und Geschäfte machen. Die Veränderungsgeschwindigkeit ist viel höher als jemals zuvor und Unternehmen stehen vor der Herausforderung, einen Weg zu finden, um von den neuen Gelegenheiten zu profitieren. Fast 93% der Unternehmen gaben in einer KPMG Studie an, dass sie sich schon in einer Phase ihrer digitalen Transformation befinden und einige der wichtigsten Erfolgsfaktoren hierfür sind die Optimierung und die technologische Umwandlung von Geschäftsprozessen. Ein positiver Begleitumstand: Mitarbeiterengagement- und –Produktivität werden gesteigert, was letztendlich einen positiven Einfluss auf die Unternehmensperformance hat.

Wie der klassische Büroarbeitsplatz aussah

digitalen Transformation profitieren Erinnern Sie sich, wie die Büroarbeitsplätze vor 20 Jahren aussahеn? Die Kommunikation erfolgte meistens über Festnetztelefon oder E-Mail und die Schreibtische waren voll mit Papierstapeln. Man konnte auf Kopierer, Fax oder Scanner kaum verzichten und diese drei Geräte wurden gemeinsam von allen Mitarbeitern im Büro genutzt. Eine Sekretärin zu haben, die ans Telefon geht und Termine vereinbart, war damals ein Privileg, das nur den Managern vorbehalten war. Die Genehmigung von Zeiterfassungen und Urlaubsanträgen erfolgte immer auf Papier und sämtliche Dokumentation musste auf physischen Trägern archiviert werden. Mit dem Begriff “Zusammenarbeit” war gemeint, ein persönliches Gespräch mit Kollegen zu führen, mit Kunden zu telefonieren, oder Papierpost zu verschicken. Die IT-Abteilung war hauptsächlich für die Betreuung der stationären Geräte zuständig.

Wie der Arbeitsplatz transformiert wurde

digitalen Transformation profitieren Moderne Arbeitsplatzkonzepte sind geprägt von verschiedenen Trends. Im Mittelpunkt der Veränderungen stehen die Menschen. Die wirtschaftliche Entwicklung auf globaler Ebene wird in Zukunft von Mitarbeitern abhängen, die mobil sein wollen, um zeit- und ortsunabhängig von überall und auf jedem Gerät arbeiten zu können. Die technologische Entwicklung verwischt die Grenzen zwischen Offline und Online, Zeit und Ort, und bietet zugleich neue Möglichkeiten für Unternehmen und deren Mitarbeiter. Die Entwicklung der Künstlichen Intelligenz (KI) und des Internets der Dinge (IoT) wird das Konzept für einen modernen Arbeitsplatz stark beeinflussen.

digitalen Transformation profitieren Nach einer Umfrage von Fujitsu wurde geschätzt, dass es bis zum Jahr 2020 weltweit fast 21 Milliarden vernetzte Geräte geben wird. Die digitale Vernetzung und die intelligenten Geräte werden den Alltag der Menschen stark beeinflussen. Stellen Sie sich vor: Das Telefon weckt Sie je nach Verkehrslage auf – Sie haben ein selbstfahrendes Auto, das Sie zu Ihren Meetings bringt und Ihnen somit mehr freie Zeit zur Verfügung stellt. Sie können sich mit Ihren Kunden über verschiedene Geräte und von überall auf der Welt (sogar vom Strand aus) direkt verbinden. Sie haben einen virtuellen persönlichen Assistenten, der Termine in Ihrem Auftrag vereinbart und verschiedene Aufgaben für Sie erledigt.

Die hohe Geschwindigkeit dieser technologischen Veränderungen ist eine große Herausforderung für Unternehmen, aber auch eine Chance, mit innovativen Lösungen neue Möglichkeiten zu ergreifen.

Wie Sie von der digitalen Transformation profitieren können

Das Konzept für einen modernen Arbeitsplatz ist technologiegetrieben und bedeutet, dass die Bereitstellung innovativer Anwendungen und Instrumente, die Unternehmensproduktivität und das Mitarbeiterengagement erhöhen kann. Darüber hinaus lassen sich dadurch Arbeitsprozesse und die tägliche Arbeit optimieren, wodurch wiederum Kosten gesenkt werden und sich Möglichkeiten für neue Investitionen eröffnen. Abhängig von ihren individuellen Zielen und Anforderungen können Unternehmen verschiedene Szenarien wählen, wie sie von den Möglichkeiten der digitalen Transformation profitieren können. Kurz gesagt: Durch die Modernisierung von Anwendungen können Sie Lösungen der nächsten Generation in Unternehmen einführen.

Beispiele

Lassen Sie mich zwei Beispiele nennen, wie Organisationen ganz einfach viel effizienter werden können: Sie erhalten eine E-Mail mit einer klassischen Rechnung – gedruckt, unterschrieben, gescannt und per E-Mail zurückgeschickt. Die Künstliche Intelligenz ist nun in der Lage, die Informationen im E-Mail-Anhang zu analysieren und automatisch nur die wichtigsten Informationen wie etwa Kunden, Dienstleistungen, Betrag und Fälligkeitsdatum herauszufiltern.

Darüber hinaus können Sie die Rechnung einfach und problemlos bearbeiten, indem Sie Ihren virtuellen Assistenten bitten, dies in Ihrem Auftrag zu erledigen – sogar auch, während Sie beispielsweise Ski fahren. Sie sehen: Künstliche Intelligenz transformiert bereits die Art und Weise, wie wir Geschäfte machen und wird zukünftig eine wichtige Rolle auch am Arbeitsplatz spielen.

Anwendungs-Modernisierung: Der Weg zum Erfolg

digitalen Transformation profitieren Die Transformation und Modernisierung von Anwendungen ist eine Möglichkeit, effiziente und innovative Arbeitsumgebungen zu gestalten. Da jedes Unternehmen unterschiedliche Anwendungen hat, kann es praktisch seine Effizienz erhöhen, indem es die Anwendungen modernisiert oder neue Anwendungen implementiert.

Mit unserem Anwendungs-Modernisierungs-Angebot unterstützen wir Unternehmen mit innovativen Lösungen zur Automatisierung und Digitalisierung, mit denen sich veraltete Anwendungen ersetzen lassen, um einen Arbeitsplatz der nächsten Generation zu gestalten. Die einzelnen Komponenten (Analyse, Migration, Entwicklung, Cloud-Transformation und Betreuung) lassen sich sowohl alle zusammen integrieren, als auch als eigenständige Lösungen implementieren.

Eine gute Referenz

Einer unserer Kunden musste mehrere interne Systeme modernisieren. In der ersten Phase haben wir die vorhandenen Systeme durch die Einführung sicherer Integrationskanäle verstärkt. In der nächsten Phase haben wir Künstliche Intelligenz eingeführt, indem wir einen künstlichen Bot entwickelten, der Informationen aus verschiedenen Quellen (einschließlich der schon modernisierten Quellen) integrieren und anschließend die zusammengefassten Informationen sofort zurückliefern konnte. Das Ergebnis war die Optimierung von Geschäftsprozessen und die Verbesserung der Mitarbeitererfahrung: Die Mitarbeiter konnten schon direkt den Bot fragen, anstatt mit drei verschiedenen Systemen zu arbeiten.

Ich könnte Ihnen noch von mehr Erfolgsgeschichten berichten, aber wichtig ist, dass alle diese Geschichten eines gemeinsam haben: Sie fokussieren sich auf die wichtigsten geschäftlichen Herausforderungen des Unternehmens, verschaffen dem Unternehmen einen Mehrwert und verbessern die Arbeit seiner Mitarbeiter, indem sie ihnen viel Zeit und Mühe ersparen.

Ich verrate Ihnen ein Geheimnis: Wir haben nie eine bestehende Anwendung neu implementiert, ohne sie mit neuen Funktionen auszustatten! Beim Neuaufbau der Anwendungen beginnen wir mit einer eingehenden Analyse der Geschäftsbedürfnisse und -Prozesse des Unternehmens, was sehr oft in ein besseres Verständnis seitens des Kunden resultiert und somit Mehrwert für ihn schafft. Während der Datenmigration und der Entwicklung der neuen Systeme, die auf der Lücken-Analyse basieren, identifizieren wir neue Funktionen, die der Kunde benötigt. Als Ergebnis bieten wir ihm eine moderne Lösung, die seinen Zielen und Anforderungen am besten entspricht.

Wichtigste Mission

Die Mission eines jeden Unternehmens ist es, erfolgreich und profitabel zu sein. Dies ist dank der Anwendungs-Modernisierungs-Angebote von BULPROS möglich und geschieht durch den Einsatz moderner Lösungen der nächsten Generation, die die Anforderungen an einem modernen Arbeitsplatz erfüllen.
Falls Sie an einer maßgeschneiderten Lösung interessiert sind, kontaktieren Sie mich bitte per E-Mail: Krasimir.atanasov@bulpros.com

Der Beitrag Mission möglich: Anwendungs-Modernisierung für einen modernen Arbeitsplatz erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Die Welt wird digital – Trends

7. Juni 2018 Posted by Alexander Tzonev

Die nächste industrielle Revolution

Alexa! Mach das Licht aus!

Die Digitalisierung unserer Zeit verändert die Art wie wir arbeiten, interagieren und leben. Automatisierung ist tief verankert in unserem täglichen Leben. Von einfachen Dingen wie bewegungssensorischen Lichtern, zu Assistenten – powered von Artificial Intelligence – wie Siri und Alexa. Es ermöglicht Trends wie Smart Cities, Smart Homes und Smart Workplace, die direkt unseren Alltag und unsere Routine beeinflussen und unser Verhalten ändern. Ist das die nächste industrielle Revolution? Ich würde sagen – ja. Wir müssen uns an diese Umwälzungen anpassen und trotzdem im Einklang mit dem sich verändernden Geschäftsumfeld bleiben.

Grenzenlose Kommunikation

Welt wird digital Die technologischen Errungenschaften haben wir wie selbstverständlich in unserem persönlichen Leben übernommen. Wir nutzen unsere mobilen Geräte für alles und unser Leben ist praktisch „in unseren Handys“. Facebook und Twitter haben unsere Interaktion verändert und wir bewegen und in einer neuen Ära des sozialen Verhaltens. Kostenlose Internetkommunikation hat die Grenzen für uns geöffnet, um mit allen in Verbindung zu bleiben – wo auch immer wir sind. Spezialisierte Anwendungen ermöglichen es uns, verschiedene Aufgaben ohne Aufwand auszuführen. Dank der Entwicklung der Artificial Intelligence (AI) und Maschinelles Lernen (ML) unterstützen uns personalisierte Assistenten den ganzen Tag. Durch die Vernetzung können „Dinge“ selbstständig kommunizieren, messen, regeln, steuern, navigieren und dokumentieren. Der Begriff „Internet der Dinge” (IoT) lässt sich am besten mit „Smart Home” Technologien verdeutlichen, die heute schon gelebte Realität in fast jedem Haushalt sind, verschiedene Bereiche unseres Lebens verbinden und automatisieren. Die Vernetzung von Haustechnik und Haushaltsgeräten, wie zum Beispiel die Bedienung von Lampen, Jalousien, Türschlössern, Heizung, Kühlschrank, Herd oder Waschmaschine können in unserer Abwesenheit oder auch von der Couch aus, unsere Assistenten Alexa oder Google home für uns regeln.

Auch Unterhaltungsgeräte wie TV oder HiFi-Anlagen können in einem intelligenten Wohnhaus mitvernetzt werden. NutzerInnen können so schon unterwegs die Heizung aufdrehen. Türschlösser öffnen sich, sobald man sich mit seinem Smartphone der Haustür nähert, oder der Kühlschrank erinnert daran, dass sich die Haltbarkeit der Milch dem Ende nähert.

Anlieferung direkt am Fenster im 3.OG

Die Interaktion erweitert sich von Mensch zu Maschine, von Maschine zu Maschine. Technologien wie Blockchain ermöglichen eine sichere Zusammenarbeit zwischen den Maschinen, so dass z.B. Amazon-Drohnen bald mit unseren intelligenten Fenstern kommunizieren können und eine Lieferung direkt bei uns im Wohnzimmer im 3.OG erfolgen kann.

Die Kommunen übernehmen immer mehr Verantwortung für die Smart Cities. So werden Straßenlaternen programmiert, die die Verhaltensweisen der Menschen erfassen, die die Intensität und den Zustand, basierend auf Verkehr, Tageszeit usw. steuern. Dadurch reduziert sich der Stromverbrauch und damit die Kosten für die Stadt und die Sicherheit wird erhöht. Clevere Parkassistenten können uns zum nächstgelegenen verfügbaren Parkplatz navigieren. Langes Suchen und „Rumkurven“ hat damit ein Ende und verringert somit die Verschmutzung und den Verkehr in den Städten. Parksysteme, die mit Ampeln vernetzt sind, können potentielle Engpässe vorhersagen, den Verkehr in der Stadt optimieren und die Autofahrer auf kürzeste Wege hinweisen.

Mitarbeiter werden anspruchsvoller

Welt wird digital Die Erwartung ist groß, dass wir an unserem Arbeitsplatz dieselben digitalisierten Technologien nutzen können, wie in unserem Privatleben. Wir möchten z.B. unser Telefon für alles nutzen. Dies stellte neue Herausforderungen für die IT dar, die für die Sicherung von Informationen und Netzwerken verantwortlich ist. Damit ist klar, dass das Konzept für einen modernen Arbeitsplatz neu zu entwickeln ist. Arbeitgeber müssen, um qualifizierte Mitarbeiter zu binden, Bring Your Own Device und Mobile Workplace anbieten. Collaboration-Tools und die Cloud ermöglichen es den Mitarbeitern von überall auf ihre Informationen zuzugreifen. Das ist die Grundlage um deren Produktivität und Engagement zu steigern.

Die Digitalisierung verändert nicht nur unsere persönlichen Gewohnheiten, sondern auch die Art und Weise, wie wir Geschäfte machen. Technologie ist tief in unsere Geschäftsprozesse und Kundeninteraktionen eingebettet. Die Weiterentwicklung von AI und ML ermöglicht die Automatisierung komplexester Prozesse, die vor 10 Jahren undenkbar waren. Natürlich bedeutet dies auch, dass auf traditionelle Geschäftsprozesse Druck ausgeübt wird. Diese müssen nun neue Wege finden zu wachsen und sich zu entwickeln.

Wer nicht digitalisiert, wird abgehängt

Die Veränderungen haben begonnen, auch große Unternehmen zu beeinflussen. Diejenigen, die ihre Geschäftsprozesse nicht anpassen, werden nicht „überleben“.
Beispielsweise:

  • Die Borders-Buchhandelskette hat sich nur langsam an den Anstieg der e-Books angepasst und keine benutzerfreundliche E-Commerce-Website aufgebaut. Durch die Übermacht von Amazon ging der Buchladen schließlich bankrott.
  • Eastman Kodak, das seit den späten 1800er Jahren bekannte Fotounternehmen, musste 2012 Insolvenz anmelden. Kodak konnte sich nicht an das Zeitalter der digitalen Fotografie anpassen.
  • Die Pleite des US-Marktführers Blockbuster 2020 zeigt: Stationäre Videotheken werden es nicht schaffen. Marktführer sind RedBox und Netflix, die das digitale Distributionsgeschäft umsetzen.

Alle diese Unternehmen haben den Moment verpasst, ihr Geschäft ins digitale Zeitalter zu transformieren – in ein Zeitalter des intelligenten Automatismus. Intelligente Städte, Smart Homes, personalisierter Einzelhandel, Herstellung, Landwirtschaft, selbstfahrende Autos – nur um einige wenige zu nennen – alle Bereiche unseres Lebens werden künftig von digitalen Technologien betroffen sein.

Schlichte Automatisierung war gestern

Welt wird digital AI, Big Data, maschinelles Lernen oder Robotics gibt es schon seit einiger Zeit. Doch aufgrund der technologischen Entwicklung werden sie zu Transformatoren. Was mit schlichten Automatisierungen zur Vereinfachung unserer täglichen Aufgaben begann, betrifft inzwischen die gesamte Prozesskette:

  • Wir starteten mit einfachen Produktionslinien und fügten Roboter hinzu, um die Qualität zu verbessern, schneller und eben automatisierter zu machen.
  • Wir wollten ursprünglich die Abhängigkeiten innerhalb der Prozesse verstehen und Werkzeuge erstellen, um verschiedene Parameter zu analysieren. Jetzt wollen wir, dass die Maschinen aus den Informationen lernen, Entscheidungen verbessern und automatisch mit der wachsenden Datenmenge umgehen können.
  • Wir begannen mit Autopiloten, um Geschwindigkeiten zu kontrollieren. Wir entwickelten sie, um Gefahren zu erkennen und die Geschwindigkeit anzupassen. Und nun führen wir selbstfahrende Autos ein und Roboter, die Motorräder fahren können.
  • Wir können zum Mond fliegen. Aber warum kann das eigentlich nicht jeder?

Wir leben in herausfordernden Zeiten und müssen uns nicht nur an die dynamischen Veränderungen anpassen, sondern auch lernen, wie wir an einen modernen Arbeitsplatz von den Möglichkeiten profitieren können, die die Digitale Transformation bietet.

Neue Arbeitsplätze entstehen

Der KI-basierte Unternehmenswert wird laut Gartner 2022 voraussichtlich 3,9 Billionen US-Dollar erreichen. In den kommenden Jahren wird AI zu noch größeren Arbeits- und Interaktionsveränderungen führen und viele traditionelle Jobs werden vordefiniert sein. Aber trotz der Vorhersagen, dass die Arbeitslosigkeit steigt, werden eher neue Arbeitsplätze entstehen. Der Fokus ist künftig auf die Entwicklung sozialer Kompetenzen und die Zusammenarbeit zwischen Menschen einerseits und zwischen Menschen und Maschinen andererseits gerichtet.

Vernetzte Geräte – großer Datenanstieg

In diesem Zusammenhang werden laut Business Insider Investitionen in IoT zwischen 2017 und 2025 fast $ 15 Billionen betragen und dies hängt mit dem großen Datenanstieg zusammen, der durch die vernetzten Geräte generiert wird. Unternehmen werden in der Lage sein, ihre Geschäftsprozesse und Kosten zu optimieren, ihre Effizienz zu steigern und verlässliche Analysen zu implementieren. Der moderne Arbeitsplatz ist ein wichtiger Aspekt, der sich schnell ändert. Unternehmen dürfen nicht nur den Trends folgen, sondern müssen klare Visionen für ihre zukünftige Entwicklung haben. Neue Technologien haben positive Auswirkungen auf die Mobilität und ermöglichen den Menschen, sich auf mehr Arten, an mehr Orten und in mehr Situationen als je zuvor zu verbinden.

Der Himmel soll die Grenze sein? Vielleicht schauen wir einmal weiter.

Digitalisierung und moderne IT-Infrastrukturen: Da geht noch was!

Lesetipp Unternehmen modernisieren ihre IT-Infrastrukturen nur sehr zögerlich und verlieren somit wertvolle Zeit. Wer diesen Trend verpennt, wird wohl in nicht allzu ferner Zukunft einen sicheren und reibungslosen IT-Betrieb nicht mehr gewährleisten. Das bestätigen die Ergebnisse der neuen IDC Studie „Next Generation Data Center in Deutschland 2018“.

Der Beitrag Die Welt wird digital – Trends erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Aus Zwei mach Eins: Hybrid Cloud im Einsatz

1. März 2018 Posted by Robert Becker

Wie es die Public Cloud ins lokale Rechenzentrum schafft

Hybrid Cloud im Einsatz Die Bedeutung des Cloud Computing hat in den vergangenen Jahren stetig zugenommen. Wie die Bitkom in ihrem Cloud Monitor 2017 mitteilt, boomt die Nutzung von Cloud-Diensten in deutschen Unternehmen – der Bedarf an Software, Speicher und Rechenleistung aus der Wolke wächst stetig. Auch kleinere Unternehmen streben zunehmend in die Datenwolke: Bereits 65 Prozent aller Unternehmen hierzulande setzen Cloud Computing ein.

Inzwischen haben sich mit der Private Cloud, Public Cloud und Hybrid Cloud drei Cloud-Modelle etabliert. Bereits im letzten Blogartikel haben wir Begriffe rund um das Cloud Computing geklärt und wollen uns heute mit der Hybrid Cloud näher beschäftigen.

Das Beste aus zwei Welten…

IT-Anwendungen werden immer agiler und die Datenflut steigt stetig (Stichwort: Big Data), was zu Lasten der Speicherkapazitäten geht. Wie also mit all den Datenmengen umgehen? Der Einsatz einer Hybrid Cloud kann eine gangbare, praktikable Lösung sein. Die Hybrid Cloud ist eine IT-Umgebung, die die Private und Public Cloud miteinander kombiniert und somit die Vorteile beider nutzt. Das heißt: Unternehmen können sensible (Unternehmens-) Daten und Programme auf eigenen Servern aufbewahren bzw. in der Private Cloud betreiben, während einige Dienstleistungen und Services über das Internet bei öffentlichen Anbietern in der Public Cloud betrieben werden können.

Damit profitieren Unternehmen zum einen von der Zuverlässigkeit und der Skalierbarkeit, die eine Public Cloud bietet, mit der Möglichkeit, den Einsatz der Cloud-Ressourcen mit einem sicheren Desaster-Recovery-Konzept https://de.wikipedia.org/wiki/Disaster_Recovery auf mehrere Rechenzentren zu verteilen. Auf der anderen Seite behalten sie die volle Kontrolle, die eine Private Cloud-Umgebung in Bezug auf Sicherheitsstandards und Compliance bietet.

… oder nicht?

Hybrid Cloud im Einsatz Die ersten Hybrid Cloud-Plattformen sahen noch so aus, dass Public Cloud Services mit der eigenen, im Unternehmen betriebenen, Private Cloud verbunden wurden. Das Problem dieser Konstellation: Beide Systeme waren zwar miteinander verbunden, jedoch autark und nicht aus einem technologischen Guss. Das machte das Management dieser Hybrid Clouds aufwändig und der zeitgleiche Einsatz zweier Cloud-Modelle ließ die Komplexität der IT-Infrastruktur steigen.

Wer die Hybrid Cloud im Einsatz hat braucht eine besondere Sicherheitsstrategie. Immerhin müssen die Systeme der Private Cloud sich mit denen der Public Cloud austauschen, ohne dass Compliance-Vorgaben oder Datenschutzrichtlinien verletzt werden. Unternehmen waren gezwungen einen peniblen Überblick zu behalten, welche Daten wo verarbeitet und gespeichert werden. Das setzte die ausführliche Analyse aller Geschäftsprozesse voraus. Anschließend mussten diese Prozesse passend in den unterschiedlichen Cloud-Anteilen abgebildet werden. Eine echte Herausforderung, denn gerade personenbezogene Daten unterliegen besonderen gesetzlichen Anforderungen an die Auftragsdatenverarbeitung.

… Doch!

Seit dem Launch von Azure Stack 2016 hat sich daran einiges geändert. Microsoft ermöglicht Unternehmen damit eine echte Hybrid Cloud-Strategie. Mit Azure Stack hat der Anbieter eine Plattform auf den Markt gebracht, die das nahtlose Verschieben von Workloads von der eigenen Private Cloud in die Public Cloud und umgekehrt ermöglicht.

Office 365 Hybrid Szenario

Lesetipp Möchten Sie die Vorteile von E-Mail-Postfächern unter Office 365 nutzen, jedoch weiterhin auf eine On-Premise E-Mail-Management-Lösung setzen? Dann ist iQ.Suite Ihre Lösung! Ein- und ausgehende E-Mails können von Office 365 zu Ihrem Rechenzentrum umgeleitet und dort gemäß Ihrem persönlichen Regelwerk verarbeitet werden. Und das sowohl unter IBM Domino, als auch MS Exchange/SMTP!

Microsofts Cloud-Plattform Azure kurz erklärt

Hybrid Cloud im Einsatz Azure ist Microsofts umfangreiches Cloud Computing Angebot, mit dem sich unterschiedlichste Anwendungen und Services in der Cloud realisieren lassen. Zum Beispiel können hier ganze Websites gehostet, Datenbanken abgelegt, Remote Apps realisiert oder ganze Server-Farmen ausgelagert und in Azure virtualisiert betrieben werden.

Sie sehen: Unternehmen, die eine öffentliche Cloud nutzen wollen, bietet Microsoft mit Azure eine Fülle von Diensten. Weil dabei aber sensible Daten das unternehmenseigene Rechenzentrum verlassen und in die Cloud übertragen werden, buchen nicht alle Unternehmen diesen Service gern. Hinzu kommt, dass etliche Unternehmen aus Datenschutzgründen oder anderen Gründen, Azure-Dienste gar nicht über die Cloud nutzen dürfen.

Azure Pack: Microsofts Private Cloud

Für dieses Problem hat Microsoft schon länger eine Lösung parat: Azure Pack. Mit Azure Pack lässt sich eine Private Cloud-Umgebung auf Basis der Microsoft Azure-Technologie aufbauen. Jedoch wird die Azure-Cloud dabei im lokalen Netzwerk des unternehmenseigenen Rechenzentrums zur Verfügung gestellt und ist nur eingeschränkt verfügbar. So lassen sich beispielsweise keine gemeinsamen Vorlagen oder Programme im lokalen Azure Pack und gleichzeitig auch in der Public Cloud nutzen.

Diese Lücke konnte Microsoft mit der Entwicklung von Azure Stack schließen. Mithilfe des Azure Stack können Unternehmen eine vernünftige Hybrid Cloud im Einsatz haben und sowohl Infrastruktur- als auch Plattformdienste (IaaS und PaaS) zentral zur Verfügung stellen. Die Umgebung läuft komplett unabhängig von Azure und dem lokalen Netzwerk, kann sich aber mit beiden verbinden, Daten austauschen und gemeinsame Dienste zur Verfügung stellen.

Azure Stack: Bewährte Public Cloud-Dienste ins eigene Rechenzentrum

Azure Stack ist Microsofts Hybrid Cloud-Plattform, mit der Unternehmen Azure-Dienste über das unternehmenseigene Rechenzentrum bereitstellen können. Sie profitieren dabei von der Skalierbarkeit und dem Management einer Public Cloud-Lösung, müssen aber nicht auf die Kontrollmöglichkeiten eines eigenen Rechenzentrums verzichten. Dadurch werden Anwendern echte hybride Cloud-Szenarien ermöglicht: Sie können zum Beispiel ihre Geschäftsanwendungen und Apps zunächst in der Private Cloud – in Azure Stack – entwickeln und bereitstellen, und können diese später jederzeit und ohne Aufwand in die Public Cloud – Azure – bringen. Umfang und Tempo bestimmen Unternehmen dabei selbst. Die Daten werden dabei lokal, also innerhalb des Unternehmens gehostet. Die Anwendungen hingegen sind weltweit über die Webapplikation der Public Cloud erreichbar.

Sicherheitsbedenken spielen keine Rolle mehr: Unternehmen, die die Funktionen der öffentlichen Cloud nutzen wollen, es jedoch aus Datenschutzgründen nicht dürfen, können komplett auf Azure Stack setzen, denn alle Daten bleiben im lokalen Netzwerk.

Vorteile für IT-Verantwortliche

Azure Stack spielt seine Vorteile vor allem bei IT-Verantwortlichen aus: Sie können sehr flexibel entscheiden, welche Anwendungen im lokalen Netzwerk und welche in der Cloud laufen. Oder anders ausgedrückt: Wenn es gewünscht wird, lassen sich lokale Cloud-Dienste gemeinsam mit öffentlichen Cloud-Diensten betreiben. Zwischen den Komponenten findet ein Datenaustausch statt. Überhaupt müssen sich Unternehmen, die Azure bereits nutzen, überhaupt nicht umgewöhnen, denn alle Funktionen von Azure stehen auch in Azure Stack zur Verfügung. So werden zum Beispiel alle Management-Tools, die in der öffentlichen Cloud Azure funktionieren auch von der privaten Cloud Stack unterstützt. Möglich ist dies durch die standardisierte Architektur, das gleiche Benutzerportal sowie einheitliche Technologien für die Entwicklung der Apps in Azure und Azure Stack.

Dass Azures PowerShell sich auch für Azure Stack verwenden lässt, dürfte vor allem Administratoren freuen – Entwickler hingegen können weiter mit Visual Studio Anwendungen schreiben, die in der Public und in der Private Cloud funktionieren.

Cloud kurz erklärt – der Mittelstand zieht nach

Lesetipp Vor einigen Jahren war Deutschland noch vollkommen wolkenfrei. Dann entdeckten vor allem Großkonzerne die Cloud. Sie schöpfen mittlerweile das volle Potential aus und die Technologie gehört bereits zum Standard. Nun, etwas zeitverzögert, zieht der Mittelstand nach. Doch teilweise sind Terminologien, Bedeutungen und Unterschiede der Cloud-Services immernoch unklar. Dieser Blogartikel schafft Abhilfe.

Fazit: Sicherheit und Cloud schließen sich nicht aus

key Die Hybrid Cloud erweitert im Vergleich zu einer rein öffentlichen oder rein privaten Cloud die Anwendungsmöglichkeiten deutlich. Unternehmen, die besondere Anforderungen an den Datenschutz oder strenge Compliance-Richtlinien haben, die eine Nutzung der Public Cloud ausschließen, steht mit Microsoft Azure Stack eine echte hybride Lösung zur Verfügung. Sie behalten die volle Datenkontrolle und können kritische Services auf eigenem On-Premises-Equipment betreiben. Die zugehörigen Webapplikationen beispielsweise sind hingegen in der Public Cloud installiert. Der kurzfristige Bezug zusätzlicher Rechen- und Speicherkapazitäten in der Public Cloud und der problemlose Umzug in die private Umgebung – zum Beispiel im Falle von Projekten im Entwicklerumfeld – sind gerade im Hinblick auf die Entwicklung neuer Produkte und Geschäftsmodelle im Umfeld der Digitalen Transformation, Argumente für die Hybrid Cloud.

Der Beitrag Aus Zwei mach Eins: Hybrid Cloud im Einsatz erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Cloud kurz erklärt – der Mittelstand zieht nach

14. Februar 2018 Posted by Diana Jensen

Cloud Terminologie

Was Sie über die Wolke wissen sollten

Cloud kurz erklärt Der Anteil der Cloud-Befürworter nimmt kontinuierlich zu. Nicht nur unter Konzernen. Jetzt (endlich) zieht auch der Mittelstand nach: Inzwischen nutzen laut einer Bitkom-Studie bereits 64 Prozent der kleinen und mittleren Unternehmen und 69 Prozent der mittelständischen Unternehmen Cloud Computing in ihrem Betrieb. Das sind erfreuliche Zahlen, denn eine digitale Transformation von Geschäftsmodellen ohne Cloud Computing wird es nicht geben.

Cloud kurz erklärt und in aller Munde

Cloud kurz erklärt Cloud-Speicher, Daten aus der Cloud, Personal oder Private Cloud …: Die Cloud ist in aller Munde und wir sind täglich umgeben von einer Vielzahl an Begriffen, unter denen sich jedoch nicht jeder etwas vorstellen kann. Im heutigen Blogartikel wollen wir deshalb die Cloud zum Thema machen und klären, was „die Cloud“ eigentlich ist, welche Modelle und Arten existieren.

Cloud Computing: Daten in der Wolke speichern

Cloud kurz erklärt Ganz vereinfacht gesagt ist Cloud Computing die Bereitstellung von IT-Diensten über das Internet. Diese Dienste können zum Beispiel Speicher, Rechenkapazitäten, Datenbanken und sogar ganze Anwendungssoftware sein.

Um diese Dienste aus der Cloud nutzen zu können, ist eine schnelle Breitbandverbindung notwendig. Denn über den Internetbrowser greifen Sie auf IT-Leistungen und Infrastruktur zu, die auf weit entfernten Servern gespeichert sind.

Wenn Sie umgekehrt etwas in die Cloud laden, dann speichern Sie Daten auf einem entfernten Server. Dabei werden die Daten von Ihrem Endgerät, zum Beispiel Ihrem Laptop, über das Internet auf den Server eines Cloud-Anbieters geladen. Von dort können Sie Ihre Daten mit jedem belieben Gerät später wieder abrufen – auch mit Ihrem Smartphone. Das ermöglicht es Ihnen, Dateien von verschiedenen Orten aus zu bearbeiten und sie auch mit Dritten, zum Beispiel mit Ihren Kollegen, zu teilen.

Von der Idee zur Cloud

Cloud kurz erklärt Das Konzept der Cloud ist keine neue Erfindung. Bereits in den 50er Jahren gab es Ideen, eine zentrale Stelle zu schaffen, die nach Bedarf Ressourcen bereitstellt. Mangels technischer Voraussetzungen blieben diese Ideen vorerst Theorie. Es sollte noch 20 Jahre dauern, bis mit dem Ausbau der Glasfasertechnologie in den 70er Jahren die infrastrukturelle Grundlage der Cloud geschaffen wurde.

Einige Irrungen und Wirrungen später war es Ende der 90er Jahre soweit: Es war nun möglich, Software nicht auf dem eigenen Rechner zu installieren, sondern von einem IT-Dienstleister über einen Webbrowser zu verwenden. Das Software-as-a-Service (SaaS) – Modell war geboren. In den folgenden Jahren legte die Entwicklung rasant zu. Bereits Anfang der 2000er Jahre gab es erste webbasierte Business Software, die es ermöglichte, von jedem Computer mit Internetzugang auf Daten zuzugreifen.

Mit den immer schnelleren Bandbreiten und der verbesserten technischen Ausstattung entwickelte sich das Cloud-Konzept von der einfachen Datenablage hin zu immer komplexeren Anwendungen. Und heute? Heute beziehen Unternehmen bereits komplexe Geschäftsanwendungen ohne Leistungs- oder Funktionseinbußen aus der Cloud.

Und warum Wolke?

Cloud kurz erklärt Cloud kurz erklärt heißt übersetzt „Wolke“. Informationstechniker verwendeten in ihren Strukturzeichnungen von Netzwerken eine Wolke, um Systeme zu kennzeichnen, die zwar Teil dieses Netzwerks waren, aber extern betrieben wurde.

Die Wolke wurde als Symbol verwendet, da Aufbau und Funktion dieser Systeme irrelevant für das eigene Netzwerk waren. Das ist bis heute so geblieben: Dateien werden an einem Ort gespeichert (Server), dessen Aufbau und Funktionen irrelevant ist. Dafür sind sie von jedem Endgerät auf der Welt mit Internetzugang abrufbar.

Everything as a Service: Die Cloud Service-Modelle

Cloud kurz erklärt Es gibt drei gängige Servicemodelle des Cloud Computings. Das erste, Software as a Service, haben wir oben schon erwähnt. Es bezeichnet den Zugang zu verschiedenen Software und Anwendungsprogrammen. Ein typisches Beispiel für SaaS ist Microsoft Office 365.

Eine weitere Form ist Cloud Computing via Platform as a Service (PaaS). Dieses Servicemodell ermöglicht es, eigene Software-Anwendungen zu entwickeln oder auszuführen. Dies geschieht innerhalb einer bereitgestellten Programmierumgebung mit anpassbaren Rechen- und Datenkapazitäten. Beispiele für PaaS-Modelle sind die App Engine von Google und Microsofts Windows Azure.

Cloud kurz erklärt Das dritte Modell heißt Infrastructure as a Service (IaaS). Nutzer greifen auf Hardware-Ressourcen, z.B. Speicher oder Netze, zu und gestalten sich ihre eigenen Server. Die Auswahl, Installation und der Betrieb der Software liegen in eigener Verantwortung. Der Infrastructure-as-a-Service von Fujitsu oder die Amazon Elastic Compute Cloud (EC2) sind typische Beispiele für IaaS.

Öffentliche oder Private Rechnerwolke?

Die drei Servicemodelle haben wir geklärt. Wenden wir uns nun den vier Cloud-Arten zu. Je nachdem, von wem die Services angeboten werden und an welche Zielgruppe sie sich richten, spricht man von Public Clouds (öffentliche Cloud), Private Cloud (Private Cloud) sowie Hybrid Cloud.

  • Public Cloud

  • Die Public Cloud ist das kostenlose oder kostenpflichtige Angebot eines frei zugänglichen Providers, der seine Dienste offen über das Internet für jedermann zugänglich macht. Auf diese Weise kann zum Beispiel eine Software von mehreren Unternehmen und Kunden gleichzeitig genutzt werden. Bekannte Beispiele für die Public Cloud sind Ihre E-Mail Dienste, Services wie Google-Docs oder das kostenpflichtige Angebot Microsoft Office 365.

  • Private Cloud

  • Das Gegenteil der Public Cloud ist die Private Cloud. Datenschutz- und IT-Sicherheitsgründe können dazu führen, dass IT-Dienste ausschließlich einer bestimmten Gruppe vorbehalten sind. Unternehmen beispielsweise betreiben in einer abgesicherten Cloud eigene IT-Dienste und machen diese ausschließlich den eigenen Mitarbeitern zugänglich.

  • Hybrid Cloud

  • Je nach Bedarf ist es manchmal sinnvoll, eine Mischung aus Private und Public Cloud zu verwenden. Sollen zum Beispiel einige Services über die öffentliche Cloud laufen, dürfen einige datenschutzkritische Anwendungen nur direkt im Unternehmen betrieben und verarbeitet werden. Eine solche Mischform wird als Hybrid Cloud bezeichnet, wobei die Herausforderung darin besteht, die Geschäftsprozesse voneinander abzutrennen. Hierfür ist wiederum eine konsequente Klassifizierung der im Unternehmen vorhandenen und verarbeiteten Daten zwingend notwendig.

  • Personal Cloud

  • Während der Private Cloud die unternehmenseigene IT-Abteilung als Provider agiert und Fachabteilungen benötigte Ressourcen über ein Self-Service Portal buchen und nutzen, werden bei einer Personal Cloud Daten tatsächlich an einen externen Service Provider weitergegeben. Der Service Provider hält diese Daten so bereit, dass jederzeit, überall und mit unterschiedlichen Endgeräten darauf zugegriffen werden kann. So können Mitarbeiter zum Beispiel von ihren privaten Geräten genauso wie vom Firmen-Rechner aus auf Termine, Kalendereinträge, E-Mails und andere Informationen zugreifen und diese verwalten.

Cloud Computing im Geschäftsalltag – so funktioniert es

Cloud kurz erklärt Genug der Theorie – sehen wir uns an, wie Cloud Computing in der Praxis funktioniert. Ein einfaches Beispiel: Der Vertriebsmitarbeiter im Außendienst Ihres Unternehmens kann dank eines Cloud-basierten Dienstes Informationen zum Kunden kinderleicht über sein mobiles Endgerät abgerufen. Darunter auch kaufentscheidende Informationen zum avisierten Produkt wie zum Beispiel Materialdaten.

Der Kunde hat angebissen, das Verkaufsgespräch war erfolgreich und dem Kunden wurde die Lieferung des Produkts schon für den nächsten Tag zugesichert. Statt erst wieder ins Büro zurück zu müssen und wertvolle Zeit zu verlieren, kann der Vertriebsmitarbeiter den Auftrag sofort über sein Smartphone schreiben und Arbeitsanweisung an die Kollegen im Lager (Versand der Ware) und Rechnungswesen (Rechnungsstellung) erteilen.

Aufgrund Aktualisierung der Daten in Echtzeit stehen die Anweisungen den Kollegen sofort zur Verfügung. Und auch der Chef unseres Vertriebsmitarbeiters ist darüber informiert, ob und welche Geschäfte wann abgeschlossen wurden, ohne darauf warten zu müssen, bis sein Mitarbeiter wieder im Büro ist.

Vorteile des Cloud Computings

Cloud kurz erklärt Bereits unser Beispiel zeigt, warum die Cloud so beliebt geworden ist: Auf Cloud Computing basierende Anwendungen und Services ermöglichen grenzenlosen Zugang auf alle Daten – weltweit, jederzeit und von mehreren Nutzern gleichzeitig. Daneben überzeugen Cloud-Anwendungen aber auch mit ganz anderen Vorteilen: So können Unternehmen die Zahl der Benutzerlizenzen ganz nach Bedarf erweitern. Die Kapazität der Cloud ist beinah unendlich und Ressourcen-Engpässe gehören definitiv der Vergangenheit an.

Waren Sie schon einmal an der Implementierung einer Software beteiligt? Das ist ein sehr komplexer Aufwand, der Monate, manchmal Jahre, dauert. Für Cloud-Anwendungen müssen Sie sich lediglich registrieren und können diese Anwendungen meist sofort verwenden. Lediglich sehr komplexe und funktionsreiche Unternehmensanwendungen aus der Cloud brauchen einige wenige Tage, bis sie einsatzbereit sind – und das ist nichts im Vergleich zu mehreren Monaten oder Jahren bei Implementierung einer Anwendung.

Diese ist übrigens in der Regel mit hohen Investitionen in Ausstattung, Kosten für Lizenzen, Integration und Berater verbunden. All diese Aufwände werden mit Software aus der Cloud deutlich geringer, denn hier bezahlen Sie lediglich eine monatliche Nutzungsgebühr. Zudem entfallen auch Wartungs- oder Verwaltungsaufwand, denn das Installieren von Patches und Upgrades sowie das Testen von Anwendungen übernimmt der Cloud-Betreiber.

Last but not least ist auch das Risiko eines Datenverlustes oder eines Hardware-Ausfalls deutlich minimiert: Alle Daten sind sicher in der Cloud gespeichert und auch ein verlorener Laptop ist nur noch kleine Unannehmlichkeit statt potenzieller Notfall.

Nutzen Sie Cloud-Systeme? Welche Meinung haben Sie zum Thema? Wir freuen uns auf Ihre Kommentare.

Der Beitrag Cloud kurz erklärt – der Mittelstand zieht nach erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Digitalisierung und moderne IT-Infrastrukturen: Da geht noch was!

31. Januar 2018 Posted by Diana Jensen

Banner IDC Studie

In deutschen Firmen herrscht Modernisierungsstau

IT-Infrastrukturen Ohne moderne IT-Infrastrukturen kann die Digitalisierung in deutschen Unternehmen nicht gelingen. Aber das allein genügt nicht, denn die digitale Transformation macht auch eine Neupositionierung der Data Center in der Service Delivery von Organisationen notwendig.

Die jetzt veröffentlichte IDC-Studie „Next Generation Data Center in Deutschland 2018“ stimmt da nachdenklich: Aufgrund von Modernisierungsstau stockt die digitale Transformation in deutschen Unternehmen. Fast Dreiviertel (73 Prozent) von ihnen haben Nachholbedarf. Das wirf Fragen auf, beispielsweise warum viele Unternehmen die Modernisierung ihrer Data Center nicht nachhaltig genug verfolgen und sich mit ineffizienten, teuren und unsicheren IT-Infrastrukturen begnügen?

Im heutigen Artikel sehen wir uns die Antworten und Ergebnisse der IDC-Befragung unter IT-Entscheidern deutscher Unternehmen genauer an.

Überblick: Der Nachholbedarf ist groß und die Zeit drängt

IT-Infrastrukturen Der Modernisierungsstau hat Folgen für den operativen Betrieb: In den vergangenen zwölf Monaten verzeichnen 78 Prozent der Studienteilnehmer Downtimes oder Einschränkungen bei der Bereitstellung von Services. Zwar haben viele Firmen in den letzten Jahren Investitionen in ihr Data Center getätigt, die Vorlaufzeit für die Bereitstellung von IT-Ressourcen ist jedoch zu lang und bremst die Weiterentwicklung von Geschäftsmodellen im Rahmen der digitalen Transformation aus.

Es ist also höchste Zeit, dass deutsche Unternehmen reagieren und ihre IT-Infrastrukturen und IT-Architektur überarbeiten. Dass dabei eine Menge Arbeit auf Unternehmen zukommt, zeigen die hierfür notwendigen To Do´s: Laut IDC müssen sie zum Einen die umfassende Visualisierung von Server, Netzwerk und Storage vorantreiben, zum Anderen aber auch die Nutzung von Software Defined Infrastructure, Container, konvergente und hyperkonvergente Lösungen sowie Composable IT. Das sind eine Menge Aufgaben, die da im Pflichtenheft stehen.

Das Rechenzentrum von Morgen verknüpft zudem interne IT-Umgebungen und externe IT- und Businessressourcen zu einer einheitlichen Business Delivery Plattform. Dazu gehören Cloud-Plattformen, Multi Clouds, Colocation Services und Business-Netzwerke. Die meisten Firmen sind davon noch weit entfernt, trotzdem ist IDC davon überzeugt, dass Software-Defined-Infrastrukturen (SDI), hyperkonvergente Lösungen und Composable IT die Rechenzentren auch hierzulande revolutionieren werden. Dafür müssten IT-Verantwortliche am besten schon gestern damit begonnen haben, ihre starren IT-Ressourcen zu flexibilisieren. Die Zeit drängt!

Zu teuer, zu silohaft, zu unsicher: Problem erkannt

Immerhin: Die IT-Entscheider wissen genau um das entscheidende Hindernis der IT-Infrastrukturen in der Digitalisierung. Für mehr als ein Drittel der Befragten (37 Prozent) stehen eine höhere Effizienz und Effektivität der IT-Ressourcen ganz oben auf der Agenda.

IT-Infrastrukturen
Doch der Betrieb von Rechenzentren ist zu teuer und Kosteneinsparungen zählen für 34 Prozent der Befragten zu den wichtigsten Prioritäten. Hierzu räumen zwar auch die Analysten von IDC ein, dass Investitionen in Next- Generation-Data-Center-Technologien erst einmal hoch sind. Jedoch zahlen sich diese Ausgaben durch erhöhte Automatisierung, geringeren Wartungsaufwand und weniger manuelle Tätigkeiten mittel- bis langfristig wieder aus. Hinzu kommt, dass sich mit der Migration von IT in Multi Clouds und Colocation Services letztendlich auch die Kapitalkosten in Betriebskosten wandeln.

Letztendlich halten moderne IT-Infrastrukturen und automatisierte Prozesse den IT-Betrieb auf einem deutlich sichereren, weniger störanfälligen Niveau. Das ist wichtig, denn gut Dreiviertel der befragten IT-Entscheider (78 Prozent) mussten in den letzten 12 Monaten Downtimes bzw. Einschränkungen bei der Bereitstellung von Services verzeichnen. Als Gründe nannten sie Technologieausfall, Fehlentscheidungen oder Hackerangriffe.

Software Defined Infrastructure: Die Grundlage zur Flexibilisierung

IT-Infrastrukturen Der Weg zum Next-Gen-Datacenter führt neben einer Virtualisierung der Infrastruktur nicht vorbei an Software Defined Infrastructure (SDI) als Lösungsansatz zur Flexibilisierung und Automatisierung von Data Center Ressourcen. Schließlich ist Software-Defined-Technologie eine entscheidende Komponente für hyperkonvergente Lösungen. IDC bringt es in ihrer Studie auf den Punkt: „Sie liefert essentielle Funktionalitäten wie etwa die dynamische Bereitstellung von IT-Infrastrukturen, Flexibilität und Skalierbarkeit, einfaches Management sowie Ressourcen und Kostenoptimierung, ohne die eine Modernisierung von Datacentern nicht möglich ist“.

Dem ist nichts hinzuzufügen – außer ein paar Zahlen: 44 Prozent der Befragten versprechen sich eine bessere Auslastung der IT-Ressourcen, sofern die Lösungen auf die jeweiligen Business-Anforderungen zugeschnitten sind. 27 Prozent der IT-Abteilungen planen, ihre Server-Infrastruktur durch eine hyperkonvergente IT-Infrastruktur abzulösen, 26 Prozent der IT-Abteilungen wollen ihr Speichernetzwerk bzw. Storage-Area-Network durch eine hyperkonvergente Infrastruktur ersetzen.

Neben den oben genannten Vorteilen stehen die befragten Unternehmen allerdings auch vor etlichen Herausforderungen: Ein knappes Drittel (31 Prozent) der Befragten sieht die Komplexität als größtes Hindernis, weiteren 26 Prozent fehlt es an Wissen über SDI und für ein Fünftel ist die Technologie noch nicht ausgereift. Aus Sicht von IDC müssen Anbieter hier nachbessern und beispielsweise mit Best-Practice und Anwendungsfällen überzeugen.

Per Multi-Cloud zum Next-Gen-Datacenter

IT-Infrastrukturen Ohne Cloud-Computing und Provider-Services geht es nicht im Next-Gen-Datacenter. Dessen sind sich auch die deutschen Unternehmen bewusst: Immerhin 88 Prozent von ihnen verfügen bereits über eine Cloud-Strategie. Soweit so gut – denn die parallele Nutzung von Cloud-Diensten und -Plattformen mehrerer Anbieter – so genannte Multi-Clouds – steckt hierzulande noch in den Kinderschuhen. IDC erwartet jedoch die Entwicklung eines neuen Cloud-Deployment-Modells.

Aber zurück zur Multi-Cloud: Die Studie zeigt, dass Unternehmen hier ganz unterschiedliche Ansätze verfolgen: Während 37 Prozent unter der Multi-Cloud die Zusammenarbeit mit einem oder zwei strategischen Cloud-Providern verstehen, um den Managementaufwand gering zu halten und hybride Clouds weiterzuentwickeln, bevorzugen 23 Prozent eine Art Brokermodell. Dabei muss der Provider Connectivity und Monitoring-Tools für die relevanten Cloud-Services anbieten.

So oder so: Deutsche Firmen planen laut IDC-Studie offenbar Investitionen. Eigenen Angaben zufolge wollen sie in den kommenden drei Jahren verstärkt in Lösungen für Monitoring, Modellierung, Analyse, Systemstabilität, Sicherheit, zur Überwachung von Performance- und Wartungs-SLAs sowie Systeme zur Automatisierung und Orchestrierung investieren.

Zukunftsmusik: Composable Infrastrukturen

IT-Infrastrukturen Die wachsenden Anforderungen an Agilität und Flexibilität zur schnelleren Provisionierung und Skalierung von Anwendungen und Infrastruktur können nach Einschätzung von IDC nur mittels so genannter Composable Infrastrukturen gestemmt werden. Diese nächste Technologiestufe erlaubt IT-Abteilungen die Transformation von statischen, unflexiblen Infrastrukturen hin zu einer Umgebung, die besser ausgelastet, agil und automatisiert und damit fit für die Digitalisierung ist.

Jedoch sind Composable Infrastrukturen derzeit nur Zukunftsmusik: 80 Prozent der Befragten gaben zwar an, den Begriff zu kennen, allerdings haben sie verschiedene Vorstellungen die Bedeutung betreffend. Selbst in produktiven Umgebungen sind Composable Infrastrukturen noch nicht vorhanden – IDC sieht hier allerdings großes Potenzial für Anbieter, sich entsprechend aufzustellen.

Unternehmensstrukturen bremsen Digitalisierung

Lesetipp Überfordert Digitalisierung etablierte Unternehmensstrukturen? Dieser Frage ging das Analystenhaus Capgemini in seiner IT-Studie 2017 auf den Grund. Eine Zusammenfassung können Sie in diesem Blogartikel lesen.

Fazit

Die Modernisierung deutscher Rechenzentren hin zum Data Center der nächsten Generation hat gerade erst begonnen. Nach Einschätzung von IDC werden die IT- und Fachabteilungen damit in den kommenden drei bis fünf Jahren beschäftigt sein.

IT-Infrastrukturen Die meisten Unternehmen haben erkannt, dass sie ihre IT-Infrastrukturen umfassend modernisieren müssen. Dazu haben Anbieter bereits etliche innovative Technologien zu Lösungen entwickelt, die die meisten Anforderungen der Unternehmen abdecken. Bei der Umsetzung bzw. Einsetzung derartiger Lösungen müssen deutsche Unternehmen jedoch noch einen Schritt zulegen. Dort, wo die Modernisierung bereits in Gange ist, fahren die Unternehmen mehrgleisig: Der Einführung moderner Technologien wie konvergenten und hyperkonvergenten Lösungen, Software Defined Infrastructures und Container steht die verstärkte Nutzung von Cloud Services und Provider-Diensten gegenüber.

Insgesamt sieht IDC jedoch einen deutlichen Modernisierungsstau, was dazu führt, dass die digitale Transformation bei vielen Unternehmen nur stockend voran geht: Über 70 Prozent der befragten Firmen haben hier Nachholbedarf. Wer jetzt nicht seine starren IT-Ressourcen flexibilisiert, wird wohl in nicht allzu ferner Zukunft einen sicheren und reibungslosen IT-Betrieb in zunehmend offenen und heterogenen geschäftlichen Ökosystemen nicht mehr gewährleisten können.

Der Beitrag Digitalisierung und moderne IT-Infrastrukturen: Da geht noch was! erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Der Arbeitsplatz von morgen am historischen Wendepunkt

16. November 2017 Posted by Diana Jensen

Arbeitsplatz der Zukunft Banner

Der „Arbeitsplatz der Zukunft“ in Zahlen

„Durch Arbeiten lernt man arbeiten.“ Friedrich Wilhelm der Große (1620 – 1688)

Der Arbeitsplatz von morgen ist ein Thema, das uns alle bereits seit einiger Zeit beschäftigt und uns wohl auch noch etliche Jahre begleiten wird. Von überall aus auf sämtliche Informationen zugreifen, flexible Arbeitszeiten, die Vereinbarkeit von Beruf und Freizeit – all das sind Schlagworte, die uns immer wieder unterkommen, wenn wir an den Arbeitsplatz der Zukunft denken.

Dabei gibt es nicht einmal eine feste Definition, was der „Arbeitsplatz der Zukunft“ eigentlich ist. Stattdessen wird für jede Position und Rolle eine individuelle Lösung gesucht, die sich effizient bereitstellen und steuern lässt. Dem einen reicht eine Software, der andere braucht eine umfassende Vision. Fakt ist: Die digitale Transformation beschleunigt das Thema. Organisationen, Technologien und Kulturen verändern sich gewaltig. Unternehmen und Arbeitnehmer stehen gleichermaßen vor komplexen und vielfältigen Anforderungen, die bei der Schaffung zukunftsfähiger Arbeitsplätze berücksichtigt werden müssen.

Arbeitsplatz von morgen Welche Herausforderungen das sind und wie Lösungsansätze aussehen können, dazu hat das Telekommunikationsunternehmen sipgate gemeinsam mit dem Umfrageinstitut IDG Research Services und weiteren Unternehmen die Studie „Arbeitsplatz der Zukunft” entwickelt. Befragt wurden 1.500 Unternehmen und Mitarbeiter zu ihren Vorstellungen über den Arbeitsplatz der Zukunft. Im heutigen Blogartikel haben wir Ihnen die – unserer Meinung nach – wichtigsten Ergebnisse des 76 Seiten umfassenden Papiers zusammengefasst.

Die Herausforderungen

Arbeitsplatz von morgen Der Arbeitsplatz von morgen wird als eine der wichtigsten Herausforderungen wahrgenommen. Er rangiert gleich hinter dem Dauerbrenner IT-Sicherheit und vor den klassischen Aufgaben Personal, Produktion und Vertrieb. Der Abstand zu Hype-Themen wie Analytics, Internet of Things und Industrie 4.0 ist überraschend groß.

Dabei steht und fällt nach Einschätzung von mehr als der Hälfte der befragten Unternehmen (52 Prozent) der Arbeitsplatz der Zukunft mit der IT-Infrastruktur. Die technologischen Herausforderungen, die sich daraus ergeben, sind vor allem die Sicherheit der Daten (51 Prozent), Security (47 Prozent) sowie die Betriebssicherheit (39 Prozent).

Der Status Quo

Auf dem Weg zum Arbeitsplatz der Zukunft sehen sich 20 Prozent der befragten Firmen als Vorreiter. 40 Prozent sehen ihre Entwicklung bereits weit fortgeschritten – der Rest steckt nach eigenen Angaben noch in den Kinderschuhen. Als Grund geben sie übergreifende Faktoren an: keine Strategie, keine passende Organisation und vor allem keine Priorität. Immerhin: 36 Prozent der befragten Unternehmen haben eine unternehmensweite Strategie zur Umsetzung neuer Arbeitsplatz- und Mobilitätskonzepte.

Die Investitionen in den Arbeitsplatz von morgen

In diesem Zusammenhang wollten insgesamt rund 80 Prozent der befragten Unternehmen in den kommenden zwölf Monaten in ihre Infrastruktur investieren, um flexibleres und mobileres Arbeiten zu ermöglichen. Ein Drittel von ihnen plant Investitionen für die gesamte Organisation, knappe 50 Prozent für einige Unternehmensbereiche. Lediglich 15 Prozent der Unternehmen wollen nicht in die Infrastruktur für den Arbeitsplatz von morgen investieren.

Verschiedene Sichtweisen

Arbeitsplatz von morgen 57 Prozent der befragten Unternehmen assoziieren mit dem Wandel in erster Linie Mobilität und Technologie. Das „Überdenken“ von Arbeitszeiten und Arbeitsorten folgt bei ihnen an zweiter Stelle (47,7 Prozent). Getrieben wird dies einerseits durch den Wunsch vieler Mitarbeiter nach Flexibilität, andererseits aber auch durch die Notwendigkeit zur Integration räumlich getrennter und nach Bedarf zusammengestellter Teams. Automatisierung, Robotics und Künstliche Intelligenz spielen mit rund 28 Prozent der Nennungen nur eine untergeordnete Rolle beim Stichwort „Arbeitsplatz der Zukunft“.

Mitarbeiter hingegen beschäftigt vor allem Arbeitszeitmodelle und wo sie in Zukunft arbeiten. Die Begriffe Home, Remote und Mobilität liegen in den Nennungen mit rund 79 und 73 Prozent weit vorne. Erst mit einigem Abstand folgt die verstärkte Nutzung technischer Möglichkeiten. Insbesondere einzelne technische Aspekte wie Devices und Cloud-Nutzung interessiert kaum. Für Mitarbeiter steht der Arbeitsplatz der Zukunft vor allem für Veränderung der Unternehmenskultur sowie neue Formen der Zusammenarbeit.

Mitarbeiter zwischen Wunsch und Wirklichkeit

Arbeitsplatz von morgen Zwei Drittel aller Arbeitnehmer wünschen sich flexible Arbeitszeitmodelle – und den standortunabhängigen Zugriff auf alle Daten. Tendenziell präferieren zwar die jüngeren Menschen flexible Arbeitszeiten für eine bessere Work-Life-Balance. Doch auch bei den über 50-jährigen Mitarbeitern liegt der Punkt unangefochten an der Spitze. Der Dienstwagen schafft hingegen gerade so die Fünf-Prozent-Hürde.

Neben der flexiblen Arbeitszeit dominieren vor allem technische Themen das Spitzenfeld, etwa zum Datenzugriff oder zur Netzwerkanbindung. Jedoch ist nur jeder fünfte Arbeitsplatz so, wie ihn sich die Mitarbeiter vorstellen: Vier von fünf Arbeitnehmer sitzen nach eigener Einschätzung noch nicht an einem Arbeitsplatz der Zukunft. Insbesondere gibt es einen Unterschied zwischen den Einschätzungen der IT und den eigenen Erfahrungen, was Stabilität und Performance der Netzwerkverbindung betrifft.

Kommunikation und Collaboration beim „Arbeitsplatz der Zukunft“

Arbeitsplatz von morgen Die gute Nachricht: Ein Großteil der Firmen, die Mobilität und Flexibilität fördern wollen, hat bereits notwendige Tools im Einsatz. Ob dies jedoch die optimalen Werkzeuge für den Einsatzzweck eines jeden Mitarbeiters sind, steht auf einem anderen Blatt.

Platz 1 der aktuell verwendeten Tools für die Zusammenarbeit belegt die gute alte Telefonkonferenz. Auch Workgroup-Lösungen sind etabliert. Video- und Web-Konferenzen bekommen ebenfalls hohe Werte beim Einsatz. Den größten Bedarf sehen Unternehmen bei den Punkten „Self Help“ und „Collaborative Reviewing“. Zum einen sollen die Mitarbeiter in die Lage versetzt werden, den grundlegenden Support selbst zu leisten – etwa abends oder unterwegs. Zum anderen geht es um die gemeinsame, gegebenenfalls auch zeitgleiche Arbeit an Business-Dokumenten, was über das reguläre Filesharing hinausgeht.

Klarer Sieger beim Bedarf in der Belegschaft ist das Online-Projektmanagement. Mit steigender Mitarbeiterzahl und IT-Budget der Organisation, wächst auch die Nachfrage nach derartigen Tools. Self Help ist unter Mitarbeitern ebenfalls gefragt – wohl um Probleme ohne den offiziellen Support lösen zu können. Interessant: Selbst Wikis „wären nützlich“. Dabei sind die in relativ vielen Organisationen bereits im Einsatz. Möglicherweise besteht hier also ein Optimierungsbedarf von Wikis der ersten Generation.

Risiken und Nebenwirkungen

Arbeitsplatz von morgen Viele Chancen, viele Hoffnungen – bei so viel Licht müssen wir auch über den Schatten sprechen: Welche Ängste haben Unternehmen und Mitarbeiter? Überraschenderweise sind die ersten drei Plätze in der Bewertung von Unternehmen und Mitarbeitern deckungsgleich. Sowohl bei Unternehmen als auch bei Arbeitnehmern liegt die Befürchtung, dass die Abhängigkeit von IT und Internetverbindung zunimmt, auf Rang 1. Während also die Angst überwiegt, phasenweise nicht mehr über das Internet arbeiten zu können, also offline und damit unproduktiv zu sein, wird gleichzeitig auf das Risiko der permanenten Verfügbarkeit als Erwartungshaltung der „Kunden“ verwiesen. Das wiederum bedeutet nichts anderes, als dass Beschäftigte den Arbeitsplatz der Zukunft nur dann als positiv empfinden, wenn sie sich auf die Connectivity verlassen können.

Ebenfalls große Sorge bereitet Mitarbeitern der anstehende Wandel der Arbeitszeitmodelle. Wünschen sie sich einerseits – wie oben erwähnt – flexiblere Arbeitszeiten, so stehen Befürchtungen im Raum, dass der Einzelne weniger Freizeit haben wird (Stichwort: mehr Selbstausbeutung) und Unternehmen Festanstellungen scheuen werden, um so das unternehmerische Risiko zu verlagern. Hinzu kommt die höhere Transparenz der eigenen Leistung durch neue Technologien.

Reichlich Potenzial: Einbeziehung von Beschäftigten

Arbeitsplatz von morgen Als wichtigstes Erfolgskriterium für die Transformation zum Arbeitsplatz der Zukunft gilt die frühzeitige und umfassende Einbeziehung der Mitarbeiter. Bei den Antworten von Unternehmen und Belegschaft zeigt sich, dass es an dieser Stelle noch viel Verbesserungspotenzial gibt. Nur ein knappes Drittel der Unternehmen (31 Prozent) informiert seine Arbeitnehmer regelmäßig über den Prozess der Transformation. Aber gerade, um Befürchtungen der Mitarbeiter bezüglich drohender Risiken aufzugreifen, ist eine umfassende Kommunikation notwendig.

Die Führungskraft von morgen

Abschließend noch ein Blick auf die Führungskraft von morgen. Nach Ansicht von 80 Prozent der für die Studie befragten Mitarbeiter sollen moderne Führungskräfte vor allem kommunikativ sein. Für 71 und 69 Prozent stehen Skills wie Teamentwicklung sowie Mitarbeiterorientierung ebenfalls ganz oben auf der Wunschliste. Hingegen landen Change-Management-Skills mit 36 Prozent und Kundenorientierung mit 35 Prozent als Kriterien für Führungskräfte im hinteren Drittel. Angesichts des anstehenden Wandels infolge der digitalen Transformation, durch die der Kunde in den Mittelpunkt rücken soll, sind die Werte überraschend niedrig.

Der moderne Arbeitsplatz der Zukunft

LesetippBereits 2015 veröffentlichten wir in unserem Blog einen Artikel über die Veränderung der Arbeitswelt durch Digitalisierung und Mobilität. Sieben Trends ließen sich erkennen, die wir Ihnen vorstellten. Diese können sie hier noch einmal lesen. Entscheiden Sie selbst, ob und aus welchen Trends bereits Realität geworden ist.

Der Beitrag Der Arbeitsplatz von morgen am historischen Wendepunkt erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Weltweit angelegte Ponemon-Studie: Die Kosten der Datenpannen 2017

13. Oktober 2017 Posted by Robert Becker

Banner Ponemon Studie

Auf dem richtigen Weg: In Deutschland sinken die Kosten der Datenpannen 2017

Jeder verlorene Datensatz kostet ca. 150 Euro

Erfreuliche Nachrichten kamen unlängst von IBM: Die Kosten der Datenpannen sind im Jahr 2017 global gesehen um zehn Prozent auf 3,62 Millionen Dollar zurückgegangen. In Deutschland sanken die Kosten dabei auf 3,42 Millionen Euro. Das entspricht einem Rückgang von 5,4 Prozent im Vergleich zum Vorjahr. Pro verlorenem Datensatz mussten durchschnittlich 149 Euro investiert werden, was einem Kostenrückgang um 3,3 Prozent entspricht.

Das geht aus der von IBM gesponserten „Cost of Data Breach“-Studie 2017 des Ponemon Instituts hervor. Die jährliche Studie untersucht die direkten und indirekten Kosten, die Unternehmen bei der Reaktion auf Datenpannen entstehen und gibt ein umfassendes Bild zu Kosten von Datenpannen ab. Im heutigen Artikel fassen wir die wichtigsten Ergebnisse zusammen. An der Studie haben 419 Unternehmen aus elf Ländern und zwei Regionen, darunter auch 35 deutsche, teilgenommen.

Ein europäisches Phänomen

Kosten der Datenpannen Nicht nur in Deutschland, in ganz Europa sanken in diesem Jahr die Gesamtkosten bei erfolgreichen Cyberattacken um 26 Prozent. Deutlich sinkende Kosten im Fall einer Datenpanne konnten vor allem auch Frankreich, Italien und Großbritannien verzeichnen.

EU-DSGVO zeigt bereits Wirkung

Begründet liegt der Rückgang in verbesserten technischen und organisatorischen Maßnahmen der Unternehmen: Die durchgängige Datenverschlüsselung, Mitarbeiterschulungen und der Einsatz von sogenannten Incident Response-Teams, also Notfallteams, deren Aufgabe in der schnellen und effizienten Analyse und Reaktion bei Sicherheitsvorfällen liegt, haben die Kosten bei Datenlecks reduziert.

Kosten der Datenpannen IBM Security sieht in dem europaweiten Kostenrückgang vor allem einen Zusammenhang zwischen der Reaktion auf Regulierungsvorschriften in Europa und den Gesamtkosten von Datenpannen. Europäische Unternehmen unterliegen strengen Meldevorschriften, was Datenpannen betrifft. Die bisher in Europa geltenden Datenschutzgesetze gehen zurück auf die EU-Datenschutzrichtlinie aus dem Jahr 1995 (Richtlinie 95/46/EG). Diese wird mit Anwendung der Europäischen Datenschutzgrundverordnung (DSGVO) im Jahr 2018 abgelöst. Unternehmen aller Größen und Branchen, die in der EU ansässig sind oder personenbezogene Daten von EU-Bürgern verarbeiten, müssen sich an die gleichen strengen Vorschriften halten. Um den neuen Anforderungen gerecht zu werden, haben viele Unternehmen bereits mit der Umsetzung technischer und organisatorischen Maßnahmen entlang dem gesetzlich vorgeschrieben „Stand der Technik“ begonnen. „Es ist erkennbar, dass die neue Datenschutzgrundverordnung europäische Unternehmen zum Handeln anhält“, sagt Christian Nern, Head of Security Software DACH bei IBM Deutschland.

Kosten der Datenpannen in den USA doppelt so hoch wie in Deutschland

Kosten der Datenpannen Schaut man sich allerdings Länder außerhalb Europas an, zeigt sich ein gänzlich anderes Bild. Zu den Verlierern gehören laut Studie ganz klar die USA, der Mittlere Osten, Japan, Südafrika und Indien. Hier mussten Unternehmen und Organisationen bei Datenlecks steigende Kosten verzeichnen. Am teuersten sind Datenpannen in den USA: Jeder verlorene Datensatz kostete amerikanische Unternehmen 225 Dollar, die Gesamtkosten lagen mit durchschnittlich 7,35 Millionen Dollar mehr als doppelt so hoch wie in Deutschland. Das entspricht einem Anstieg der Kosten im Vergleich zum Vorjahr um fünf Prozent.

Während in Europa bald ein einheitlicher Schutz von EU-Bürgern bei der Verarbeitung personenbezogener Daten, unabhängig von Staatsangehörigkeit oder Aufenthaltsort, verpflichtend gilt, haben in den USA beispielsweise 48 von 50 Staaten eigene Datenpannengesetze verabschiedet. Folglich müssen US-amerikanische Unternehmen im Gegensatz zu europäischen eine Vielzahl von Vorschriften beachten und sich darauf vorbereiten. Dies kann laut Studie große Kosten verursachen und wertvolle Ressourcen verschlingen.

Gesundheitssektor hat die höchsten Kosten der Datenpannen

Kosten der Datenpannen Schon zum siebten Mal in Folge führt der Gesundheitssektor die Rangliste der Branchen mit den teuersten Datenpannen an. Der Diebstahl von Gesundheitsdaten kostet laut Studie 380 Dollar pro Datensatz. Das sind 2,5-mal so viel wie im globalen Branchendurchschnitt von 141 Dollar pro Datensatz! Auf den Rängen zwei und drei folgen der Finanzsektor mit 245 Dollar und der Dienstleistungssektor mit 223 Dollar. Die niedrigsten Kosten je verlorenen oder gestohlenen Datensatz weisen übrigens die Sektoren Forschung mit 101 Dollar und der öffentliche Sektor mit 71 Dollar aus.

Die meisten Datenverletzungen gehen auf das Konto von Hackern und kriminellen Insidern

Kosten der Datenpannen Fast die Hälfte aller Studienteilnehmer (47 Prozent) gaben als Hauptursache für Datenpannen bösartige oder kriminelle Angriffe an. Die durchschnittlichen Kosten je entwendetem Datensatz beliefen sich hierbei auf etwa 156 Dollar. Im Gegensatz dazu haben Systemfehler und menschliches Fehlverhalten beziehungsweise Fahrlässigkeit nur zu Kosten von 128 Dollar und 126 Dollar je entwendetem oder verlorenem Datensatz geführt.

Auf das Konto von Hackern und kriminellen Insidern gehen Datenpannen insbesondere in den USA und in den Ländern des Mittleren Ostens. Während dort 52 und 59 Prozent der Datenverluste auf böswillige Angriffe zurückzuführen sind, sind in Italien und Südafrika nur jeweils 40 Prozent derartiger Attacken Grund für Datenpannen. Allerdings gehen in italienischen Unternehmen – neben asiatischen – vergleichsweise die meisten Datenverluste auf menschliches Fehlverhalten zurück (36 Prozent). Deutsche und indische Organisationen waren dagegen mit 34 Prozent am ehesten von Datenpannen durch Systemfehler oder Fehlern in digitalen Geschäftsprozessen betroffen.

Zeit ist Geld

Kosten der Datenpannen Je schneller Cyberattacken eingedämmt werden können, desto besser. Denn die Geschwindigkeit hat direkten Einfluss auf die Kosten der Datenpannen. Laut Studie waren die Kosten bei Unternehmen, die Datenpannen innerhalb eines Monats beheben konnten, um eine Million US-Dollar niedriger als bei Unternehmen, deren Datenpanne länger als einen Monat andauerte.

Sobald im Mai 2018 die EU-DSGVO in Kraft tritt, wird die Reaktionsgeschwindigkeit noch einmal zulegen: Dann müssen Unternehmen, die in Europa ihre Geschäfte machen, Datenpannen binnen 72 Stunden melden, wollen sie keine Strafen zahlen. Und die Bußgelder sind hoch: Bis zu vier Prozent des weltweiten Jahresumsatzes oder 20 Millionen Euro – je nachdem, was höher ist – werden bei Zuwiderhandlung fällig. Der Status Quo sieht bei den meisten Unternehmen allerdings noch nicht gut aus: Im Schnitt benötigen Unternehmen noch mehr als sechs Monate, um Datenpannen zu entdecken. Um diese zu beheben, brauchen sie dann noch einmal weitere 66 Tage – hier heißt es also unbedingt Fahrt aufnehmen.

Reduzierung der Kosten durch technische und organisatorische Maßnahmen

Kosten der Datenpannen Die Schnelligkeit, mit der eine Cyberattacke identifiziert und eingedämmt werden kann, hängt dabei zu großen Teilen von der Nutzung eines Incident-Response-Teams (IR-Teams) und einem Incident-Response-Notfallplan ab. Diese IT-Fachleute können Unternehmen bei komplizierten Cyberattacken unterstützen und so weiteren Verlusten vorbeugen. Und dass sie ihr Geld wert sind, zeigen die Zahlen: Wie aus der Studie hervorgeht, kann der Einsatz von IR-Teams die Kosten von Datenpannen deutlich reduzieren: Bis zu 19 Dollar pro entwendetem Datensatz lassen sich so sparen. Aber auch eine durchgängige Verschlüsselung aller Daten führte laut Studie zu einer Reduktion um 16 Dollar pro Datensatz und die Schulung von Mitarbeitern brachte eine Ersparnis von 12,50 Euro pro Datensatz ein.

Die DSGVO kommt. Sind Sie vorbereitet?

LesetippDer Countdown läuft – die neue DSGVO kommt. Ab Mai 2018 gibt es keine Ausreden mehr, wenn die neuen EU-Datenschutzanforderungen in den Unternehmen nicht umgesetzt wurden. Aufsichtbehörden prüfen dies rigoros und bei Nichteinhaltung drohen empfindliche Geldstrafen. Wie Sie sich konsequent auf die neue Gesetzgebung vorbereiten, erfahren Sie in diesem Artikel.

Der Beitrag Weltweit angelegte Ponemon-Studie: Die Kosten der Datenpannen 2017 erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Unternehmensstrukturen bremsen Digitalisierung

28. September 2017 Posted by Diana Jensen

Capgemini Banner

Capgemini-Studie: Digitalisierung läuft – aber nicht auf Hochtouren

Überfordert Digitalisierung etablierte Unternehmensstrukturen?

Flatscreen, 3D-Erlebniskino, Navigationsgerät oder Emoji: Längst hat die Digitalisierung unseren Alltag erfasst. Auch die gesamte Wirtschaft ist von der digitalen Transformation betroffen und nach und nach verändern sich die Geschäftsmodelle ganzer Branchen zum Teil dramatisch: myTaxi macht mit einer komfortablen App Taxizentralen echte Konkurrenz, das E-Book ermöglicht neue Geschäftsmodelle wie eine Leseflatrate, telefonieren über das Internet (VoIP) mausert sich zum Telefon-Standard im Festnetz und in der Industrie übernehmen Maschinen immer komplexere Aufgaben.

Top Trend Digitalisierung

Dass die Digitalisierung die Geschäftsmodelle ihrer Branchen beeinflusst und tiefgreifende Veränderungen mit sich bringt, davon sind inzwischen auch 82 Prozent aller CIOs überzeugt. Und dass da kein Unternehmen das Nachsehen haben will, weil es nicht rechtzeitig reagiert hat, ist verständlich: Dreiviertel aller CIOs haben den Auftrag, die Digitalisierung in ihrem Unternehmen weiter voranzutreiben. Damit bildet der Ausbau der Digitalisierung die wichtigste Anforderung der Geschäftsleitungen an die IT – noch weit vor deren Effizienzsteigerung, Kostensenkung sowie Erhöhung der Datensicherheit.

Um ihren Auftrag zu erfüllen, reagieren CIOs mit der Einstellung von entsprechendem Fachpersonal und engagieren Beratungsunternehmen. Technologisch steht die verbesserte Vernetzung von Daten und der Ausbau der Datenanalyse im Mittelpunkt. Und auch die Entwicklung neuer Produkte und Services sowie den Ausbau der Cloud-Kapazitäten nimmt einen hohen Stellenwert ein. Doch während die Digitalisierung auf Hochtouren läuft, bleiben strukturelle und organisatorische Veränderungen in den Unternehmen aus.

Digitalisierung

So lauten die Ergebnisse der „Studie IT-Trends 2017“ des Analystenhauses Capgemini. Das Unternehmen wollte von 148 Entscheidungsträgern aus deutschen, österreichischen und schweizerischen Unternehmen wissen, wie sie auf die Digitalisierung reagieren, wie sie sich aufstellen und vor welchen Herausforderungen sie stehen. Wir stellen Ihnen im heutigen Blogartikel einige wichtige Studienergebnisse vor.

Unternehmensstrukturen behindern Digitalisierung

Digitalisierung Die zunehmende Digitalisierung bereitet immer mehr Probleme. Inzwischen klagen fast 73 Prozent der CIOs über Schwierigkeiten – 13 Prozent mehr als noch im Vorjahr. Das Hauptproblem bildet der Mangel an qualifiziertem Personal, insbesondere in den Bereichen Internet of Things (IoT) Technologien und Big Data. Hinzu kommen unflexible Geschäftsprozesse und organisatorische Hürden: Starre Organisationsstrukturen, mangelnde übergreifende Planung und unklare Verantwortlichkeiten bereiten laut Studie offensichtlich große Probleme. Ein Management, das der Digitalisierung zu wenig Aufmerksamkeit schenkt und deshalb nicht genügend unterstützt, ist dabei genauso wenig förderlich wie traditionelle Abteilungsstrukturen, althergebrachtes Hierarchiedenken und traditionelle Aufgabenverteilung, die allesamt agiles Zusammenarbeiten ausbremsen.

Welche Maßnahmen CIOs angesichts der Digitalisierung tatsächlich ergreifen, hängt stark von ihrer Bedeutung für das Unternehmen ab. Vereinfacht lässt sich dabei sagen: Ist die Relevanz der Digitalisierung für das Unternehmen hoch, richtet sich ein Unternehmen konsequenter auf die neue Situation aus und schreckt auch vor tiefgreifenden organisatorischen Änderungen nicht zurück. Typisch ist dann auch die enge Zusammenarbeit von IT- und Fachabteilungen.

Agile Kultur bereitet Probleme

Digitalisierung Trotz Digitalisierung ist der Einsatz agiler Methoden von der Entwicklung über den Betrieb, den Support und das Projektmanagement in den vergangenen Monaten weitgehend stabil geblieben und hat sich 2017 nur leicht um 0,9 Prozentpunkte im Vergleich zum Vorjahr auf 24,2 Prozent erhöht. Das ist entgegen den Erwartungen der meisten CIOs aus dem Vorjahr – sie hatten damit gerechnet, dass agile Methoden häufiger eingesetzt werden.

Die Studiendaten zeigen, dass die Nutzungsquote mit der Größe des Unternehmens zu tun hat: Je höher der Umsatz, desto häufiger arbeiten Firmen agil. KMUs nutzen agile Methoden hingegen am wenigsten. Auffällig ist auch, dass Organisationen aus Branchen, die ihre Wertschöpfungskette bereits in weiten Teilen digitalisiert haben oder sich zunehmend über ihre Schnittstelle zum Kunden differenzieren müssen, häufiger als andere Unternehmen agile Methoden einsetzen. Dazu zählen insbesondere Finanzdienstleister, Versicherungen und die Logistikbranche.

Die Gründe für die insgesamt schleppende Adaption sind laut Capgemini in Schwierigkeiten mit der agilen Arbeitsweise zu suchen: Viele Unternehmen können agile Methoden entweder nicht in ihr (veraltetes) Organisationsmodell integrieren oder aber ihre Mitarbeiter nehmen sie nicht an. Viele CIOs klagen zudem aber auch über Fachkräftemangel in diesem Bereich: 72 Prozent der Befragten haben Schwierigkeiten, Mitarbeiter mit Know-how und Erfahrung mit agilen Entwicklungsmethoden zu finden. All diese Probleme verzögern schließlich auch die Verkürzung von Release-Zyklen im Unternehmen: Die meisten Studienteilnehmer (33,3 Prozent) aktualisieren ihre Individualanwendungen lediglich ein- bis dreimal jährlich. Die Mehrheit unter ihnen (53,1 Prozent) strebt jedoch ein Update pro Monat oder pro Woche an.

Konsolidierung von Big Data-Anwendungen

Digitalisierung Bei den wichtigsten Anforderungen an CIOs in diesem Jahr schaffte es die Verbesserung der Informationsauswertung und -nutzung lediglich auf Rang 5. Und tatsächlich betreiben 2017 nur noch 18,3 Prozent der Unternehmen im deutschsprachigen Raum eine oder mehrere eigene Big Data-Anwendungen. Das ist deutlich weniger als noch 2016 (23,9 Prozent). Allerdings haben laut Capgemini-Erhebung einige Unternehmen das Thema nach Workshops oder der Implementierung von Pilotanwendungen nicht weiter verfolgt oder entschieden, die Leistungen von Providern zu nutzen.

In welcher Phase sich ein Unternehmen übrigens befindet, hängt stark von der Branche ab: Während Automobildienstleister verstärkt Big Data-Anwendungen in Betrieb nehmen, kommt es bei Finanzdienstleistern sogar bereits zur Konsolidierung der verschiedenen Anwendungen. So oder so: Bei der Umsetzung von Big Data holen sich fast alle Anwender (83,5 Prozent) branchenübergreifend Hilfe von außen. Projekte werden meist mit externen Dienstleistern aufgesetzt, jedes 10. Unternehmen führt diese dann aber in Eigenregie weiter. Das Ziel: Die Datenanalyse sowie fachliche und Architektur-Gestaltung sollen im eigenen Unternehmen verbleiben, während der eigentliche Betrieb von Big Data-Lösungen ausgelagert wird.

Nutzung von Big Data Analytics ist branchenabhängig

Digitalisierung Big Data Analytics nutzen Unternehmen in erster Linie, um die Effizienz zu erhöhen. Die weitere Nutzung hängt stark von der Branche ab: Während beispielsweise von den Energieversorgern mehr als die Hälfte in ihren Daten nach neuen Einnahmequellen sucht, ist es nur knapp jedes fünfte Handelsunternehmen. Sie nutzen Big Data stattdessen, um neue Erkenntnisse über ihre Kunden zu gewinnen oder um ihre Verkaufsstrategie zu verbessern. Die Automobilindustrie hingegen konzentriert sich mehr auf Effizienzsteigerung als auf das Einkaufs- und Serviceerlebnis ihrer Kunden.

Steigende Cloud-Nutzung

Parallel zur gestiegenen Big Data-Nutzung hat auch die Cloud-Nutzung zugenommen. 2017 kommen mehr IT-Leistungen aus der Cloud als im Vorjahr und insbesondere Großkonzerne sowie der Mittelstand haben die Cloud-Nutzung stark ausgebaut. Dabei stellen Drittanbieter mit 10,2 Prozent aller IT-Services nur einen geringen Anteil der Gesamtleistung bereit. Die unternehmenseigene Cloud ist mit einem Anteil von 36,6 Prozent deutlich beliebter. Dass Cloud-Anbieter in der Nutzergunst dennoch knapp 4 Prozentpunkte zugelegt haben, dürfte der Tatsache geschuldet sein, dass die Rechenzentren der meisten Provider mittlerweile in Deutschland stehen und sich die Provider damit auch an das Bundesdatenschutzgesetz halten.

Unternehmen setzen auf die eigene Cloud

Digitalisierung Apropos Sicherheit: Die Angst vor Zugriffen durch ausländische Behörden bestärkt Unternehmen darin, eine eigene Infrastruktur aufzusetzen. Bezüglich der technischen Sicherheit halten die meisten Befragten dann doch die private Anbieter-Cloud für die bessere Variante. Abgesehen vom Schutz vor dem Datenzugriff durch ausländische Behörden, bauen Unternehmen auch deshalb eigene Cloud-Infrastrukturen auf, um die Kontrolle über die Services in der eigenen IT-Abteilung zu behalten und die vorhandenen eigenen personellen wie infrastrukturtechnischen Ressourcen optimal zu nutzen. Wenngleich für 67,5 Prozent der Befragten der Sicherheitsaspekt der Hauptgrund für den Betrieb einer eigenen Cloud ist, wird er im Vergleich zum Vorjahr nicht mehr ganz so kritisch gesehen. Stattdessen ist in diesem Jahr das Kontrollbedürfnis um 10 Prozentpunkte auf 49,4 Prozent deutlich gestiegen. Capgemini vermutet hinter dieser Entwicklung die zunehmende Komplexität und gestiegene Anzahl von Datenquellen und Kommunikationskanälen, die in der Cloud zusammenfließen. Damit einher geht wohl auch das gestiegenes Bedürfnis nach Unabhängigkeit von externen Anbietern (2017: 39 Prozent, 2016: 23,2 Prozent) und der Möglichkeit, Leistungen individuell gestalten zu können (2017: 42,9 Prozent, 2016: 30,4 Prozent).

Digitalisierung Derzeit überwiegt die Anzahl der Unternehmen, die Cloud-Infrastrukturen eher für neue Applikationen (37,9 Prozent) anstatt für vorhandene (22,7 Prozent) nutzen. Mit zunehmender Verjüngung der Anwendungslandschaften geht Capgemini davon aus, dass die Anzahl der Portierungen zunehmen wird. Mit unserem GBS AppDesigner haben wir beispielsweise ein Werkzeug entwickelt, mit dem Unternehmen in wenigen Schritten sowohl neue, Workflow-basierte Geschäftsanwendungen modellieren als auch ihre vorhandenen Anwendungen fit für das nächste Jahrzehnt machen und moderne Web-Anwendungen erstellen. Dabei fühlt sich der GBS AppDesigner sowohl in der Microsoft- als auch der IBM-Welt zu Hause: In SharePoint und Office 365, in IBM Connections, im Webbrowser oder unter IBM Domino. Zudem beherrscht unser AppDesigner das Zusammenspiel mit Cloud-Plattformen, wie Microsoft Azure.

Fazit

Digitalisierung Der Auftrag ist klar: Die Digitalisierung muss weiter vorangetrieben werden. Technisch haben Unternehmen damit viel weniger Schwierigkeiten, als organisatorisch und strukturell: CIOs verändern ihre IT-Organisation nur oberflächlich und schrecken vor tiefgreifenden Maßnahmen, wie dem Aufbau einer Innovationsabteilung, der Abflachung der Hierarchie und dem Austausch von Führungskräften, zurück. Traditionelle Abteilungsstrukturen und Aufgabenverteilung werden jedoch dem Tempo nicht gerecht und bremsen agiles Zusammenarbeiten aus.

Sicherheitsrisiken vermeiden in Zeiten der Digitalisierung

LesetippOhne Sicherheitsstrategien kann jedes Unternehmen Opfer von Hackern und Datendieben werden. Nicht nur Kundendaten wecken Begehrlichkeiten, sondern oft auch Finanz- und Personaldaten, Strategiepapiere, Patente oder Verträge aller Art. Und manchmal ist es einfach nur das Ziel, möglichst großen Schaden anzurichten. Die Folgen solcher Angriffe reichen von kleineren Krisen über Systemstörungen bis hin zur Insolvenz. Deshalb heißt das Hauptcredo dieser Tage: Sicherheitsrisiken durch Digitalisierung vermeiden! Es gilt eine Balance zu finden zwischen totaler Abschottung sensibler Daten, der Nutzerfreundlichkeit sowie der Wirtschaftlichkeit von IT-Systemen. Im Blogartikel erfahren Sie mehr darüber.

Der Beitrag Unternehmensstrukturen bremsen Digitalisierung erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Kein Ende in Sicht: Internetkriminalität wächst

30. August 2017 Posted by Robert Becker

BKA veröffentlicht Bundeslagebild Cybercrime 2016

Bundeslagebild Cybercrime Internetkriminalität ist ein florierendes Geschäft und es wächst rasant. Wie das Bundeskriminalamt (BKA) in seinem kürzlich veröffentlichten Bundeslagebild Cybercrime bekannt gibt, ist die Zahl der Straftaten im Jahr 2016 gegenüber dem Vorjahr um 80,5 Prozent auf fast 83.000 Straftaten gestiegen. Der dabei entstandene Schaden beläuft sich auf über 51 Millionen Euro.

Der größte Teil der Straftaten im Bereich der Computerkriminalität, nämlich 71 Prozent, liegt im Bereich des Computerbetrugs, erst mit weitem Abstand folgt das Ausspähen oder Abfangen von Daten (13 Prozent). Der Diebstahl digitaler Identitäten, Kreditkarten-, E-Commerce- oder Kontodaten (z.B. Phishing) sind typische Delikte in diesem Bereich. 10 Prozent aller Delikte im Cybercrime sind Täuschungen durch Fälschung von Daten, um diese im Rechtsverkehr zu nutzen. Hierunter fällt zum Beispiel die Zusendung von E-Mails unter Vorspiegelung realer Identitäten oder Firmen – oftmals mit als Rechnung getarnter Schadsoftware im Anhang. Das Delikt der Computersabotage, zu dem Denial of Service-Angriffe (DoS-/ DdoS-Angriffe) sowie die Verbreitung und Verwendung von Schadsoftware unterschiedlicher Art gehören, schlägt mit 5 Prozent zu Buche. Mit 1 Prozent gehen die Delikte von missbräuchlicher Nutzung von Telekommunikationsdiensten in die Statistiken ein.

Professionelle Täter agieren über Landesgrenzen hinweg

Im heutigen Beitrag werfen wir einen Blick in das Bundeslagebild Cybercrime und fassen die wichtigsten Ergebnisse und Erkenntnisse zusammen. Sie werden sehen: Die Täter kennen keine nationalen Grenzen, sind sehr gut organisiert und arbeiten hoch professionell. Dabei entwickeln sie ständig neue Tatgelegenheiten und Modi Operandi. Leichter als jemals zuvor können sie Cyberangriffe durchführen – denn wo eigenes Know-how fehlt, kaufen sie Dienstleistungen oder illegale Software einfach am gut organisierten digitalen Schwarzmarkt hinzu.

1. Der digitale Schwarzmarkt

Die Underground Economy boomt

Bundeslagebild Cybercrime Der digitale Schwarzmarkt boomt. Im Clearnet, im Deepweb sowie auch im Darknet finden sich inzwischen unzählige illegale Foren oder Marktplätze, die zum Teil mehr als 100.000 registrierte Mitglieder zählen. Hier kommunizieren Groß- und Kleinkriminelle, tauschen ihr Know-how aus und handeln diverse Dienstleistungen und Software, um ihre kriminellen Straftaten zu begehen. Tatsächlich gibt es hier fast alles: Von illegalen Drogen und Waffen über Falschgeld, gefälschte Ausweise und gestohlene Kreditkartendaten bis hin zu gefälschten Markenartikeln.

Geschäftsmodell Cybercrime-as-a-Service – sogar mit „Kundendienst“

Die digitale Underground Economy hält daneben ein breites Spektrum von Dienstleistungen zur Durchführung jeder Art von Cybercrime bereit. Das Angebot umfasst unter anderem Ransomware, die Bereitstellung von Botnetzen die Durchführung von DDoS-Attacken, die Herstellung und Verbreitung von Malware, der Verkauf sensibler Daten wie zum Beispiel Zugangs- oder Zahlungsdaten, die Verteilung von Schadsoftware, Anonymisierungs- und Hostingdienste zum Verschleiern der eigenen Identität sowie Test-Portale, in denen Cyberkriminelle erworbene oder erstellte Schadsoftware auf Detektierbarkeit durch aktuelle Cyber-Sicherheitsprodukte testen können. Bezahlt wird in Kryptowährung – abgewickelt werden die Transaktionen über Treuhand-Systeme.

Wenn Sie ein Problem mit Ihrer Software haben, rufen Sie den Kundendienst Ihres Herstellers an oder schreiben ihm eine Mail. So ähnlich läuft es auch bei illegalen Angeboten: Mittlerweile, so das BKA, haben die Anbieter illegaler Software und Dienstleistungen sogar schon einen Support eingerichtet, der beispielsweise Updates für Schadsoftware bereitstellt, Beratungsdienste und Anti-Erkennungsmechanismen anbietet sowie Hilfeleistung bei technischen Problemen gibt. Allein dieser Abriss zeigt, dass Kriminelle nicht einmal mehr technische Kenntnisse benötigen, um sich Zugang zu hochentwickelten, illegalen Cyber-Werkzeugen zu verschaffen, um ihre Cyberangriffe durchzuführen.

2. Die lukrativen Geschäfte

Begehrt: Digitale Identitäten

Bundeslagebild Cybercrime Ganz gleich, ob sie selbst für kriminelle Zwecke zu missbrauchen oder aber um sie im Darknet und Co. zu verkaufen: Digitale Identitäten sind nach wie vor ein beliebtes Diebesgut. Um an die personenbezogenen Daten zu gelangen, setzen die Täter auf unterschiedliche Methoden. So bedienen sie sich beispielsweise der Installation von Schadprogrammen über Drive-By-Exploits, des Phishings, sie brechen auf Server ein und kopieren Anmeldeinformationen oder setzen Keylogger oder Spyware ein. Ziel ist es, an alle Arten von Nutzer-Accounts inklusive Zugangsdaten – zum Beispiel von E-Mail- und Messenger-Diensten, von Banking-Accounts oder auch für den Online-Zugriff auf firmeninterne IT-Systeme – zu gelangen.

Rückläufig: Phishing im Onlinebanking

Bundeslagebild Cybercrime Die häufigste Variante des digitalen Identitätsdiebstahls ist auch 2016 das Phishing im Zusammenhang mit Onlinebanking: 2.175 Vorfälle wurden im letzten Jahr gemeldet. Damit erreicht die Zahl der Fälle den tiefsten Stand seit fünf Jahren! Allein im Vergleich zum Jahr 2015 konnte laut Bundeslagebild Cybercrime des BKA ein Rückgang um ganze 51 Prozent verzeichnet werden. Dennoch ist das Geschäft nach wie vor äußerst lukrativ und damit ein attraktives Betätigungsfeld für die Täter. So betrug die Gesamtschadenssumme stolze 8,7 Millionen Euro für das Jahr 2016 – das sind 4000 Euro je Vorfall. Im Vergleich zu den vergangenen fünf Jahren liegt die Gesamtsumme aber erfreulicherweise deutlich unter dem Durchschnitt von 16.9 Millionen Euro.

Besonders beliebt, um an die notwendigen Kundeninformationen zu gelangen, ist übrigens das Social Engineering, allem voran der Versand von E-Mails in vertrauenserweckender Aufmachung: In E-Mails mit bekanntem Firmen- oder Behördenlogo, fordern die Täter ihre Opfer aus bestimmten Gründen auf, vertrauliche Informationen preiszugeben.

Ransomware liegt im „Trend“: Computersabotage trifft Erpressung

Noch lukrativer als Phishing im Onlinebanking ist offensichtlich ein ganz anderes Geschäftsmodell: Ransomware. 2016 registrierten die deutschen Polizeidienststellen 972 Fälle von Ransomware. Das ist ein Anstieg im Vergleich zum Jahr 2015 von über 94 Prozent! Tatsächlich beobachtet das BSI bereits seit 2015 eine große Spam-Welle, über die massenhaft dieser neuartigen Schadsoftware verbreitet wird: Cyberkriminelle verschicken Ransomware gut getarnt in vermeintlich seriösen E-Mails, um Daten oder ganze Netzwerkkomponenten ihrer Opfer zu verschlüsseln, um für deren Freischaltung ein Lösegeld zu erpressen.

Binnen fünf Monaten – von Oktober 2015 bis Februar 2016 – verzehnfachte sich die Entdeckung von Ransomware durch Virenschutzprogramme. Eine im April 2016 durchgeführte Umfrage des BSI bei deutschen Unternehmen offenbarte, dass 32 Prozent der Befragten in den vorhergegangenen sechs Monaten von Ransomware betroffen waren. Europol spricht in seinem Cybercrime-Lagebericht 2016 sogar davon, dass Ransomware alle anderen Arten von Malware eingeholt habe.

Bundeslagebild Cybercrime

Das Geschäft mit Ransomware boomt, inzwischen hat sich sogar ein richtiger Wettbewerb etabliert: Erfolgreiche Varianten der Schadsoftware werden kopiert und in Foren der Underground Economy verkauft. Mit Hilfe von im Darknet verfügbaren „Malware-Toolkits“ können sich die Täter Ransomware ohne großen Aufwand aber auch selbst zusammenstellen. Damit ist nicht einmal mehr besonderes IT-Fachwissen mehr nötig, um in den digitalen Erpressungshandel einzusteigen. Bei erfolgreicher Lösegeldzahlung erhalten die Anbieter der Toolkit-Dienste eine Umsatzbeteiligung.

Botnetze weiterhin beliebter Angriffsvektor

Eine weitere ganz bedeutende Rolle bei den Angriffsvektoren spielen Botnetze und ihre Kapazitäten. Auch sie waren 2016 lukrative Handelsware in der Underground Economy: Betreiber der Botnetze vermieten Bots, mit denen Dritte, beispielsweise mittels DDoS-Attacken, gezielte Angriffe auf Unternehmensserver durchführen, massenhaft Spam-Mails versenden oder gezielte Datendiebstähle durchführen. Wie viele Rechner in Deutschland oder weltweit zu Botnetzen zusammengeschlossen sind, vermag das BKA zwar nicht zu sagen – die Europäische Agentur für Netz- und Informationssicherheit (ENISA) und EUROPOL gehen jedoch davon aus, dass Deutschland an der Spitze der Staaten, die Command & Control-Server hosten, steht.

Botnetze: Dunkler Angriff durch Zombie-Rechner

LesetippDie Zahl der von Botnetzen infizierten Rechner steigt unaufhörlich. Vom Nutzer unbemerkt, werden sie von Kriminellen für Verbrechen genutzt, wie dem Verschicken von Spam oder Denial-of-Service-Angriffen (DDoS). Lesen Sie in diesem Blog-Beitrag, wie Computer zu ferngesteuerten Robotern werden.

Im Bundeslagebild Cybercrime 2016 konnten wir lesen: Die erfolgreiche Beschlagnahme von 39 Servern und hunderttausenden Domains im Dezember 2016, lässt jedoch ein ungefähres Ausmaß erahnen. Vier Jahre Ermittlungsarbeit von Polizei und anderen Behörden aus 41 Staaten waren dem vorangegangenen, bis das bislang weltweit größte Botnetz aufgedeckt und analysiert werden konnte. Allein in Deutschland wurde dadurch Cyberkriminellen die Kontrolle über mehr als 50.000 infizierte Computer entzogen. Schon dieser Fall zeigt, dass die quantitative wie qualitative Ausgestaltung von kriminellen Infrastrukturen ein immer größeres Ausmaß erreicht!

Häufung von DDoS-Angriffen auf IoT zu erwarten

Im engen Zusammenhang mit Botnetzen stehen DDoS-Angriffe. Sie gehören laut BKA zu den am häufigsten beobachteten Sicherheitsvorfällen im Cyber-Raum und werden oft mithilfe von Botnetzen ausgeführt. Ziel dieser Angriffe ist es, die Verfügbarkeit von Webseiten oder einzelner Dienste zu sabotieren. Denn ist beispielsweise ein Online-Shop über Stunden oder gar Tage nicht erreichbar, zieht dies erhebliche wirtschaftliche Schäden nach sich. Dementsprechend erstrecken sich die Motive der Angreifer von rein monetären Interessen (also Erpressung) über das Erlangen von Wettbewerbsvorteilen bis hin zu ideologischen oder Rache-Motiven.

Erinnern Sie sich an den November 2016, als mitten im US-amerikanischen Wahlkampf hochfrequentierte Webdienste wie Twitter, Spotify und Amazon nicht erreichbar waren? Oder an den 27. November desselben Jahres, als hunderttausende Telekom-Kunden vom Netz abgeschnitten waren, weil deren Router gehackt worden waren? Verantwortlich dafür waren DDoS-Angriffe, die mittels Mirai-Botnetzen begangen wurden. „Mirai“ umfasste etwa 500.000 kompromittierte „Internet of Things“ (IoT)-Geräte weltweit, bis zu drei Millionen Geräte waren in das Botnetz eingebunden.

„Mirai“ nutzte aus, dass Alltagsgegenstände wie Router, Überwachungssysteme, Fernseher oder Kühlschränke mit dem Internet verbunden sind. Die Schadsoftware scannte über das Internet derartige Geräte auf Sicherheitslücken und infizierte sie dann mittels eines Schadcodes. Angesichts der Verbreitung des „Internet of Things“ und der damit einhergehenden immer umfassenderen Vernetzung von Geräten, geht das BKA davon aus, dass sich derartige DDoS-Attacken häufen werden.

3. Die Täter im Visier: Junge Männer, die schnell lernen

Bundeslagebild Cybercrime Abschließend werfen wir noch einen Blick auf das Täterprofil: Das BKA gibt an, dass 2016 knapp 21.000 Tatverdächtige registriert worden seien – davon zu gut zwei Drittel (70 Prozent) Männer. Mehr als die Hälfte (54,2 Prozent) der registrierten Delikte wurde dabei von über 30-Jährigen begangen, wobei die Gruppe der 30 bis 39-jährigen mit 25 Prozent am stärksten vertreten ist. Die Täter kommen dabei überwiegend aus Deutschland oder haben zumindest die deutsche Staatsbürgerschaft. Nur knapp ein Viertel der Tatverdächtigen waren Nichtdeutsche, wobei „keine Nationalität“ überdurchschnittlich stark in Erscheinung trat.

Ganz gleich, ob sie als Einzeltäter oder in international organisierten Gruppen arbeiten: Die Cyberkriminellen begehen die typischen Cybercrime-Delikte – angefangen von Computerbetrug über Angriffe auf das Onlinebanking bis hin zur Verbreitung von Ransomware mit dem Ziel der digitalen Erpressung. Der überwiegende Teil der Angreifer handelte aus finanzieller Motivation.

An Bedeutung gewonnen haben in den vergangenen Jahren organisierte Täterstrukturen. 2016 waren zwar „nur“ 4 Prozent aller Verfahren im Bereich des Cybercrimes angesiedelt, jedoch geht das BKA davon aus, dass die Entwicklung sich fortsetzt und das organisierte Verbrechen im Cybercrime zunimmt. Und noch etwas fällt auf: Die Täter lernen schnell und sind unglaublich flexibel, denn sie passen ihr Verhalten den technischen Entwicklungen an. Einzeltäter oder Tätergruppen, die kriminelle Dienste nicht selbst erbringen können, kaufen sich diese inzwischen einfach hinzu.

Der Beitrag Kein Ende in Sicht: Internetkriminalität wächst erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Manifest IT-Sicherheit identifiziert sechs Problemfelder

17. Juli 2017 Posted by Robert Becker

Manifest IT-Sicherheit Banner

Thesenpapier deckt Defizite auf und formuliert Lösungen

Leitliniendokument mit konkreten Forderungen an die Politik

Im März diesen Jahres übergaben Vertreter des Bundesverbandes der IT-Anwender „VOICE“ und des Bundesverbandes IT-Sicherheit e.V. – TeleTrusT ihr gemeinsam erarbeitetes Manifest zur IT-Sicherheit an die Bundesregierung. Das an die Politik adressierte Leitliniendokument stellt Defizite und Problembereiche im Umfeld der IT-Sicherheit dar. Dabei zeigen die im Manifest formulierten Ziele und Absichten große Übereinstimmung mit der im November 2016 von der Bundesregierung beschlossenen Cyber-Sicherheitsstrategie für Deutschland.

Aber der Reihe nach. Bevor wir uns dem 20-seitigen Papier widmen, rufen wir uns noch einmal besagte Cyber-Sicherheitsstrategie in Erinnerung:

Status quo in Sachen IT-Sicherheit

Mit Fortschreiten der Digitalisierung nimmt die Anzahl und Qualität von Cyber-Attacken kontinuierlich zu. Auffällig dabei ist einerseits der hohe Professionalisierungsgrad der Angriffe: Hochentwickelte Schadprogramme nehmen gezielt nur unzureichend gesicherte IT-Landschaften ins Visier. Andererseits reichen die klassischen Abwehrmaßnahmen aus Antiviren-Programmen oder Zugangssicherung per Passwort und Benutzernamen längst nicht mehr aus.

Um angesichts dieser Tatsachen die Handlungsfähigkeit und Souveränität der Bundesrepublik zu gewährleisten, beschloss die Regierung im November 2016 ihre neue Cyber-Sicherheitsstrategie für Deutschland. Dabei lautet der Grundtenor für die Cyber-Sicherheitspolitik der Bundesregierung: Deutschland muss die Chancen und Potenziale der Digitalisierung voll ausschöpfen können und gleichzeitig auch die damit verbundenen Sicherheitsrisiken beherrschen.

Die Cyber-Sicherheitsstrategie für Deutschland

Cyber-Sicherheitsstrategie Das Strategiepapier wirbt für sicheres, selbstbestimmtes Verhalten der Bürger und stellt sich gegen die „digitale Sorgloskultur“. Staat und Wirtschaft sollen näher zusammenrücken, unterdessen die europäische und internationale Cyber-Sicherheitspolitik noch enger verflochten werden sollen.

Als konkrete Schritte benennt das Papier den Ausbau des nationalen Cyber-Abwehrzentrums (NCAZ), sodass es in Schadensfällen als Krisenzentrum arbeiten kann. Zudem soll der bereits 2011 eingerichtete nationale Cyber-Sicherheitsrat stärker eingebunden werden, um „Handlungsnotwendigkeiten“ zu identifizieren. Ergänzt werden diese Maßnahmen um die Aufstellung von „Mobile Incident Response Teams“ (MIRTs), die im Bundesamt für Sicherheit in der Informationstechnik (BSI) sowie in der Bundeswehr zum Einsatz kommen.

Cyber-Sicherheitsstrategie Noch in diesem Jahr soll ein IT-Gütesiegel, betreut vom BSI, eingeführt werden, das Verbrauchern sichere IT-Produkte anzeigt. So sollen sie „bei der Kaufentscheidung für neue IT-Produkte und bei der Inanspruchnahme entsprechender Dienstleistungen schnell und einfach feststellen können, welche Angebote wie gut zum Schutz der IT und der Daten beitragen“. Außerdem sollen Bürger unter anderem zur Nutzung der Onlineausweisfunktion ihres Personalausweises animiert werden.

Die Bundesregierung ist zu dem Schluss gelangt, dass Sicherheit nach dem klassischen Benutzername-Passwort-Prinzip nicht mehr ausreicht. So soll beispielsweise die Nutzung von Verschlüsselungstechniken gefördert werden: „Die Bundesregierung wird die spezifischen Hemmnisse beim Einsatz von Verschlüsselungslösungen untersuchen und Initiativen zum Abbau dieser Hemmnisse fördern“, heißt es im Strategiepapier. Zudem wird die Regierung die stetige Weiterentwicklung der technischen Fähigkeiten von Strafverfolgungs- und Sicherheitsbehörden parallel zur technischen Entwicklung in Sachen Verschlüsselung forcieren.

Manifest IT-Sicherheit: Thesen und Problembereiche

Zurück zum Manifest IT-Sicherheit: VOICE und TeleTrust haben in ihrem Thesenpapier sechs Problemfelder identifiziert. Dem aber nicht genug. Gemeinsam haben die beiden Verbände daraus sechs Thesen erarbeitet. Konkrete Aufgaben in jeder These skizzieren, wie die jeweilige Herausforderung bewältigt werden könnte.

  • These 1: Sicherheitsprobleme gefährden nachhaltige Digitalisierung

    Die IT-Sicherheitsprobleme werden jedes Jahr größer. Die IT-Architekturen von Endgeräten, Servern und Netzkomponenten sind nicht sicher genug konzipiert, um den Fähigkeiten von intelligenten Hackern standzuhalten. Für ihre erfolgreichen Angriffe machen sich Kriminelle auch die unzureichende Qualität von Software zu Nutze: Sie installieren Malware, stehlen Passwörter und Identitäten und spionieren Endgeräte aus.

  • These 2: Zu wenige sichere und vertrauenswürdige IT-Lösungen

    Manifest IT-Sicherheit Immer komplexer werdende Software und immer kompliziertere Zusammenhänge zwischen Protokollen, Diensten, IT-Geräten und globalen Infrastrukturen vergrößern die Angriffsfläche für Hacks derart, dass sogar „harmlose“ Geräte wie Kaffeemaschinen, Drucker oder Smartwatches als Einfalltore missbraucht werden. Hinzu kommt die Tatsache, dass der IT-Sicherheitsmarkt aus vielen kleinen Anbietern besteht, die nur Nischen abdecken. Da eine „Komplettlösung“ aus einer Hand eines nationalen Herstellers nicht existiert, hat dies zur Folge, dass Anwender für einen umfänglichen Schutz gegen allerhand Bedrohungen Nischenlösungen „übereinander stapeln“ müssen.

  • These 3: Fehlende Transparenz und Vertrauen

    Staatlich motivierte Schwachstellen und Hintertüren in der IT sorgen für weniger Sicherheit und zerstören das Vertrauen in IT-Technologien und IT-Dienste. So werden IT-Produkte häufig bereits als „unsicher“ am Markt platziert und IT-Sicherheitsfeatures meist erst auf Nachfrage oder Druck von Anwendern angeboten beziehungsweise sind erst dann zu- oder abschaltbar. Es mangelt zudem an flächendeckender Verschlüsselung für die Übertragung und Speicherung digitaler Informationen. Hierfür jedoch müssen erst sichere und vertrauenswürdige Verschlüsselungsprodukte geschaffen werden, die einfach zu integrieren und zu nutzen sind.

  • These 4: Unzureichende Umsetzung der Prinzipien Security-by-Design sowie Privacy-by-Design

    Die Qualität und die Prozesse rund um die Entwicklung von quelloffener Software bergen noch großes Verbesserungspotential bezüglich Sicherheit und Vertrauen in die IT. Jedoch wird dieses Verbesserungspotential für sichere und vertrauenswürdigere Software, insbesondere Open Source Software, noch nicht ausreichend gefördert, gefordert und genutzt. Dabei erlauben es Offene Systeme, IT-Architekturen und IT-Produkte, Sicherheit und Vertrauenswürdigkeit bei Bedarf jederzeit zu überprüfen.

  • These 5: Mangelnde Selbständigkeit der europäischen IT-Sicherheitsinfrastruktur

    Europa mangelt es an einer eigenen IT-Sicherheitsinfrastruktur. Diese ist jedoch für eine eigene Souveränität sowie sichere und vertrauenswürdige IT-Lösungen unerlässlich.

  • These 6: Steigende Bedrohung durch Cyber-War

    Cyber-War, Cyber-Sabotage und Cyber-Spionage durch andere Staaten oder terroristische Gruppen auf Kritische Infrastrukturen stellen eine steigende Gefahr für Unternehmen, aber auch die gesamte Gesellschaft, dar.

Manifest IT-Sicherheit: Gemeinsame Aufgabenstellungen

Der Grad an IT-Sicherheit und Vertrauenswürdigkeit ist in Deutschland derzeit nicht ausreichend. Es fehlt an Wissen, Verständnis, Einschätzungskompetenz, Technologien und Vorgehensweisen. Viele IT-Produkte erreichen nicht den nötigen Reifegrad hinsichtlich IT-Sicherheit, um ein grundlegendes Maß an Vertrauenswürdigkeit zu etablieren. Deshalb haben TeleTrust und VOICE Aufgaben zur Lösung der oben genannten Thesen und Problemfelder formuliert.

  • Aufgabe 1: Gemeinsam intolerant gegenüber unsicheren IT-Lösungen!

    Manifest IT-Sicherheit Die Verbände sind sich einig darüber, dass das Sicherheitsniveau eines IT-Produktes klar erkennbar, überprüfbar und mit dem anderer vergleichbar sein muss. Das Aushängeschild „IT Security made in Germany“ für IT-Sicherheit und Daten-schutz hat sich in diesem Zusammenhang zwar bereits erfolgreich etabliert. Kernaufgabe muss es jedoch werden, auch eine IT-Sicherheitssouveränität zu schaffen und zu fördern.

    Ein Großteil erfolgreicher Angriffe erfolgt über veraltete Software. Deshalb müssen die Hersteller in die Pflicht genommen werden Schwachstellen in Hard- und Software zu schließen. Gleichzeitig gilt es, bekannte Konzepte, auf denen die heutige Softwareentwicklung aufsetzt, im Hinblick auf IT-Sicherheitsaspekte zu überprüfen und, wenn notwendig, neu zu entwerfen. Aber damit nicht genug: Auch Anwender müssen die angebotenen Nachbesserungsmöglichkeiten schnellstens annehmen.

  • Zentrales E-Mail-Management mit der iQ.Suite

    LesetippMit der iQ.Suite von GBS umfassendes Lösungspaket zum E-Mail-Management, das alle notwendigen Bausteine auf dem Weg zur E-Mail-Compliance miteinander verbindet. Beginnend beim Viren- und Spamschutz, über Verschlüsselung und Haftungsausschluss bis hin zu rechtssicheren Archivierung decken wir alle Aspekte eines durchgängigen E-Mail-Managements ab.
  • Aufgabe 2: Gemeinsam für wirkungsvolle IT-Sicherheit!

    Manifest IT-Sicherheit Das Thesenpapier betont die notwendige Zusammenarbeit der Verbände mit IT-Marktführern, um eine optimale Integration von IT-Sicherheitslösungen in Hard- und Software umzusetzen und zu überprüfen. Die Einbeziehung von Anwendern ist jedoch nötig, um angemessene, wirkungsvolle, sichere und vertrauenswürdige IT-Lösungen zu schaffen. VOICE und TeleTrust erachten dabei die Erarbeitung und Festlegung einer gemeinsamen IT-Sicherheitsstrategie mit konkreten Zielen, wie der Sicherheit und Vertrauenswürdigkeit in der IT, als notwendig.

  • Aufgabe 3: Gemeinsam digitale Werte sicher verschlüsseln!

    Transparenz und Vertrauen müssen vom Alleinstellungsmerkmal zum Standard-Ausstattungsmerkmal eines IT-Produktes werden – so lautet die grundlegende dritte Aufgabenstellung laut Thesenpapier. Und so soll sie gelöst werden: Verschlüsselung muss nicht nur häufiger aktiv zum Einsatz kommen, sie muss auch einfach in der Bedienung sowie in der Integration werden. Dafür müssen Hersteller und Anwender von Verschlüsselungslösungen enger zusammenarbeiten. Beide Seiten müssen einer staatlich motivierten Schwächung von Kryptografie oder den Wünschen nach Hintertüren gemeinsam eine Absage erteilen. Im gleichen Atemzug ist die konsequente Erstellung und Nutzung von IT-Technologien und -Diensten, die keine staatlich motivierten Schwachstellen und Hintertüren in IT-Lösungen beinhalten, Voraussetzung.

    Zudem fordern beide Verbände eine klare Positionierung der EU-Länder und der EU hinsichtlich des Schutzes der digitalen Werte. Darüber hinaus sollten sie dafür sorgen, dass mehr sichere und vertrauenswürdige IT-Technologien und IT-Dienste entwickelt und genutzt werden.

  • Aufgabe 4: Security-by-Design und Privacy-by-Design Software müssen Anforderungen an Sicherheit erfüllen!

    Security-by-Design und Privacy-by-Design Software vermeiden hohe nachträgliche Sicherheitsassessments, weshalb zukünftige Vorhaben diese Anforderungen erfüllen müssen. Derweil muss Open Source Software bezüglich der IT-Sicherheitsaspekte nachhaltig überprüft werden. Beide Verbände sehen hierfür den gemeinsamen Aufbau eines Fonds als notwendig: Über ihn können finanzielle Mittel für die Verbesserung der Softwarequalität von wichtigen Open Source-Komponenten zur Verfügung gestellt werden. Ziel müsse es sein, sichere und vertrauenswürdige IT-Technologien schnell in die Fläche von wichtigen und zukunftsorientierten Anwendungsbereichen zu bekommen.

  • Aufgabe 5: Ausbau, Sicherung und Förderung des technologischen Stands in Europa!

    Manifest IT-Sicherheit TeleTrust und VOICE fordern die EU auf, kurz- bis mittelfristige Maßnahmen zu ergreifen, um die Souveränität im Bereich IT- Sicherheit für wichtige IT-Infrastrukturen aufzubauen und zu sichern. Hierfür schlagen die Verbände vor, dem Attribut „IT-Sicherheitsinfrastruktur in Europa“ einen besonderen Wert beizumessen. Gleichzeitig sollen Aufsichtsräte und Beiräte deutscher sowie europäischer Unternehmen in ihren Strategien die Anforderungen an IT-Sicherheit sowohl für Produkte als auch für Dienstleistungen und Anwendungen hinterfragen und bewerten.

  • Aufgabe 6: Regelmäßige Kontrolle potenziell gefährlicher IT-Lösungen!

    Sofern eine IT-Lösung das Potenzial aufweist, negative Auswirkung auf die kritischen Infrastrukturen auszuüben, liegt die Aufgabe nach Meinung beider Verbände darin, diese sorgfältig zu prüfen und regelmäßig zu kontrollieren. Zum Erreichen einer höheren Sicherheit und Robustheit fordern TeleTrust und VOICE dabei eine Zusammenarbeit aller Interessengruppen.

    Darüber hinaus sollte auch in Prävention, Detektion und Reaktion investiert werden. Notwendig seien Notfallpläne für ein Worst-Case Szenario, die Entwicklung von Krisenstabsübungen sowie die Bildung von Eingreiftruppen.

IT-Security Trends: Hacker im El Dorado

LesetippDer Präsident des Bundesamtes für Verfassungsschutz vergleicht Hacker-Angriffe mit gelenkten Mittelstreckenraketen. Zahlen und Fakten zum Thema IT- Sicherheit finden Sie in diesem Beitrag in unserer übersichtlichen Infografik „Cyberattacken“.

Fazit

TeleTrust und VOICE e.V. stellen in ihrem Manifest ganz konkrete Forderungen an Politik und IT-Anbieter. Werden die bestehenden Sicherheitsmängel in Hardware, Software und Betriebssystemen nicht von Grund auf beseitigt, sehen beide Industrieverbände große Gefahren auf eine sich zunehmend vernetzende Wirtschaft zukommen. Hart ins Gericht gehen sie insbesondere mit dem geringen Reifegrad von Systemen und deren Widerstandsfähigkeit gegen Angriffe. Kritik üben TeleTrust und VOICE auch an der fehlenden Standardisierung vorhandener Sicherheitslösungen.

Europäische Hersteller werden aufgefordert, vermehrt eigenes Know-how rund um die IT-Sicherheit aufzubauen und alle IT-Produkte so zu designen, dass Sicherheit und Datenschutz von Beginn an berücksichtigt werden. Zudem fordern die Verbände IT-Anbieter auf, Lösungen anzubieten, die das Prinzip Security-by-Design befolgen. Alles andere würde sonst IT-Anwendungsunternehmen in ernsthafte Schwierigkeiten bringen, ihren Teil zur Cyber-Sicherheit beizutragen.

Der Beitrag Manifest IT-Sicherheit identifiziert sechs Problemfelder erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.