Posts Tagged: ‘Trends & Markt’

Aus Zwei mach Eins: Hybrid Cloud im Einsatz

1. März 2018 Posted by Robert Becker

Wie es die Public Cloud ins lokale Rechenzentrum schafft

Hybrid Cloud im Einsatz Die Bedeutung des Cloud Computing hat in den vergangenen Jahren stetig zugenommen. Wie die Bitkom in ihrem Cloud Monitor 2017 mitteilt, boomt die Nutzung von Cloud-Diensten in deutschen Unternehmen – der Bedarf an Software, Speicher und Rechenleistung aus der Wolke wächst stetig. Auch kleinere Unternehmen streben zunehmend in die Datenwolke: Bereits 65 Prozent aller Unternehmen hierzulande setzen Cloud Computing ein.

Inzwischen haben sich mit der Private Cloud, Public Cloud und Hybrid Cloud drei Cloud-Modelle etabliert. Bereits im letzten Blogartikel haben wir Begriffe rund um das Cloud Computing geklärt und wollen uns heute mit der Hybrid Cloud näher beschäftigen.

Das Beste aus zwei Welten…

IT-Anwendungen werden immer agiler und die Datenflut steigt stetig (Stichwort: Big Data), was zu Lasten der Speicherkapazitäten geht. Wie also mit all den Datenmengen umgehen? Der Einsatz einer Hybrid Cloud kann eine gangbare, praktikable Lösung sein. Die Hybrid Cloud ist eine IT-Umgebung, die die Private und Public Cloud miteinander kombiniert und somit die Vorteile beider nutzt. Das heißt: Unternehmen können sensible (Unternehmens-) Daten und Programme auf eigenen Servern aufbewahren bzw. in der Private Cloud betreiben, während einige Dienstleistungen und Services über das Internet bei öffentlichen Anbietern in der Public Cloud betrieben werden können.

Damit profitieren Unternehmen zum einen von der Zuverlässigkeit und der Skalierbarkeit, die eine Public Cloud bietet, mit der Möglichkeit, den Einsatz der Cloud-Ressourcen mit einem sicheren Desaster-Recovery-Konzept https://de.wikipedia.org/wiki/Disaster_Recovery auf mehrere Rechenzentren zu verteilen. Auf der anderen Seite behalten sie die volle Kontrolle, die eine Private Cloud-Umgebung in Bezug auf Sicherheitsstandards und Compliance bietet.

… oder nicht?

Hybrid Cloud im Einsatz Die ersten Hybrid Cloud-Plattformen sahen noch so aus, dass Public Cloud Services mit der eigenen, im Unternehmen betriebenen, Private Cloud verbunden wurden. Das Problem dieser Konstellation: Beide Systeme waren zwar miteinander verbunden, jedoch autark und nicht aus einem technologischen Guss. Das machte das Management dieser Hybrid Clouds aufwändig und der zeitgleiche Einsatz zweier Cloud-Modelle ließ die Komplexität der IT-Infrastruktur steigen.

Wer die Hybrid Cloud im Einsatz hat braucht eine besondere Sicherheitsstrategie. Immerhin müssen die Systeme der Private Cloud sich mit denen der Public Cloud austauschen, ohne dass Compliance-Vorgaben oder Datenschutzrichtlinien verletzt werden. Unternehmen waren gezwungen einen peniblen Überblick zu behalten, welche Daten wo verarbeitet und gespeichert werden. Das setzte die ausführliche Analyse aller Geschäftsprozesse voraus. Anschließend mussten diese Prozesse passend in den unterschiedlichen Cloud-Anteilen abgebildet werden. Eine echte Herausforderung, denn gerade personenbezogene Daten unterliegen besonderen gesetzlichen Anforderungen an die Auftragsdatenverarbeitung.

… Doch!

Seit dem Launch von Azure Stack 2016 hat sich daran einiges geändert. Microsoft ermöglicht Unternehmen damit eine echte Hybrid Cloud-Strategie. Mit Azure Stack hat der Anbieter eine Plattform auf den Markt gebracht, die das nahtlose Verschieben von Workloads von der eigenen Private Cloud in die Public Cloud und umgekehrt ermöglicht.

Office 365 Hybrid Szenario

Lesetipp Möchten Sie die Vorteile von E-Mail-Postfächern unter Office 365 nutzen, jedoch weiterhin auf eine On-Premise E-Mail-Management-Lösung setzen? Dann ist iQ.Suite Ihre Lösung! Ein- und ausgehende E-Mails können von Office 365 zu Ihrem Rechenzentrum umgeleitet und dort gemäß Ihrem persönlichen Regelwerk verarbeitet werden. Und das sowohl unter IBM Domino, als auch MS Exchange/SMTP!

Microsofts Cloud-Plattform Azure kurz erklärt

Hybrid Cloud im Einsatz Azure ist Microsofts umfangreiches Cloud Computing Angebot, mit dem sich unterschiedlichste Anwendungen und Services in der Cloud realisieren lassen. Zum Beispiel können hier ganze Websites gehostet, Datenbanken abgelegt, Remote Apps realisiert oder ganze Server-Farmen ausgelagert und in Azure virtualisiert betrieben werden.

Sie sehen: Unternehmen, die eine öffentliche Cloud nutzen wollen, bietet Microsoft mit Azure eine Fülle von Diensten. Weil dabei aber sensible Daten das unternehmenseigene Rechenzentrum verlassen und in die Cloud übertragen werden, buchen nicht alle Unternehmen diesen Service gern. Hinzu kommt, dass etliche Unternehmen aus Datenschutzgründen oder anderen Gründen, Azure-Dienste gar nicht über die Cloud nutzen dürfen.

Azure Pack: Microsofts Private Cloud

Für dieses Problem hat Microsoft schon länger eine Lösung parat: Azure Pack. Mit Azure Pack lässt sich eine Private Cloud-Umgebung auf Basis der Microsoft Azure-Technologie aufbauen. Jedoch wird die Azure-Cloud dabei im lokalen Netzwerk des unternehmenseigenen Rechenzentrums zur Verfügung gestellt und ist nur eingeschränkt verfügbar. So lassen sich beispielsweise keine gemeinsamen Vorlagen oder Programme im lokalen Azure Pack und gleichzeitig auch in der Public Cloud nutzen.

Diese Lücke konnte Microsoft mit der Entwicklung von Azure Stack schließen. Mithilfe des Azure Stack können Unternehmen eine vernünftige Hybrid Cloud im Einsatz haben und sowohl Infrastruktur- als auch Plattformdienste (IaaS und PaaS) zentral zur Verfügung stellen. Die Umgebung läuft komplett unabhängig von Azure und dem lokalen Netzwerk, kann sich aber mit beiden verbinden, Daten austauschen und gemeinsame Dienste zur Verfügung stellen.

Azure Stack: Bewährte Public Cloud-Dienste ins eigene Rechenzentrum

Azure Stack ist Microsofts Hybrid Cloud-Plattform, mit der Unternehmen Azure-Dienste über das unternehmenseigene Rechenzentrum bereitstellen können. Sie profitieren dabei von der Skalierbarkeit und dem Management einer Public Cloud-Lösung, müssen aber nicht auf die Kontrollmöglichkeiten eines eigenen Rechenzentrums verzichten. Dadurch werden Anwendern echte hybride Cloud-Szenarien ermöglicht: Sie können zum Beispiel ihre Geschäftsanwendungen und Apps zunächst in der Private Cloud – in Azure Stack – entwickeln und bereitstellen, und können diese später jederzeit und ohne Aufwand in die Public Cloud – Azure – bringen. Umfang und Tempo bestimmen Unternehmen dabei selbst. Die Daten werden dabei lokal, also innerhalb des Unternehmens gehostet. Die Anwendungen hingegen sind weltweit über die Webapplikation der Public Cloud erreichbar.

Sicherheitsbedenken spielen keine Rolle mehr: Unternehmen, die die Funktionen der öffentlichen Cloud nutzen wollen, es jedoch aus Datenschutzgründen nicht dürfen, können komplett auf Azure Stack setzen, denn alle Daten bleiben im lokalen Netzwerk.

Vorteile für IT-Verantwortliche

Azure Stack spielt seine Vorteile vor allem bei IT-Verantwortlichen aus: Sie können sehr flexibel entscheiden, welche Anwendungen im lokalen Netzwerk und welche in der Cloud laufen. Oder anders ausgedrückt: Wenn es gewünscht wird, lassen sich lokale Cloud-Dienste gemeinsam mit öffentlichen Cloud-Diensten betreiben. Zwischen den Komponenten findet ein Datenaustausch statt. Überhaupt müssen sich Unternehmen, die Azure bereits nutzen, überhaupt nicht umgewöhnen, denn alle Funktionen von Azure stehen auch in Azure Stack zur Verfügung. So werden zum Beispiel alle Management-Tools, die in der öffentlichen Cloud Azure funktionieren auch von der privaten Cloud Stack unterstützt. Möglich ist dies durch die standardisierte Architektur, das gleiche Benutzerportal sowie einheitliche Technologien für die Entwicklung der Apps in Azure und Azure Stack.

Dass Azures PowerShell sich auch für Azure Stack verwenden lässt, dürfte vor allem Administratoren freuen – Entwickler hingegen können weiter mit Visual Studio Anwendungen schreiben, die in der Public und in der Private Cloud funktionieren.

Cloud kurz erklärt – der Mittelstand zieht nach

Lesetipp Vor einigen Jahren war Deutschland noch vollkommen wolkenfrei. Dann entdeckten vor allem Großkonzerne die Cloud. Sie schöpfen mittlerweile das volle Potential aus und die Technologie gehört bereits zum Standard. Nun, etwas zeitverzögert, zieht der Mittelstand nach. Doch teilweise sind Terminologien, Bedeutungen und Unterschiede der Cloud-Services immernoch unklar. Dieser Blogartikel schafft Abhilfe.

Fazit: Sicherheit und Cloud schließen sich nicht aus

key Die Hybrid Cloud erweitert im Vergleich zu einer rein öffentlichen oder rein privaten Cloud die Anwendungsmöglichkeiten deutlich. Unternehmen, die besondere Anforderungen an den Datenschutz oder strenge Compliance-Richtlinien haben, die eine Nutzung der Public Cloud ausschließen, steht mit Microsoft Azure Stack eine echte hybride Lösung zur Verfügung. Sie behalten die volle Datenkontrolle und können kritische Services auf eigenem On-Premises-Equipment betreiben. Die zugehörigen Webapplikationen beispielsweise sind hingegen in der Public Cloud installiert. Der kurzfristige Bezug zusätzlicher Rechen- und Speicherkapazitäten in der Public Cloud und der problemlose Umzug in die private Umgebung – zum Beispiel im Falle von Projekten im Entwicklerumfeld – sind gerade im Hinblick auf die Entwicklung neuer Produkte und Geschäftsmodelle im Umfeld der Digitalen Transformation, Argumente für die Hybrid Cloud.

Der Beitrag Aus Zwei mach Eins: Hybrid Cloud im Einsatz erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Cloud kurz erklärt – der Mittelstand zieht nach

14. Februar 2018 Posted by Diana Jensen

Cloud Terminologie

Was Sie über die Wolke wissen sollten

Cloud kurz erklärt Der Anteil der Cloud-Befürworter nimmt kontinuierlich zu. Nicht nur unter Konzernen. Jetzt (endlich) zieht auch der Mittelstand nach: Inzwischen nutzen laut einer Bitkom-Studie bereits 64 Prozent der kleinen und mittleren Unternehmen und 69 Prozent der mittelständischen Unternehmen Cloud Computing in ihrem Betrieb. Das sind erfreuliche Zahlen, denn eine digitale Transformation von Geschäftsmodellen ohne Cloud Computing wird es nicht geben.

Cloud kurz erklärt und in aller Munde

Cloud kurz erklärt Cloud-Speicher, Daten aus der Cloud, Personal oder Private Cloud …: Die Cloud ist in aller Munde und wir sind täglich umgeben von einer Vielzahl an Begriffen, unter denen sich jedoch nicht jeder etwas vorstellen kann. Im heutigen Blogartikel wollen wir deshalb die Cloud zum Thema machen und klären, was „die Cloud“ eigentlich ist, welche Modelle und Arten existieren.

Cloud Computing: Daten in der Wolke speichern

Cloud kurz erklärt Ganz vereinfacht gesagt ist Cloud Computing die Bereitstellung von IT-Diensten über das Internet. Diese Dienste können zum Beispiel Speicher, Rechenkapazitäten, Datenbanken und sogar ganze Anwendungssoftware sein.

Um diese Dienste aus der Cloud nutzen zu können, ist eine schnelle Breitbandverbindung notwendig. Denn über den Internetbrowser greifen Sie auf IT-Leistungen und Infrastruktur zu, die auf weit entfernten Servern gespeichert sind.

Wenn Sie umgekehrt etwas in die Cloud laden, dann speichern Sie Daten auf einem entfernten Server. Dabei werden die Daten von Ihrem Endgerät, zum Beispiel Ihrem Laptop, über das Internet auf den Server eines Cloud-Anbieters geladen. Von dort können Sie Ihre Daten mit jedem belieben Gerät später wieder abrufen – auch mit Ihrem Smartphone. Das ermöglicht es Ihnen, Dateien von verschiedenen Orten aus zu bearbeiten und sie auch mit Dritten, zum Beispiel mit Ihren Kollegen, zu teilen.

Von der Idee zur Cloud

Cloud kurz erklärt Das Konzept der Cloud ist keine neue Erfindung. Bereits in den 50er Jahren gab es Ideen, eine zentrale Stelle zu schaffen, die nach Bedarf Ressourcen bereitstellt. Mangels technischer Voraussetzungen blieben diese Ideen vorerst Theorie. Es sollte noch 20 Jahre dauern, bis mit dem Ausbau der Glasfasertechnologie in den 70er Jahren die infrastrukturelle Grundlage der Cloud geschaffen wurde.

Einige Irrungen und Wirrungen später war es Ende der 90er Jahre soweit: Es war nun möglich, Software nicht auf dem eigenen Rechner zu installieren, sondern von einem IT-Dienstleister über einen Webbrowser zu verwenden. Das Software-as-a-Service (SaaS) – Modell war geboren. In den folgenden Jahren legte die Entwicklung rasant zu. Bereits Anfang der 2000er Jahre gab es erste webbasierte Business Software, die es ermöglichte, von jedem Computer mit Internetzugang auf Daten zuzugreifen.

Mit den immer schnelleren Bandbreiten und der verbesserten technischen Ausstattung entwickelte sich das Cloud-Konzept von der einfachen Datenablage hin zu immer komplexeren Anwendungen. Und heute? Heute beziehen Unternehmen bereits komplexe Geschäftsanwendungen ohne Leistungs- oder Funktionseinbußen aus der Cloud.

Und warum Wolke?

Cloud kurz erklärt Cloud kurz erklärt heißt übersetzt „Wolke“. Informationstechniker verwendeten in ihren Strukturzeichnungen von Netzwerken eine Wolke, um Systeme zu kennzeichnen, die zwar Teil dieses Netzwerks waren, aber extern betrieben wurde.

Die Wolke wurde als Symbol verwendet, da Aufbau und Funktion dieser Systeme irrelevant für das eigene Netzwerk waren. Das ist bis heute so geblieben: Dateien werden an einem Ort gespeichert (Server), dessen Aufbau und Funktionen irrelevant ist. Dafür sind sie von jedem Endgerät auf der Welt mit Internetzugang abrufbar.

Everything as a Service: Die Cloud Service-Modelle

Cloud kurz erklärt Es gibt drei gängige Servicemodelle des Cloud Computings. Das erste, Software as a Service, haben wir oben schon erwähnt. Es bezeichnet den Zugang zu verschiedenen Software und Anwendungsprogrammen. Ein typisches Beispiel für SaaS ist Microsoft Office 365.

Eine weitere Form ist Cloud Computing via Platform as a Service (PaaS). Dieses Servicemodell ermöglicht es, eigene Software-Anwendungen zu entwickeln oder auszuführen. Dies geschieht innerhalb einer bereitgestellten Programmierumgebung mit anpassbaren Rechen- und Datenkapazitäten. Beispiele für PaaS-Modelle sind die App Engine von Google und Microsofts Windows Azure.

Cloud kurz erklärt Das dritte Modell heißt Infrastructure as a Service (IaaS). Nutzer greifen auf Hardware-Ressourcen, z.B. Speicher oder Netze, zu und gestalten sich ihre eigenen Server. Die Auswahl, Installation und der Betrieb der Software liegen in eigener Verantwortung. Der Infrastructure-as-a-Service von Fujitsu oder die Amazon Elastic Compute Cloud (EC2) sind typische Beispiele für IaaS.

Öffentliche oder Private Rechnerwolke?

Die drei Servicemodelle haben wir geklärt. Wenden wir uns nun den vier Cloud-Arten zu. Je nachdem, von wem die Services angeboten werden und an welche Zielgruppe sie sich richten, spricht man von Public Clouds (öffentliche Cloud), Private Cloud (Private Cloud) sowie Hybrid Cloud.

  • Public Cloud

  • Die Public Cloud ist das kostenlose oder kostenpflichtige Angebot eines frei zugänglichen Providers, der seine Dienste offen über das Internet für jedermann zugänglich macht. Auf diese Weise kann zum Beispiel eine Software von mehreren Unternehmen und Kunden gleichzeitig genutzt werden. Bekannte Beispiele für die Public Cloud sind Ihre E-Mail Dienste, Services wie Google-Docs oder das kostenpflichtige Angebot Microsoft Office 365.

  • Private Cloud

  • Das Gegenteil der Public Cloud ist die Private Cloud. Datenschutz- und IT-Sicherheitsgründe können dazu führen, dass IT-Dienste ausschließlich einer bestimmten Gruppe vorbehalten sind. Unternehmen beispielsweise betreiben in einer abgesicherten Cloud eigene IT-Dienste und machen diese ausschließlich den eigenen Mitarbeitern zugänglich.

  • Hybrid Cloud

  • Je nach Bedarf ist es manchmal sinnvoll, eine Mischung aus Private und Public Cloud zu verwenden. Sollen zum Beispiel einige Services über die öffentliche Cloud laufen, dürfen einige datenschutzkritische Anwendungen nur direkt im Unternehmen betrieben und verarbeitet werden. Eine solche Mischform wird als Hybrid Cloud bezeichnet, wobei die Herausforderung darin besteht, die Geschäftsprozesse voneinander abzutrennen. Hierfür ist wiederum eine konsequente Klassifizierung der im Unternehmen vorhandenen und verarbeiteten Daten zwingend notwendig.

  • Personal Cloud

  • Während der Private Cloud die unternehmenseigene IT-Abteilung als Provider agiert und Fachabteilungen benötigte Ressourcen über ein Self-Service Portal buchen und nutzen, werden bei einer Personal Cloud Daten tatsächlich an einen externen Service Provider weitergegeben. Der Service Provider hält diese Daten so bereit, dass jederzeit, überall und mit unterschiedlichen Endgeräten darauf zugegriffen werden kann. So können Mitarbeiter zum Beispiel von ihren privaten Geräten genauso wie vom Firmen-Rechner aus auf Termine, Kalendereinträge, E-Mails und andere Informationen zugreifen und diese verwalten.

Cloud Computing im Geschäftsalltag – so funktioniert es

Cloud kurz erklärt Genug der Theorie – sehen wir uns an, wie Cloud Computing in der Praxis funktioniert. Ein einfaches Beispiel: Der Vertriebsmitarbeiter im Außendienst Ihres Unternehmens kann dank eines Cloud-basierten Dienstes Informationen zum Kunden kinderleicht über sein mobiles Endgerät abgerufen. Darunter auch kaufentscheidende Informationen zum avisierten Produkt wie zum Beispiel Materialdaten.

Der Kunde hat angebissen, das Verkaufsgespräch war erfolgreich und dem Kunden wurde die Lieferung des Produkts schon für den nächsten Tag zugesichert. Statt erst wieder ins Büro zurück zu müssen und wertvolle Zeit zu verlieren, kann der Vertriebsmitarbeiter den Auftrag sofort über sein Smartphone schreiben und Arbeitsanweisung an die Kollegen im Lager (Versand der Ware) und Rechnungswesen (Rechnungsstellung) erteilen.

Aufgrund Aktualisierung der Daten in Echtzeit stehen die Anweisungen den Kollegen sofort zur Verfügung. Und auch der Chef unseres Vertriebsmitarbeiters ist darüber informiert, ob und welche Geschäfte wann abgeschlossen wurden, ohne darauf warten zu müssen, bis sein Mitarbeiter wieder im Büro ist.

Vorteile des Cloud Computings

Cloud kurz erklärt Bereits unser Beispiel zeigt, warum die Cloud so beliebt geworden ist: Auf Cloud Computing basierende Anwendungen und Services ermöglichen grenzenlosen Zugang auf alle Daten – weltweit, jederzeit und von mehreren Nutzern gleichzeitig. Daneben überzeugen Cloud-Anwendungen aber auch mit ganz anderen Vorteilen: So können Unternehmen die Zahl der Benutzerlizenzen ganz nach Bedarf erweitern. Die Kapazität der Cloud ist beinah unendlich und Ressourcen-Engpässe gehören definitiv der Vergangenheit an.

Waren Sie schon einmal an der Implementierung einer Software beteiligt? Das ist ein sehr komplexer Aufwand, der Monate, manchmal Jahre, dauert. Für Cloud-Anwendungen müssen Sie sich lediglich registrieren und können diese Anwendungen meist sofort verwenden. Lediglich sehr komplexe und funktionsreiche Unternehmensanwendungen aus der Cloud brauchen einige wenige Tage, bis sie einsatzbereit sind – und das ist nichts im Vergleich zu mehreren Monaten oder Jahren bei Implementierung einer Anwendung.

Diese ist übrigens in der Regel mit hohen Investitionen in Ausstattung, Kosten für Lizenzen, Integration und Berater verbunden. All diese Aufwände werden mit Software aus der Cloud deutlich geringer, denn hier bezahlen Sie lediglich eine monatliche Nutzungsgebühr. Zudem entfallen auch Wartungs- oder Verwaltungsaufwand, denn das Installieren von Patches und Upgrades sowie das Testen von Anwendungen übernimmt der Cloud-Betreiber.

Last but not least ist auch das Risiko eines Datenverlustes oder eines Hardware-Ausfalls deutlich minimiert: Alle Daten sind sicher in der Cloud gespeichert und auch ein verlorener Laptop ist nur noch kleine Unannehmlichkeit statt potenzieller Notfall.

Nutzen Sie Cloud-Systeme? Welche Meinung haben Sie zum Thema? Wir freuen uns auf Ihre Kommentare.

Der Beitrag Cloud kurz erklärt – der Mittelstand zieht nach erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Digitalisierung und moderne IT-Infrastrukturen: Da geht noch was!

31. Januar 2018 Posted by Diana Jensen

Banner IDC Studie

In deutschen Firmen herrscht Modernisierungsstau

IT-Infrastrukturen Ohne moderne IT-Infrastrukturen kann die Digitalisierung in deutschen Unternehmen nicht gelingen. Aber das allein genügt nicht, denn die digitale Transformation macht auch eine Neupositionierung der Data Center in der Service Delivery von Organisationen notwendig.

Die jetzt veröffentlichte IDC-Studie „Next Generation Data Center in Deutschland 2018“ stimmt da nachdenklich: Aufgrund von Modernisierungsstau stockt die digitale Transformation in deutschen Unternehmen. Fast Dreiviertel (73 Prozent) von ihnen haben Nachholbedarf. Das wirf Fragen auf, beispielsweise warum viele Unternehmen die Modernisierung ihrer Data Center nicht nachhaltig genug verfolgen und sich mit ineffizienten, teuren und unsicheren IT-Infrastrukturen begnügen?

Im heutigen Artikel sehen wir uns die Antworten und Ergebnisse der IDC-Befragung unter IT-Entscheidern deutscher Unternehmen genauer an.

Überblick: Der Nachholbedarf ist groß und die Zeit drängt

IT-Infrastrukturen Der Modernisierungsstau hat Folgen für den operativen Betrieb: In den vergangenen zwölf Monaten verzeichnen 78 Prozent der Studienteilnehmer Downtimes oder Einschränkungen bei der Bereitstellung von Services. Zwar haben viele Firmen in den letzten Jahren Investitionen in ihr Data Center getätigt, die Vorlaufzeit für die Bereitstellung von IT-Ressourcen ist jedoch zu lang und bremst die Weiterentwicklung von Geschäftsmodellen im Rahmen der digitalen Transformation aus.

Es ist also höchste Zeit, dass deutsche Unternehmen reagieren und ihre IT-Infrastrukturen und IT-Architektur überarbeiten. Dass dabei eine Menge Arbeit auf Unternehmen zukommt, zeigen die hierfür notwendigen To Do´s: Laut IDC müssen sie zum Einen die umfassende Visualisierung von Server, Netzwerk und Storage vorantreiben, zum Anderen aber auch die Nutzung von Software Defined Infrastructure, Container, konvergente und hyperkonvergente Lösungen sowie Composable IT. Das sind eine Menge Aufgaben, die da im Pflichtenheft stehen.

Das Rechenzentrum von Morgen verknüpft zudem interne IT-Umgebungen und externe IT- und Businessressourcen zu einer einheitlichen Business Delivery Plattform. Dazu gehören Cloud-Plattformen, Multi Clouds, Colocation Services und Business-Netzwerke. Die meisten Firmen sind davon noch weit entfernt, trotzdem ist IDC davon überzeugt, dass Software-Defined-Infrastrukturen (SDI), hyperkonvergente Lösungen und Composable IT die Rechenzentren auch hierzulande revolutionieren werden. Dafür müssten IT-Verantwortliche am besten schon gestern damit begonnen haben, ihre starren IT-Ressourcen zu flexibilisieren. Die Zeit drängt!

Zu teuer, zu silohaft, zu unsicher: Problem erkannt

Immerhin: Die IT-Entscheider wissen genau um das entscheidende Hindernis der IT-Infrastrukturen in der Digitalisierung. Für mehr als ein Drittel der Befragten (37 Prozent) stehen eine höhere Effizienz und Effektivität der IT-Ressourcen ganz oben auf der Agenda.

IT-Infrastrukturen
Doch der Betrieb von Rechenzentren ist zu teuer und Kosteneinsparungen zählen für 34 Prozent der Befragten zu den wichtigsten Prioritäten. Hierzu räumen zwar auch die Analysten von IDC ein, dass Investitionen in Next- Generation-Data-Center-Technologien erst einmal hoch sind. Jedoch zahlen sich diese Ausgaben durch erhöhte Automatisierung, geringeren Wartungsaufwand und weniger manuelle Tätigkeiten mittel- bis langfristig wieder aus. Hinzu kommt, dass sich mit der Migration von IT in Multi Clouds und Colocation Services letztendlich auch die Kapitalkosten in Betriebskosten wandeln.

Letztendlich halten moderne IT-Infrastrukturen und automatisierte Prozesse den IT-Betrieb auf einem deutlich sichereren, weniger störanfälligen Niveau. Das ist wichtig, denn gut Dreiviertel der befragten IT-Entscheider (78 Prozent) mussten in den letzten 12 Monaten Downtimes bzw. Einschränkungen bei der Bereitstellung von Services verzeichnen. Als Gründe nannten sie Technologieausfall, Fehlentscheidungen oder Hackerangriffe.

Software Defined Infrastructure: Die Grundlage zur Flexibilisierung

IT-Infrastrukturen Der Weg zum Next-Gen-Datacenter führt neben einer Virtualisierung der Infrastruktur nicht vorbei an Software Defined Infrastructure (SDI) als Lösungsansatz zur Flexibilisierung und Automatisierung von Data Center Ressourcen. Schließlich ist Software-Defined-Technologie eine entscheidende Komponente für hyperkonvergente Lösungen. IDC bringt es in ihrer Studie auf den Punkt: „Sie liefert essentielle Funktionalitäten wie etwa die dynamische Bereitstellung von IT-Infrastrukturen, Flexibilität und Skalierbarkeit, einfaches Management sowie Ressourcen und Kostenoptimierung, ohne die eine Modernisierung von Datacentern nicht möglich ist“.

Dem ist nichts hinzuzufügen – außer ein paar Zahlen: 44 Prozent der Befragten versprechen sich eine bessere Auslastung der IT-Ressourcen, sofern die Lösungen auf die jeweiligen Business-Anforderungen zugeschnitten sind. 27 Prozent der IT-Abteilungen planen, ihre Server-Infrastruktur durch eine hyperkonvergente IT-Infrastruktur abzulösen, 26 Prozent der IT-Abteilungen wollen ihr Speichernetzwerk bzw. Storage-Area-Network durch eine hyperkonvergente Infrastruktur ersetzen.

Neben den oben genannten Vorteilen stehen die befragten Unternehmen allerdings auch vor etlichen Herausforderungen: Ein knappes Drittel (31 Prozent) der Befragten sieht die Komplexität als größtes Hindernis, weiteren 26 Prozent fehlt es an Wissen über SDI und für ein Fünftel ist die Technologie noch nicht ausgereift. Aus Sicht von IDC müssen Anbieter hier nachbessern und beispielsweise mit Best-Practice und Anwendungsfällen überzeugen.

Per Multi-Cloud zum Next-Gen-Datacenter

IT-Infrastrukturen Ohne Cloud-Computing und Provider-Services geht es nicht im Next-Gen-Datacenter. Dessen sind sich auch die deutschen Unternehmen bewusst: Immerhin 88 Prozent von ihnen verfügen bereits über eine Cloud-Strategie. Soweit so gut – denn die parallele Nutzung von Cloud-Diensten und -Plattformen mehrerer Anbieter – so genannte Multi-Clouds – steckt hierzulande noch in den Kinderschuhen. IDC erwartet jedoch die Entwicklung eines neuen Cloud-Deployment-Modells.

Aber zurück zur Multi-Cloud: Die Studie zeigt, dass Unternehmen hier ganz unterschiedliche Ansätze verfolgen: Während 37 Prozent unter der Multi-Cloud die Zusammenarbeit mit einem oder zwei strategischen Cloud-Providern verstehen, um den Managementaufwand gering zu halten und hybride Clouds weiterzuentwickeln, bevorzugen 23 Prozent eine Art Brokermodell. Dabei muss der Provider Connectivity und Monitoring-Tools für die relevanten Cloud-Services anbieten.

So oder so: Deutsche Firmen planen laut IDC-Studie offenbar Investitionen. Eigenen Angaben zufolge wollen sie in den kommenden drei Jahren verstärkt in Lösungen für Monitoring, Modellierung, Analyse, Systemstabilität, Sicherheit, zur Überwachung von Performance- und Wartungs-SLAs sowie Systeme zur Automatisierung und Orchestrierung investieren.

Zukunftsmusik: Composable Infrastrukturen

IT-Infrastrukturen Die wachsenden Anforderungen an Agilität und Flexibilität zur schnelleren Provisionierung und Skalierung von Anwendungen und Infrastruktur können nach Einschätzung von IDC nur mittels so genannter Composable Infrastrukturen gestemmt werden. Diese nächste Technologiestufe erlaubt IT-Abteilungen die Transformation von statischen, unflexiblen Infrastrukturen hin zu einer Umgebung, die besser ausgelastet, agil und automatisiert und damit fit für die Digitalisierung ist.

Jedoch sind Composable Infrastrukturen derzeit nur Zukunftsmusik: 80 Prozent der Befragten gaben zwar an, den Begriff zu kennen, allerdings haben sie verschiedene Vorstellungen die Bedeutung betreffend. Selbst in produktiven Umgebungen sind Composable Infrastrukturen noch nicht vorhanden – IDC sieht hier allerdings großes Potenzial für Anbieter, sich entsprechend aufzustellen.

Unternehmensstrukturen bremsen Digitalisierung

Lesetipp Überfordert Digitalisierung etablierte Unternehmensstrukturen? Dieser Frage ging das Analystenhaus Capgemini in seiner IT-Studie 2017 auf den Grund. Eine Zusammenfassung können Sie in diesem Blogartikel lesen.

Fazit

Die Modernisierung deutscher Rechenzentren hin zum Data Center der nächsten Generation hat gerade erst begonnen. Nach Einschätzung von IDC werden die IT- und Fachabteilungen damit in den kommenden drei bis fünf Jahren beschäftigt sein.

IT-Infrastrukturen Die meisten Unternehmen haben erkannt, dass sie ihre IT-Infrastrukturen umfassend modernisieren müssen. Dazu haben Anbieter bereits etliche innovative Technologien zu Lösungen entwickelt, die die meisten Anforderungen der Unternehmen abdecken. Bei der Umsetzung bzw. Einsetzung derartiger Lösungen müssen deutsche Unternehmen jedoch noch einen Schritt zulegen. Dort, wo die Modernisierung bereits in Gange ist, fahren die Unternehmen mehrgleisig: Der Einführung moderner Technologien wie konvergenten und hyperkonvergenten Lösungen, Software Defined Infrastructures und Container steht die verstärkte Nutzung von Cloud Services und Provider-Diensten gegenüber.

Insgesamt sieht IDC jedoch einen deutlichen Modernisierungsstau, was dazu führt, dass die digitale Transformation bei vielen Unternehmen nur stockend voran geht: Über 70 Prozent der befragten Firmen haben hier Nachholbedarf. Wer jetzt nicht seine starren IT-Ressourcen flexibilisiert, wird wohl in nicht allzu ferner Zukunft einen sicheren und reibungslosen IT-Betrieb in zunehmend offenen und heterogenen geschäftlichen Ökosystemen nicht mehr gewährleisten können.

Der Beitrag Digitalisierung und moderne IT-Infrastrukturen: Da geht noch was! erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Meltdown und Spectre: Der IT-Security-Supergau?

16. Januar 2018 Posted by Heiko Brenn

Neue Sicherheitslücken in Prozessoren treffen Hersteller ins Mark

Jeder Prozessor ist betroffen

Meltdown und Spectre – seit zwei Wochen halten sie die IT-Welt in Atem. Was nach Titeln von Hollywood Blockbustern klingt, ist alles andere als Spaß und Unterhaltung. Stattdessen haben wir es mit neuen, gravierenden Sicherheitslücken zu tun – vielleicht den größten der gesamten IT-Industrie. Denn dieses Mal ist nicht ein bestimmtes Betriebssystem oder Gerätetyp betroffen. Dieses Mal ist fast jeder Rechner, jedes Smartphone, jedes Tablet, jedes Cloud-System weltweit betroffen: Ganze Generationen von Computerchips, im Grunde genommen jeder Intel-Chip seit 1995, sind offenbar anfällig für Attacken, mit denen Passwörter und Kryptoschlüssel gestohlen werden können.

Während Sie sich Meltdown dabei wie einen Dieb vorstellen müssen, der in Ihre Tasche greift, um Ihr Hab und Gut zu stehlen, versteht sich Spectre auf Manipulation. Diese Variante bringt Sie dazu, Ihre Taschen freiwillig herauszugeben. Beide Angriffe hinterlassen keine Spuren und werden nicht von Antivirus-Software erkannt. Bislang weiß niemand, ob die Sicherheitslücken in Prozessoren bereits ausgenutzt wurden.

Chiphersteller wussten Bescheid

Sicherheitslücken in Prozessoren Bereits vor gut einem halben Jahr haben Mitarbeiter von Googles Project Zero gemeinsam mit Forschern verschiedener Universitäten und der Industrie die Sicherheitslücken in Prozessoren entdeckt. Anfang Juni 2017 wurden die Hersteller von Prozessoren informiert, darunter Platzhirsch Intel, aber auch AMD und ARM.

Für Dienstag, den 9. Januar 2018, war dann die Veröffentlichung geplant, bereits seit dem 3. Januar überschlagen sich allerdings die Meldungen um die neuen Sicherheitslücken: Amerikanische Technikjournalisten berichteten, dass Hersteller in der Windows- und Linux-Welt sowie in den namhaften Cloud-Plattformen hektisch an Updates arbeiten – etwas Großes musste dahinter stecken.

Technische Hintergründe

Wie sich zeigte, ist dem auch so: Die auf den Namen Meltdown und Spectre getauften Sicherheitslücken nutzen sogar die Achillesferse verschlüsselter Geräte aus. Um dem ganzen Problem auf den Grund zu gehen, müssten wir tief in die Computertechnik eintauchen. Die Hintergründe sind also sehr komplex und fast nur für Software-Programmierer zu verstehen. Wir versuchen, das Ganze vereinfacht, mit verständlichen Begriffen zu erklären:

Sicherheitslücken in Prozessoren Seit den 90er Jahren wurden Prozessoren dahingehend weiterentwickelt, Daten immer schneller zu verarbeiten. Zu diesem Zwecke werden mehrere Befehle gleichzeitig berechnet, um möglicherweise später benötigte Daten schon vorher abzurufen. Welche das sind, entscheidet der Computer – er spekuliert sozusagen, welcher Teil eines Programmes als nächstes ausgeführt werden könnte. Für die Spekulation greift der Prozessor auf Erfahrungswerte zurück. Stellt der Prozessor fest, dass er sich verspekuliert hat, verwirft er die berechneten Daten einfach. In der Regel irrt sich der Prozessor jedoch selten und die berechneten Daten werden schnell verarbeitet.

Während der Prozessor rechnet und sich spekulative Ergebnisse zwischenspeichert, stehen Daten unverschlüsselt im Speicher – zum Schutz in getrennten Speicherbereichen. Der Knackpunkt: Um Befehle auszuführen, müssen Daten ausgetauscht werden. Dazu muss ein Prozess jedoch teilweise auf Speicher zugreifen, den auch ein anderer Prozess erreichen kann. Das geschieht nach klar definierten Regeln – unter anderem aus dem Grund, damit einige Daten eben nicht ausgetauscht werden dürfen.

Sicherheitslücken in Prozessoren

Nun haben Sicherheitsforscher herausgefunden, dass der Speicherschutz umgangen werden kann. Es gibt Möglichkeiten, Daten, die einem Programm gehören, mit einem Schadprogramm auszulesen. Dieser Fehler eröffnet Hackern zwei Angriffsmöglichkeiten: „Meltdown“ und „Spectre“.

Meltdown

Meltdown verschafft sich Zugriff auf eigentlich geschützte Speicherbereiche. Konkret wird bei dieser Angriffsmethode die Vorab-Informationsbeschaffung des Prozessors ausgenutzt. Während er spekuliert, was als Nächstes zu tun ist, erzeugt der Prozessor selbst Daten und speichert diese zwischen. Aus diesem Cache heraus können Angreifer Daten abgreifen, indem sie Schadprogramme auf dem Gerät ihres Opfers installieren – beispielsweise über eine manipulierte Webseite – und ausführen.

Spectre

Spectre ist noch komplexer und zielt auf den oben genannten Lernprozess eines Chips ab, Prozesse zu verarbeiten und auf welcher Basis er Entscheidungen zu treffen hat. Angreifer können dem Chip beibringen, Entscheidungen zu treffen, die er eigentlich gar nicht treffen darf – sie manipulieren ihn und kommen auf diese Weise an die Daten. Diese Angriffsmethode ist zwar aufwändiger umzusetzen, weil Angreifer sich mehr Informationen beschaffen müssen, beispielsweise welche Software und welches Betriebssystem auf dem jeweiligen Gerät installiert ist. Dennoch ist ein Angriff dieser Art möglich.

Keine Antivirenlösung in Sicht

Sicherheitslücken in Prozessoren Niemand weiß, ob die Sicherheitslücken in Prozessoren bereits ausgenutzt wurden und wenn ja, von wem. Bislang ist auch keine Schadsoftware bekannt, die Meltdown oder Spectre ausnutzt. Und genau das ist auch schon das nächste Problem: Antivirenlösungen erkennen nur Schadprogramme, die bereits bekannt sind. Automatisch erkennt keine Antivirenlösung der Welt ein ihr unbekanntes Schadprogramm. Denn erst anhand seiner individuell typischen Signatur können Antivirenlösungen ein solches Programm erkennen und blockieren.

Noch gruseliger wird es, wenn Sie sich in Erinnerung rufen, wie einfach Schadprogramme auf einen Rechner gelangen können: Zum Beispiel versteckt im Anhang einer als seriös getarnten E-Mail oder als Download über eine gefakte Website (Phishingsite).

Was Sie tun können

In wilde Panik zu verfallen und den Prozessor tauschen zu wollen, nützt wenig: Es gibt aktuell keine Prozessoren, die nicht von Spectre betroffen sind. Die betroffenen Prozessorenhersteller Intel, AMD und ARM arbeiten eigenen Aussagen zufolge daran, das Problem zu lösen. Der Knackpunkt dabei: Der Programmcode, der Befehle des Betriebssystems für den Prozessor übersetzt, muss aktualisiert werden. Für jedes PC- und Smartphone-Modell müssen eigene Firmware-Updates bereitgestellt werden. Sie können sich vorstellen, dass das ein teures und aufwändiges Unterfangen ist.

Mehr als Updates für Ihre Betriebssysteme zu installieren, können Sie momentan also kaum tun. Immerhin bekommen Sie auf diese Weise wenigstens Meltdown in den Griff. Die ersten Updates für Betriebssysteme und Software liegen bereits vor. Gleich ob Smartphone, Windows- oder Linux-PC oder MacBook: Installieren Sie diese Updates unbedingt auf Ihren Geräten. Sollte für Ihr Betriebssystem (noch) kein Update vorliegen, halten Sie unbedingt Ausschau danach und installieren Sie es umgehend.

Updates mit allen iQ.Suite Versionen erfolgreich getestet

Lesetipp Mittlerweile stehen Updates u.a. von Microsoft zur Schließung der Sicherheitslücken zur Verfügung. Das Zusammenspiel dieser Updates wurde mit allen aktuellen iQ.Suite Versionen erfolgreich getestet. Alle relevanten Informationen können Sie in unserem neuesten Knowledgebase Artikel lesen.

Google

Laut Google sind auch Android-Systeme von Smartphones gefährdet. Die hauseigenen Smartphones seien mit dem Android-Sicherheitsupdate vom 2. Januar geschützt. Die Androiden anderer Hersteller haben ein solches Sicherheitsupdate nach heutigem Stand (9.1.2017) noch nicht erhalten. Die Google-Produkte Chromecast, Home und Google Wifi sind angeblich nicht von Meltdown und Spectre betroffen. Googles Browser Chrome soll mit seiner angekündigten Version 64 die Angriffsmöglichkeiten immerhin abschwächen.

Microsoft

Microsoft hat (neben Amazon) damit begonnen, seine Cloud-Dienste mit Updates abzusichern. Am 4. Januar hat Microsoft zudem für Windows ein außerplanmäßiges Sicherheits-Update herausgegeben. Mit diesem soll verhindert werden, dass Meltdown über Funktionen in den Browsern Edge und Internet Explorer ausgenutzt werden kann. In einem aktuellen Blog-Beitrag (https://cloudblogs.microsoft.com/microsoftsecure/2018/01/09/understanding-the-performance-impact-of-spectre-and-meltdown-mitigations-on-windows-systems/) erklärt Microsoft-Vizepräsident Terry Myerson die Updates genauer und gibt auch Einschätzungen über Performance-Einbußen ab: Unter Windows Server können die erheblich sein.

Apple

Apple soll nach unbestätigten Berichten mit einem früheren Update für sein Betriebssystem Mac OS das Leck bereits teilweise geschlossen haben. Ansonsten tappen iOS-Nutzer noch im Dunklen: Apple äußerte sich bislang nicht (Stand: 9.1.2017), was mit iPhones und iPads ist. Auch diese laufen mit Prozessoren von ARM.

Der Beitrag Meltdown und Spectre: Der IT-Security-Supergau? erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Sandbox-Technologien gegen Cyber-Angriffe

15. Dezember 2017 Posted by Heiko Brenn

GBS Ratgeber zur Sandbox-Technologie gibt Tipps

Sandbox-Technologie Attacken aus dem Internet werden immer dreister, intelligenter und aggressiver. Ein Blick auf die Bedrohungslage durch Verschlüsselungstrojaner und andere Schadsoftware zeigt die Brisanz des Themas: Jedes zweite Unternehmen war in den letzten beiden Jahren in Deutschland von Datendiebstahl, Industriespionage oder Sabotage betroffen. Im Fokus der Angreifer stehen laut Bitkom-Studie Kommunikationsdaten wie E-Mails, Finanzdaten und Kundendaten.

Trotz zahlreicher Präventivmaßnahmen gelangen immer wieder (neue) Schädlinge in die IT-Netze von Unternehmen und legen ganze Infrastrukturen lahm. Klassische, signaturbasierte Antivirenlösungen können die neuen Schädlinge nicht mehr rechtzeitig identifizieren. E-Mail-Anhänge sowie Drive-by Downloads durch den Besuch von Webseiten gehören dabei zu den häufigsten Infektionswegen eines Systems mit Schadprogrammen. Mit der Zunahme der digitalen Kommunikation in allen Lebensbereichen müssen wir davon ausgehen, dass sich dieser Trend weiter verstärkt.

Sandbox-Technologie: Keine Sandkastenspiele

Sandbox-Technologie Glücklicherweise stehen mit der Sandbox-Technologie bereits effektive Gegenmaßnahmen zur Verfügung, die schädliche Software bereits vor dem Eindringen in das Netzwerk erkennt und blockiert. Auch wir haben diese Technologie schon vor einigen Monaten in unsere E-Mail-Managementlösung iQ.Suite integriert – genauer gesagt in das Antivirenmodul iQ.Suite Watchdog. Dateien und Dokumente werden in einer abgesicherten Cloud-Umgebung unter realen Bedingungen auf schadhaftes Verhalten untersucht. Hierbei wird auch hochentwickelte Malware erkannt, die ihr bösartiges Verhalten zu verschleiern versucht und erst nach einer bestimmten Zeit aktiv wird.

Ratgeber Sandbox – 10 Tipps für mehr Schutz vor Trojanern & Co.

Lesetipp Jetzt können Sie sich mit unserem eBook „Ratgeber Sandbox – 10 Tipps für mehr Schutz vor Trojanern & Co.“ tiefgehender über das Thema Sandbox, dessen Funktionen und Einsatzgebiete informieren. Das kostenlose eBook können Sie hier als PDF herunterladen.

In unserem Ratgeber erfahren Sie:

  • Was eine Sandbox vom Standard-Virenschutz unterscheidet
  • Wie eine Sandbox vor noch unbekannten Bedrohungen schützt
  • Wo die Unterschiede zwischen On-Premise und Cloud-Einsatz liegen
  • Bei welchen Dateitypen die größten Gefahren lauern
  • Wie die Sandbox mit anderen Schutzmaßnahmen zusammenspielt
  • Was Sie beim Datenschutz beachten sollten

640 Millionen Malware-Varianten

Im Sekundentakt entsteht neue Malware. Täglich kommen 390.000 Schadprogramme hinzu. Zum Vergleich: Alle vier Tage erscheint derzeit die gleiche Menge an neuer Schadsoftware wie im gesamten Jahr 2007.

Attacken auf Sicherheitslücken in Betriebssystemen

Sandbox-Technologie Windows ist die am häufigsten attackierte Plattform – 7 von 10 Angriffen adressieren Microsoft-Plattformen. Die Verschlüsselungstrojaner WannaCry und eine Abwandlung von Petya, der 2016 schon einmal aktiv war, bewiesen diesen Frühsommer eindrucksvoll, wie kritisch Sicherheitslücken für Unternehmen sind: Beide Erpressungstrojaner setzten auf eine Lücke in der Windows-Dateifreigabe (SMB). Zwei Tage reichten aus, um tausende Windows-Rechner in bis zu einhundert Ländern lahmzulegen. Auch die Zahl der bekannten Malware-Programme für Macintosh-Rechner erhöhte sich im dritten Quartal dieses Jahres um 240 Prozent gegenüber dem selben Zeitraum des Vorjahres. Damit scheint die Immunität von Apples Betriebssystem zu schwinden.

Das Problem vieler Virenprogramme

Sandbox-Technologie Verbreitet wurden WannaCry und das Petya-Remake über E-Mail. Ihren Siegeszug konnten sie antreten, weil sie für die meisten Virenscanner unerkannt blieben. Kennt ein Virenprogramm ein Angriffsmuster nicht, erkennt es einen Schädling nicht. Schon kleinste Veränderungen genügen, damit ein Virus vom Antivirenprogramm übersehen wird. Zwar updaten die Hersteller von Antivirenprogrammen ihre Lösungen schnell, von der Entdeckung eines neuen Schädlings bis zur Auslieferung einer aktualisierten Signaturdatenbank an die Antivirenlösung kann jedoch wertvolle Zeit verloren gehen.

Malware in SSL-verschlüsselten Daten

Zunehmend versteckt sich Malware in verschlüsselten Daten, um einer Erkennung durch Antivirensoftware zu entgehen. Die Menge an schädlichen Inhalten, die über verschlüsselten Datenverkehr transportiert wurde, hat sich in den letzten sechs Monaten mehr als verdoppelt.

Alte Masche in neuem Gewand: Mails mit manipulierten PDF-Anhängen

Sandbox-Technologie Kriminelle werden raffinierter und verstecken ihre Malware nicht mehr nur in manipulierten Office-Dateien, die sie einer E-Mail anhängen. Auch PDFs können ausführbaren Schadcode enthalten, der beispielsweise über die Kommentarfunktion eingebettet ist. So präpariert werden sie dann als E-Mail-Anhang versendet. Dieses Jahr fingen sich etliche Unternehmen auf diesem Weg die Erpressungstrojaner Locky oder Jaff ein! Schutzmechanismen, wie dem Standard-Viren- oder Spamschutz, gehen derartige Attacken durch die Lappen, weil sie PDF ignorieren oder nur das Blockieren verdächtiger Dateien erlauben.

Haben Sie bereits Erfahrungen mit Sandbox-Technologien? Ich freue mich über Ihre Kommentare und weitere Anregungen.

Der Beitrag Sandbox-Technologien gegen Cyber-Angriffe erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

ISG veröffentlicht Anbietervergleich im IT-Security-Markt

30. November 2017 Posted by Andreas Richter

ISG Banner

GBS ist ein führender Anbieter im IT-Security-Markt für Data Leakage Prevention

GBS: Vom Rising Star zum Leader für DLP

Weltweite IT-Angriffe mit Trojanern wie Petya und WannaCry oder großangelegte Phishing-Attacken haben im zurückliegenden Jahr eindrucksvoll bewiesen, wie vielfältig die Bedrohungen der IT-Sicherheit geworden sind. Die Einfallstore sind dabei keineswegs nur noch technische Schwachstellen von IT-Systemen. Zunehmend wird auch der Anwender zur kritischen Sicherheitslücke.

ISG Security Provider Lens Germany 2018: Hintergrund

Mit ihrem kürzlich veröffentlichten Anbietervergleich im IT-Security-Markt „ISG Security Provider Lens Germany 2018“ ist es der ISG (Information Services Group), einem führenden, globalen Marktforschungs- und Beratungsunternehmen im Informationstechnologie-Segment, nun gelungen, Anwender- und Anbieterunternehmen aktuelle Einblicke in den deutschen IT-Security-Markt zu geben. Im Rahmen eines mehrmonatigen Research-Prozesses untersuchte die ISG dafür die Leistungsfähigkeit der Anbieter von Security-Lösungen und -Services in Deutschland. Die Studie umfasst acht Marktkategorien und bewertet über 80 relevante Technologie- und Dienstleistungsanbieter. Deren Positionierung erfolgte nach Bewertung der Portfolioattraktivität und Wettbewerbsstärke anhand verschiedener Kriterien.

Mit dem Anbietervergleich im IT-Security-Markt möchten die Initiatoren IT-Entscheidern einen detaillierten und differenzierten Überblick zu den wichtigsten IT-Security-Anbietern in Deutschland geben. Er soll sie dabei unterstützen, Security-Budgets optimal einzusetzen. Denn nicht immer haben es IT-Verantwortliche leicht, das Risiko einer Bedrohung zu quantifizieren und folglich auch Investitionen in die IT-Sicherheit gegenüber der Geschäftsleitung zu begründen.

Marktkategorie Security Services & Solutions

IT-Security-Markt Security Solutions umfassen in dieser Studie entsprechende Hardware, Software und Software as a Service. Unterteilt wurden die Anbieter in diesem Markt in sechs Kategorien: Network Security, Cloud & Datacenter Security, Identity & Access Management, Pervasive & Predictive Security, Data Leakage/Loss Prevention sowie Security Information & Event Management. GBS konnte in der Kategorie Data Leakage Prevention überzeugen und wurde als Leader positioniert. Die ISG-Analysten sahen die Stärken der in Deutschland entwickelten E-Mail-Managementlösung insbesondere bei der 4-Augen-Prüfung, der Erkennung von sensiblen Inhalten in E-Mail-Texten und -Anhängen sowie in der Analyse von Verhaltensanomalien beim E-Mail-Versand.

Problem: Datenabfluss im Unternehmen

Aber zurück zum Thema Data Leakage/Loss Prevention (DLP). Es umfasst Lösungen und Strategien zur Identifizierung und Überwachung von sensiblen Daten. Ziel ist es, sicher zu stellen, dass diese nur autorisierten Benutzern zugänglich sind und es nicht zu Datenlecks kommt.

Insbesondere in der Geschäftswelt rückt deshalb die Kontrolle von Datenbewegungen immer stärker in den Brennpunkt. Denken Sie zum Beispiel an die IT-Trends Big Data, Social Business und Cloud Computing – hier werden schließlich enorme Datenmengen bewegt. Daneben steigt die Anzahl mobiler Endgeräte in Unternehmen. Jedes von ihnen verfügt nicht nur über eine eigene Verbindung ins Internet, so dass Daten ohne Nutzung des zentralen Internet Gateways versendet und empfangen werden können. Zusätzlich haben sie verschiedene Schnittstellen wie USB, Bluetooth, WLAN, NFC, über die ebenfalls Daten ausgetauscht werden können.

Und schließlich das beliebteste Kommunikationsmedium in Unternehmen überhaupt: die E-Mail. Wer an E-Mail Sicherheit denkt, verbindet damit häufig nur Viren- und Spamschutz. Generell liegt in vielen Unternehmen der Fokus auf der eingehenden Kommunikation. Risiken, die bei unkontrollierter Kommunikation von innen nach außen lauern, werden nur selten wahrgenommen. Die Praxis zeigt aber, dass gerade der Verlust von sensiblen Informationen, das arglose Versenden von personenbezogenen Daten und die Missachtung von Vorschriften, beispielsweise zum Schutz von Kundendaten, immer größere Probleme bereitet. Wo früher der Diebstahl von Kundendaten noch via USB-Stick oder selbst gebrannten DVDs stattfand, haben es Datendiebe heute dank E-Mail leider sehr viel leichter. Kundendaten mit einem sehr viel größeren Umfang lassen sich mit einem Klick als Anhang an eine E-Mail anfügen und versenden.

Zusätzlich zu den Risiken durch Datentransfers via E-Mail haben soziale Netzwerke und andere Social-Media-Plattformen Kommunikationskanäle eröffnet, über die Daten abfließen können.

Herausforderung: Datenabfluss erkennen

IT-Security-Markt Tatsächlich stehen viele Unternehmen vor der Herausforderung, Datendiebstahl und Compliance-Verstöße überhaupt zu erkennen – insbesondere dann, wenn die Datendiebe bereits im Haus sind, weil sie die Firewall überwunden haben oder es sich bei ihnen um aktuelle (oder ehemalige) Mitarbeiter des Unternehmens handelt. Denken Sie zum Beispiel an die unzähligen E-Mails, die täglich versendet werden: Wissen Sie, welche Daten Ihr Unternehmen per E-Mail verlassen? Können sie ausschließen, dass schützenswertes Know-how dabei ist? Sind Mechanismen etabliert, die den illegalen Versand – ob beabsichtigt oder versehentlich – von Kundendaten blockieren? Und: Gibt es ein Notfallplan, der im Falle einer Datenpanne genau regelt, was wann von wem zu tun ist?

Lösung: Datenabfluss aufspüren und blockieren

In Zeiten, in denen die Kontrolle von Datenbewegungen und Datentransfers für Unternehmen ein komplexes und schwieriges Unterfangen ist, kommt Lösungen im Umfeld von Data Loss Prevention eine wachsende Bedeutung zu. Eine leistungsfähige DLP-Lösung muss demnach in der Lage sein, Daten schnell aufzuspüren, zu klassifizieren und entsprechend ihres Schutzbedarfs vor unerlaubten Aktionen wie Kopieren oder Verschieben schützen. Obendrein müssen Daten daran gehindert werden, das Unternehmensnetzwerk unerlaubt zu verlassen.

Vom Rising Star zum Leader

Zuletzt hatte ISG (damals noch als Experton Group) den deutschen Markt für DLP vor zwei Jahren analysiert. In dieser Zeit hat das Thema weiter an Brisanz zugelegt: Mit Blick auf Social Media und Collaboration Tools erkennen Unternehmen beim Thema E-Mail-Sicherheit, dass es nicht ausreicht, nur an eingehende E-Mails und den Schutz vor Viren und Spam zu denken. Insbesondere beim Stichwort Data Leakage Prevention muss zwingend der Versand von E-Mails in das Sicherheitskonzept einbezogen werden.

Die ISG identifizierte im deutschen Markt 21 Unternehmen als relevante Anbieter für Data Leakage/Loss Prevention. Nachdem die ISG nun die Bewertungskriterien verschärft und der Kreis der betrachteten Provider auf die hierzulande relevantesten Anbieter beschränkt hat, ergaben sich einige Veränderungen in der Positionierung der Anbieter. Obwohl es nunmehr insgesamt weniger Anbieter in den Leader-Quadranten geschafft haben, konnten wir unsere Marktposition verbessern und vom „Rising Star“ zum Leader aufsteigen.

Zwei wesentliche Gründe waren für unsere Positionierung ausschlaggebend: Als deutsches Unternehmen haben wir sowohl IT-Sicherheitsforschung als auch -entwicklung in Deutschland angesiedelt – ein wichtiger vertrauensbildender Faktor gerade bei Kunden aus dem Mittelstand. Zudem haben die technologische Weiterentwicklung unserer Lösung in den letzten Monaten und die Fokussierung auf die Verbesserung der Datensicherheit zur verbesserten Positionierung beigetragen. Gerade vor dem Hintergrund der kommenden EU-DSGVO gewinnt das Thema Datenschutz weiter an Bedeutung. Die Erkennung und Vermeidung von Datenschutzvorfällen ist daher ein wichtiger Aspekt, den wir mit der iQ.Suite realisieren.

Erfahren Sie mehr über iQ.Suite DLP

Bewertung im Detail

Die Positionierung als Leader begründet die ISG mit den Stärken von iQ.Suite DLP. Als Lösung zur Kontrolle von Informationsabflüssen durch E-Mails überzeugte unsere iQ.Suite deshalb besonders mit der Erkennung von sensiblen Inhalten wie beispielsweise Kreditkartendaten oder Kundennummern in E-Mail-Texten und -Anhängen sowie in der Analyse von Verhaltensanomalien im E-Mail-Fluss. Hierzu sammelt iQ.Suite DLP über einen definierten Zeitraum Informationen über die Anzahl und Größe der normalerweise versendeten E-Mails und gleicht diese mit dem aktuellen Verhalten der Anwender ab. Auf diese Weise kann ein überproportionaler Anstieg des E-Mail-Volumens oder den Versand großer Datenmengen entdeckt werden – beides übrigens Anzeichen für den Abfluss vertraulicher Inhalte.

IT-Security-Markt Ein weiterer wesentlicher Punkt in der Bewertung war zudem der Umgang mit den E-Mails, die tatsächlich vertrauliche Inhalte enthalten: Diese von der Software identifizierten E-Mails werden in ihrem Versand gestoppt und in Quarantäne verschoben. Erst nach einer 4-Augen-Prüfung durch eine zuvor definierte Person, beispielsweise den Datenschutzbeauftragten des Unternehmens, erfolgt die finale Entscheidung über den Versand oder die Blockierung der E-Mail.

Als deutscher Anbieter haben wir bei iQ.Suite DLP zusätzlich höchsten Wert auf Datenschutz gelegt: In Verbindung mit der konfigurierbaren Datenlöschung nach einem festgelegten Zeitraum wird sichergestellt, dass auch geltende Datenschutzbestimmungen eingehalten werden.

iQ.Suite DLP – Intelligenter Schutz vor Datenklau

LesetippSie möchten mehr über unsere für Microsoft Exchange, Office 365 und IBM Domino Verse verfügbare iQ.Suite DLP erfahren? Informieren Sie sich auf unserer Produktseite oder kontaktieren Sie unsere Mitarbeiter aus dem Fachbereich E-Mail-Management unter: +49 (0)721 4901-0 oder an info@de.gbs.com.

Der Beitrag ISG veröffentlicht Anbietervergleich im IT-Security-Markt erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Der Arbeitsplatz von morgen am historischen Wendepunkt

16. November 2017 Posted by Diana Jensen

Arbeitsplatz der Zukunft Banner

Der „Arbeitsplatz der Zukunft“ in Zahlen

„Durch Arbeiten lernt man arbeiten.“ Friedrich Wilhelm der Große (1620 – 1688)

Der Arbeitsplatz von morgen ist ein Thema, das uns alle bereits seit einiger Zeit beschäftigt und uns wohl auch noch etliche Jahre begleiten wird. Von überall aus auf sämtliche Informationen zugreifen, flexible Arbeitszeiten, die Vereinbarkeit von Beruf und Freizeit – all das sind Schlagworte, die uns immer wieder unterkommen, wenn wir an den Arbeitsplatz der Zukunft denken.

Dabei gibt es nicht einmal eine feste Definition, was der „Arbeitsplatz der Zukunft“ eigentlich ist. Stattdessen wird für jede Position und Rolle eine individuelle Lösung gesucht, die sich effizient bereitstellen und steuern lässt. Dem einen reicht eine Software, der andere braucht eine umfassende Vision. Fakt ist: Die digitale Transformation beschleunigt das Thema. Organisationen, Technologien und Kulturen verändern sich gewaltig. Unternehmen und Arbeitnehmer stehen gleichermaßen vor komplexen und vielfältigen Anforderungen, die bei der Schaffung zukunftsfähiger Arbeitsplätze berücksichtigt werden müssen.

Arbeitsplatz von morgen Welche Herausforderungen das sind und wie Lösungsansätze aussehen können, dazu hat das Telekommunikationsunternehmen sipgate gemeinsam mit dem Umfrageinstitut IDG Research Services und weiteren Unternehmen die Studie „Arbeitsplatz der Zukunft” entwickelt. Befragt wurden 1.500 Unternehmen und Mitarbeiter zu ihren Vorstellungen über den Arbeitsplatz der Zukunft. Im heutigen Blogartikel haben wir Ihnen die – unserer Meinung nach – wichtigsten Ergebnisse des 76 Seiten umfassenden Papiers zusammengefasst.

Die Herausforderungen

Arbeitsplatz von morgen Der Arbeitsplatz von morgen wird als eine der wichtigsten Herausforderungen wahrgenommen. Er rangiert gleich hinter dem Dauerbrenner IT-Sicherheit und vor den klassischen Aufgaben Personal, Produktion und Vertrieb. Der Abstand zu Hype-Themen wie Analytics, Internet of Things und Industrie 4.0 ist überraschend groß.

Dabei steht und fällt nach Einschätzung von mehr als der Hälfte der befragten Unternehmen (52 Prozent) der Arbeitsplatz der Zukunft mit der IT-Infrastruktur. Die technologischen Herausforderungen, die sich daraus ergeben, sind vor allem die Sicherheit der Daten (51 Prozent), Security (47 Prozent) sowie die Betriebssicherheit (39 Prozent).

Der Status Quo

Auf dem Weg zum Arbeitsplatz der Zukunft sehen sich 20 Prozent der befragten Firmen als Vorreiter. 40 Prozent sehen ihre Entwicklung bereits weit fortgeschritten – der Rest steckt nach eigenen Angaben noch in den Kinderschuhen. Als Grund geben sie übergreifende Faktoren an: keine Strategie, keine passende Organisation und vor allem keine Priorität. Immerhin: 36 Prozent der befragten Unternehmen haben eine unternehmensweite Strategie zur Umsetzung neuer Arbeitsplatz- und Mobilitätskonzepte.

Die Investitionen in den Arbeitsplatz von morgen

In diesem Zusammenhang wollten insgesamt rund 80 Prozent der befragten Unternehmen in den kommenden zwölf Monaten in ihre Infrastruktur investieren, um flexibleres und mobileres Arbeiten zu ermöglichen. Ein Drittel von ihnen plant Investitionen für die gesamte Organisation, knappe 50 Prozent für einige Unternehmensbereiche. Lediglich 15 Prozent der Unternehmen wollen nicht in die Infrastruktur für den Arbeitsplatz von morgen investieren.

Verschiedene Sichtweisen

Arbeitsplatz von morgen 57 Prozent der befragten Unternehmen assoziieren mit dem Wandel in erster Linie Mobilität und Technologie. Das „Überdenken“ von Arbeitszeiten und Arbeitsorten folgt bei ihnen an zweiter Stelle (47,7 Prozent). Getrieben wird dies einerseits durch den Wunsch vieler Mitarbeiter nach Flexibilität, andererseits aber auch durch die Notwendigkeit zur Integration räumlich getrennter und nach Bedarf zusammengestellter Teams. Automatisierung, Robotics und Künstliche Intelligenz spielen mit rund 28 Prozent der Nennungen nur eine untergeordnete Rolle beim Stichwort „Arbeitsplatz der Zukunft“.

Mitarbeiter hingegen beschäftigt vor allem Arbeitszeitmodelle und wo sie in Zukunft arbeiten. Die Begriffe Home, Remote und Mobilität liegen in den Nennungen mit rund 79 und 73 Prozent weit vorne. Erst mit einigem Abstand folgt die verstärkte Nutzung technischer Möglichkeiten. Insbesondere einzelne technische Aspekte wie Devices und Cloud-Nutzung interessiert kaum. Für Mitarbeiter steht der Arbeitsplatz der Zukunft vor allem für Veränderung der Unternehmenskultur sowie neue Formen der Zusammenarbeit.

Mitarbeiter zwischen Wunsch und Wirklichkeit

Arbeitsplatz von morgen Zwei Drittel aller Arbeitnehmer wünschen sich flexible Arbeitszeitmodelle – und den standortunabhängigen Zugriff auf alle Daten. Tendenziell präferieren zwar die jüngeren Menschen flexible Arbeitszeiten für eine bessere Work-Life-Balance. Doch auch bei den über 50-jährigen Mitarbeitern liegt der Punkt unangefochten an der Spitze. Der Dienstwagen schafft hingegen gerade so die Fünf-Prozent-Hürde.

Neben der flexiblen Arbeitszeit dominieren vor allem technische Themen das Spitzenfeld, etwa zum Datenzugriff oder zur Netzwerkanbindung. Jedoch ist nur jeder fünfte Arbeitsplatz so, wie ihn sich die Mitarbeiter vorstellen: Vier von fünf Arbeitnehmer sitzen nach eigener Einschätzung noch nicht an einem Arbeitsplatz der Zukunft. Insbesondere gibt es einen Unterschied zwischen den Einschätzungen der IT und den eigenen Erfahrungen, was Stabilität und Performance der Netzwerkverbindung betrifft.

Kommunikation und Collaboration beim „Arbeitsplatz der Zukunft“

Arbeitsplatz von morgen Die gute Nachricht: Ein Großteil der Firmen, die Mobilität und Flexibilität fördern wollen, hat bereits notwendige Tools im Einsatz. Ob dies jedoch die optimalen Werkzeuge für den Einsatzzweck eines jeden Mitarbeiters sind, steht auf einem anderen Blatt.

Platz 1 der aktuell verwendeten Tools für die Zusammenarbeit belegt die gute alte Telefonkonferenz. Auch Workgroup-Lösungen sind etabliert. Video- und Web-Konferenzen bekommen ebenfalls hohe Werte beim Einsatz. Den größten Bedarf sehen Unternehmen bei den Punkten „Self Help“ und „Collaborative Reviewing“. Zum einen sollen die Mitarbeiter in die Lage versetzt werden, den grundlegenden Support selbst zu leisten – etwa abends oder unterwegs. Zum anderen geht es um die gemeinsame, gegebenenfalls auch zeitgleiche Arbeit an Business-Dokumenten, was über das reguläre Filesharing hinausgeht.

Klarer Sieger beim Bedarf in der Belegschaft ist das Online-Projektmanagement. Mit steigender Mitarbeiterzahl und IT-Budget der Organisation, wächst auch die Nachfrage nach derartigen Tools. Self Help ist unter Mitarbeitern ebenfalls gefragt – wohl um Probleme ohne den offiziellen Support lösen zu können. Interessant: Selbst Wikis „wären nützlich“. Dabei sind die in relativ vielen Organisationen bereits im Einsatz. Möglicherweise besteht hier also ein Optimierungsbedarf von Wikis der ersten Generation.

Risiken und Nebenwirkungen

Arbeitsplatz von morgen Viele Chancen, viele Hoffnungen – bei so viel Licht müssen wir auch über den Schatten sprechen: Welche Ängste haben Unternehmen und Mitarbeiter? Überraschenderweise sind die ersten drei Plätze in der Bewertung von Unternehmen und Mitarbeitern deckungsgleich. Sowohl bei Unternehmen als auch bei Arbeitnehmern liegt die Befürchtung, dass die Abhängigkeit von IT und Internetverbindung zunimmt, auf Rang 1. Während also die Angst überwiegt, phasenweise nicht mehr über das Internet arbeiten zu können, also offline und damit unproduktiv zu sein, wird gleichzeitig auf das Risiko der permanenten Verfügbarkeit als Erwartungshaltung der „Kunden“ verwiesen. Das wiederum bedeutet nichts anderes, als dass Beschäftigte den Arbeitsplatz der Zukunft nur dann als positiv empfinden, wenn sie sich auf die Connectivity verlassen können.

Ebenfalls große Sorge bereitet Mitarbeitern der anstehende Wandel der Arbeitszeitmodelle. Wünschen sie sich einerseits – wie oben erwähnt – flexiblere Arbeitszeiten, so stehen Befürchtungen im Raum, dass der Einzelne weniger Freizeit haben wird (Stichwort: mehr Selbstausbeutung) und Unternehmen Festanstellungen scheuen werden, um so das unternehmerische Risiko zu verlagern. Hinzu kommt die höhere Transparenz der eigenen Leistung durch neue Technologien.

Reichlich Potenzial: Einbeziehung von Beschäftigten

Arbeitsplatz von morgen Als wichtigstes Erfolgskriterium für die Transformation zum Arbeitsplatz der Zukunft gilt die frühzeitige und umfassende Einbeziehung der Mitarbeiter. Bei den Antworten von Unternehmen und Belegschaft zeigt sich, dass es an dieser Stelle noch viel Verbesserungspotenzial gibt. Nur ein knappes Drittel der Unternehmen (31 Prozent) informiert seine Arbeitnehmer regelmäßig über den Prozess der Transformation. Aber gerade, um Befürchtungen der Mitarbeiter bezüglich drohender Risiken aufzugreifen, ist eine umfassende Kommunikation notwendig.

Die Führungskraft von morgen

Abschließend noch ein Blick auf die Führungskraft von morgen. Nach Ansicht von 80 Prozent der für die Studie befragten Mitarbeiter sollen moderne Führungskräfte vor allem kommunikativ sein. Für 71 und 69 Prozent stehen Skills wie Teamentwicklung sowie Mitarbeiterorientierung ebenfalls ganz oben auf der Wunschliste. Hingegen landen Change-Management-Skills mit 36 Prozent und Kundenorientierung mit 35 Prozent als Kriterien für Führungskräfte im hinteren Drittel. Angesichts des anstehenden Wandels infolge der digitalen Transformation, durch die der Kunde in den Mittelpunkt rücken soll, sind die Werte überraschend niedrig.

Der moderne Arbeitsplatz der Zukunft

LesetippBereits 2015 veröffentlichten wir in unserem Blog einen Artikel über die Veränderung der Arbeitswelt durch Digitalisierung und Mobilität. Sieben Trends ließen sich erkennen, die wir Ihnen vorstellten. Diese können sie hier noch einmal lesen. Entscheiden Sie selbst, ob und aus welchen Trends bereits Realität geworden ist.

Der Beitrag Der Arbeitsplatz von morgen am historischen Wendepunkt erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Yougov-Studie: Die Angst der Deutschen vor Cyber-Attacken

27. Oktober 2017 Posted by Andreas Richter

Yougov Banner

Deutsche sehen hohes Risiko für Unternehmen

Klartext bitte!

Großangelegte und weltweite Cyberangriffe auf Unternehmen mit Schädlingen wie Petya und WannaCry – und das innerhalb weniger Wochen – haben uns nachhaltig geschockt. Auch Attacken auf Nutzerkonten von Yahoo oder das Datennetz der Telekom haben uns allen gezeigt, wie verwundbar unsere vernetzte Welt ist.

Bei Unternehmen, aber auch bei Verbrauchern, haben die Angriffe Verunsicherung und teils große wirtschaftliche Schäden hinterlassen. Allein die Großreederei Maersk beispielsweise schätzt den durch die WannaCry-Attacke hervorgerufenen Schaden auf über 300 Millionen Euro. Die Ransomware hatte die Computersysteme des Unternehmens lahmgelegt und so für wochenlange Unterbrechung der Container-Schifffahrt gesorgt. Und vielleicht sind Sie selbst Telekom-Kunde und auch Ihr Internet- und Telefonanschluss war aufgrund des Angriffs auf „Speedport“-Router im vergangenen Jahr gestört.

Aber wenn nicht einmal mehr Großkonzerne, die viele Millionen für ihre Sicherheit ausgeben, sich nicht sicher fühlen können, wie steht es dann um die Verbraucher? Welche Ängste und Bedürfnisse haben sie eigentlich?

Angst der Deutschen vor Datendiebstahl

Angst der Deutschen Wie die aktuelle Studie „Vorsicht, Hacker“ des internationalen Marktforschungs- und Beratungsinstituts YouGov jetzt belegt, bezieht sich die Angst der Deutschen im Falle einer Cyberattacke auf ein Unternehmen, bei dem sie Kunde sind, mehr auf Datendiebstahl (80 Prozent) und Identitätsdiebstahl (71 Prozent) als auf finanzielle Schäden (55 Prozent) oder Service-Ausfälle (55 Prozent). Gerade besser Gebildete (83 Prozent) und Menschen ab 55 Jahren (85 Prozent) sehen diese Punkte kritisch. Laut Studie haben zwar nur 25 Prozent der Befragten überhaupt mitbekommen, ob ein Unternehmen überhaupt Opfer von Cyber-Kriminalität geworden ist. Diese Kunden sind dann aber besonders verunsichert: Bei 55 Prozent verringert sich das Vertrauen in Unternehmen, die häufig Opfer von Attacken werden. 38 Prozent könnten sich sogar vorstellen, in diesem Falle die Marke oder das Produkt zu wechseln.

Verunsichert und wenig informiert

Angst der Deutschen Tatsächlich fühlen sich die Deutschen mit ihren Fragen und Ängsten in Bezug auf Datendiebstahl allein gelassen: Fast Dreiviertel der Befragten (70 Prozent) hat den Eindruck, dass es in jüngster Zeit zwar immer neue Attacken, aber keine sinnvollen Gegenmaßnahmen gibt. Nur jeder Fünfte fühlt sich über die Folgen von Cyber-Attacken auf Unternehmen und deren Auswirkungen auf Kunden grundsätzlich gut informiert. Wie ein Angriff genau funktionierte, welche Nutzer konkret gefährdet sind und welche Schäden ihnen entstehen können oder wie sie als Nutzer nun reagieren sollen: All diese Fragen finden zu wenig Beachtung und spielen nur eine Nebenrolle.

Wunsch nach mehr Tipps von Unternehmen

Dabei sucht mehr als jeder zweite Deutsche (57 Prozent) bei Unternehmen, die Opfer einer Cyberattacke geworden sind, Informationen über die Auswirkungen auf sie als Kunden. Wie das Unternehmen den Schaden beseitigt ist hingegen zweitrangig – nur 43 Prozent der Befragten gab an, sich dafür zu interessieren.

Konkret bedeutet das: 49 Prozent der Deutschen wünscht sich von Unternehmen mehr Tipps zum zusätzlichen Selbstschutz. Erst mit einigem Abstand folgen technische Details wie Updates über Sicherheitsmaßnahmen des Unternehmens (43 Prozent) oder Informationen über den entstandenen Schaden (42 Prozent). Die rechtlichen Konsequenzen, wie Informationen zu Entschädigungen für Kunden oder strafrechtliche Maßnahmen gegen die Verursacher des Angriffs sind den Deutschen dagegen weniger wichtig.

Schlechte Noten für Regierung und Unternehmen

Angst der Deutschen Laut Studie haben die Deutschen einen hohen Informationsbedarf zum Thema Cyber-Risiken. Nur jeder Zehnte sagt, dass er bereits genügend Informationen zu diesem Thema erhält. Dabei nehmen sie weniger Tageszeitungen und (Fach-) Zeitschriften in die Pflicht, sondern vor allem Regierungseinrichtungen sowie die Branchen und Unternehmen, die sie für besonders gefährdet halten. So erwarten 45 Prozent klare Aussagen von der Regierung und Regierungsorganisationen, 44 Prozent wünschen sich mehr Informationen von Internet- und Telekommunikationsanbietern zum Thema Cyber-Risiken und 41 Prozent wollen mehr Information von Banken erhalten. Mehr Auskunft geben sollen auch E-Mail- und andere Service-Anbieter (33 Prozent).

Cyber-Angriff ist nicht gleich Cyber-Angriff

Unternehmen, die angesichts dieser Ergebnisse untätig bleiben, laufen Gefahr, ihre Kunden weiter zu verunsichern oder gar zu verlieren. Denn zwar verstehen viele Verbraucher die Relevanz einer Cyber-Attacke auf Unternehmen, aber nicht deren Tragweite für sie als Kunden. Allein die Verwendung des Sammelbegriffs „Hackerangriff“ zeigt, wie vielschichtig das Thema ist – denn nicht alle Cyber-Angriffe auf Unternehmen sind in gleichem Maße auch bedrohlich für deren Kunden. WannaCry beispielsweise versuchte Computernutzer zu erpressen, indem der Schädling eine Sicherheitslücke in Windows ausnutzte. Der Angriff auf das Telekom-Netzwerk im November 2016 hingegen war eine gezielte Attacke auf Schwachstellen in Routern. Die Server des Unternehmens Yahoo – und nicht die Computer von Privatpersonen – waren Ziel der massiven Datendiebstahl-Attacke im Herbst 2016.

Die Kommunikation im Krisenfall entscheidet über Kompetenz

Angst der Deutschen Das Beispiel zeigt: Verhältnismäßig harmlose Angriffe zu dramatisieren und mit großangelegten Kampagnen zur Kundenberuhigung zu beantworten, ist genauso wenig souverän, wie die Angst der Deutschen zu vertuschen, bzw. die Verunsicherung von Kunden zu ignorieren. Um sie nicht weiter zu verunsichern oder gar an die Konkurrenz zu verlieren, brauchen Unternehmen deshalb eine geeignete Kommunikationsstrategie.

Allerdings: DIE eine richtige Strategie gibt es dabei nicht. Vielmehr sollten die Besonderheiten der jeweiligen Branche und ihrer Kundengruppen Berücksichtigung in der Informationsgabe finden. Dass Kunden verschiedener Branchen unterschiedliche Bedenken gegenüber Cyber-Angriffen haben, zeigt ebenfalls die YouGov-Studie: So halten 85 Prozent der Windows-Nutzer Diebstahl für ein besonders kritisches Risiko bei Cyber-Attacken auf Unternehmen. Zwei Drittel der Telekom-Kunden hingegen halten den Ausfall der Infrastruktur als besonderes Risiko. Besonders Facebook-Nutzer (31 Prozent) wünschen sich künftig mehr Informationen zu Angriffen auf soziale Netzwerke. Und ganze 36 Prozent der Direktbankkunden würden infolge von Cyber-Attacken eher das Unternehmen wechseln als Filialbankkunden.

Fazit

Die Angst der Deutschen bezieht sich hautsächlich auf Unternehmen, die Gefahr laufen, Ziel eines Cyber-Angriffs zu werden. Fast ein Drittel von ihnen zeigt sich durch Angriffe auf Unternehmen stark verunsichert. Ein Viertel gibt dafür der Berichterstattung in den Medien die Schuld.

Unternehmen müssen deshalb selbst aktiv werden und den Informationsbedarf ihrer (potentiellen) Kunden stillen. Wer allerdings für seine Branche nicht die nötigen Feinheiten, Ängste und Bedürfnisse ermittelt, riskiert beim Thema Cyber-Sicherheit wenig kompetent und nicht vertrauenswürdig zu agieren. Nur zu beruhigen, wenn Kunden einen klaren Handlungsdruck erwarten – gemäß dem Motto: „Das müssen Sie jetzt tun“ – wäre dann genauso falsch, als wenn in der Kommunikation die falschen Schwerpunkte gesetzt und nicht benötigte Informationen verteilt werden.

Kostenloser Guide: So schützen Sie sich vor Krypto-Trojanern

LesetippUnser kostenloser Ratgeber informiert Sie, wie Sie sich effizient vor WannaCry, Petya & Co. schützen und welche Maßnahmen Sie konkret bei einem Befall erfreifen können.

Der Beitrag Yougov-Studie: Die Angst der Deutschen vor Cyber-Attacken erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Weltweit angelegte Ponemon-Studie: Die Kosten der Datenpannen 2017

13. Oktober 2017 Posted by Robert Becker

Banner Ponemon Studie

Auf dem richtigen Weg: In Deutschland sinken die Kosten der Datenpannen 2017

Jeder verlorene Datensatz kostet ca. 150 Euro

Erfreuliche Nachrichten kamen unlängst von IBM: Die Kosten der Datenpannen sind im Jahr 2017 global gesehen um zehn Prozent auf 3,62 Millionen Dollar zurückgegangen. In Deutschland sanken die Kosten dabei auf 3,42 Millionen Euro. Das entspricht einem Rückgang von 5,4 Prozent im Vergleich zum Vorjahr. Pro verlorenem Datensatz mussten durchschnittlich 149 Euro investiert werden, was einem Kostenrückgang um 3,3 Prozent entspricht.

Das geht aus der von IBM gesponserten „Cost of Data Breach“-Studie 2017 des Ponemon Instituts hervor. Die jährliche Studie untersucht die direkten und indirekten Kosten, die Unternehmen bei der Reaktion auf Datenpannen entstehen und gibt ein umfassendes Bild zu Kosten von Datenpannen ab. Im heutigen Artikel fassen wir die wichtigsten Ergebnisse zusammen. An der Studie haben 419 Unternehmen aus elf Ländern und zwei Regionen, darunter auch 35 deutsche, teilgenommen.

Ein europäisches Phänomen

Kosten der Datenpannen Nicht nur in Deutschland, in ganz Europa sanken in diesem Jahr die Gesamtkosten bei erfolgreichen Cyberattacken um 26 Prozent. Deutlich sinkende Kosten im Fall einer Datenpanne konnten vor allem auch Frankreich, Italien und Großbritannien verzeichnen.

EU-DSGVO zeigt bereits Wirkung

Begründet liegt der Rückgang in verbesserten technischen und organisatorischen Maßnahmen der Unternehmen: Die durchgängige Datenverschlüsselung, Mitarbeiterschulungen und der Einsatz von sogenannten Incident Response-Teams, also Notfallteams, deren Aufgabe in der schnellen und effizienten Analyse und Reaktion bei Sicherheitsvorfällen liegt, haben die Kosten bei Datenlecks reduziert.

Kosten der Datenpannen IBM Security sieht in dem europaweiten Kostenrückgang vor allem einen Zusammenhang zwischen der Reaktion auf Regulierungsvorschriften in Europa und den Gesamtkosten von Datenpannen. Europäische Unternehmen unterliegen strengen Meldevorschriften, was Datenpannen betrifft. Die bisher in Europa geltenden Datenschutzgesetze gehen zurück auf die EU-Datenschutzrichtlinie aus dem Jahr 1995 (Richtlinie 95/46/EG). Diese wird mit Anwendung der Europäischen Datenschutzgrundverordnung (DSGVO) im Jahr 2018 abgelöst. Unternehmen aller Größen und Branchen, die in der EU ansässig sind oder personenbezogene Daten von EU-Bürgern verarbeiten, müssen sich an die gleichen strengen Vorschriften halten. Um den neuen Anforderungen gerecht zu werden, haben viele Unternehmen bereits mit der Umsetzung technischer und organisatorischen Maßnahmen entlang dem gesetzlich vorgeschrieben „Stand der Technik“ begonnen. „Es ist erkennbar, dass die neue Datenschutzgrundverordnung europäische Unternehmen zum Handeln anhält“, sagt Christian Nern, Head of Security Software DACH bei IBM Deutschland.

Kosten der Datenpannen in den USA doppelt so hoch wie in Deutschland

Kosten der Datenpannen Schaut man sich allerdings Länder außerhalb Europas an, zeigt sich ein gänzlich anderes Bild. Zu den Verlierern gehören laut Studie ganz klar die USA, der Mittlere Osten, Japan, Südafrika und Indien. Hier mussten Unternehmen und Organisationen bei Datenlecks steigende Kosten verzeichnen. Am teuersten sind Datenpannen in den USA: Jeder verlorene Datensatz kostete amerikanische Unternehmen 225 Dollar, die Gesamtkosten lagen mit durchschnittlich 7,35 Millionen Dollar mehr als doppelt so hoch wie in Deutschland. Das entspricht einem Anstieg der Kosten im Vergleich zum Vorjahr um fünf Prozent.

Während in Europa bald ein einheitlicher Schutz von EU-Bürgern bei der Verarbeitung personenbezogener Daten, unabhängig von Staatsangehörigkeit oder Aufenthaltsort, verpflichtend gilt, haben in den USA beispielsweise 48 von 50 Staaten eigene Datenpannengesetze verabschiedet. Folglich müssen US-amerikanische Unternehmen im Gegensatz zu europäischen eine Vielzahl von Vorschriften beachten und sich darauf vorbereiten. Dies kann laut Studie große Kosten verursachen und wertvolle Ressourcen verschlingen.

Gesundheitssektor hat die höchsten Kosten der Datenpannen

Kosten der Datenpannen Schon zum siebten Mal in Folge führt der Gesundheitssektor die Rangliste der Branchen mit den teuersten Datenpannen an. Der Diebstahl von Gesundheitsdaten kostet laut Studie 380 Dollar pro Datensatz. Das sind 2,5-mal so viel wie im globalen Branchendurchschnitt von 141 Dollar pro Datensatz! Auf den Rängen zwei und drei folgen der Finanzsektor mit 245 Dollar und der Dienstleistungssektor mit 223 Dollar. Die niedrigsten Kosten je verlorenen oder gestohlenen Datensatz weisen übrigens die Sektoren Forschung mit 101 Dollar und der öffentliche Sektor mit 71 Dollar aus.

Die meisten Datenverletzungen gehen auf das Konto von Hackern und kriminellen Insidern

Kosten der Datenpannen Fast die Hälfte aller Studienteilnehmer (47 Prozent) gaben als Hauptursache für Datenpannen bösartige oder kriminelle Angriffe an. Die durchschnittlichen Kosten je entwendetem Datensatz beliefen sich hierbei auf etwa 156 Dollar. Im Gegensatz dazu haben Systemfehler und menschliches Fehlverhalten beziehungsweise Fahrlässigkeit nur zu Kosten von 128 Dollar und 126 Dollar je entwendetem oder verlorenem Datensatz geführt.

Auf das Konto von Hackern und kriminellen Insidern gehen Datenpannen insbesondere in den USA und in den Ländern des Mittleren Ostens. Während dort 52 und 59 Prozent der Datenverluste auf böswillige Angriffe zurückzuführen sind, sind in Italien und Südafrika nur jeweils 40 Prozent derartiger Attacken Grund für Datenpannen. Allerdings gehen in italienischen Unternehmen – neben asiatischen – vergleichsweise die meisten Datenverluste auf menschliches Fehlverhalten zurück (36 Prozent). Deutsche und indische Organisationen waren dagegen mit 34 Prozent am ehesten von Datenpannen durch Systemfehler oder Fehlern in digitalen Geschäftsprozessen betroffen.

Zeit ist Geld

Kosten der Datenpannen Je schneller Cyberattacken eingedämmt werden können, desto besser. Denn die Geschwindigkeit hat direkten Einfluss auf die Kosten der Datenpannen. Laut Studie waren die Kosten bei Unternehmen, die Datenpannen innerhalb eines Monats beheben konnten, um eine Million US-Dollar niedriger als bei Unternehmen, deren Datenpanne länger als einen Monat andauerte.

Sobald im Mai 2018 die EU-DSGVO in Kraft tritt, wird die Reaktionsgeschwindigkeit noch einmal zulegen: Dann müssen Unternehmen, die in Europa ihre Geschäfte machen, Datenpannen binnen 72 Stunden melden, wollen sie keine Strafen zahlen. Und die Bußgelder sind hoch: Bis zu vier Prozent des weltweiten Jahresumsatzes oder 20 Millionen Euro – je nachdem, was höher ist – werden bei Zuwiderhandlung fällig. Der Status Quo sieht bei den meisten Unternehmen allerdings noch nicht gut aus: Im Schnitt benötigen Unternehmen noch mehr als sechs Monate, um Datenpannen zu entdecken. Um diese zu beheben, brauchen sie dann noch einmal weitere 66 Tage – hier heißt es also unbedingt Fahrt aufnehmen.

Reduzierung der Kosten durch technische und organisatorische Maßnahmen

Kosten der Datenpannen Die Schnelligkeit, mit der eine Cyberattacke identifiziert und eingedämmt werden kann, hängt dabei zu großen Teilen von der Nutzung eines Incident-Response-Teams (IR-Teams) und einem Incident-Response-Notfallplan ab. Diese IT-Fachleute können Unternehmen bei komplizierten Cyberattacken unterstützen und so weiteren Verlusten vorbeugen. Und dass sie ihr Geld wert sind, zeigen die Zahlen: Wie aus der Studie hervorgeht, kann der Einsatz von IR-Teams die Kosten von Datenpannen deutlich reduzieren: Bis zu 19 Dollar pro entwendetem Datensatz lassen sich so sparen. Aber auch eine durchgängige Verschlüsselung aller Daten führte laut Studie zu einer Reduktion um 16 Dollar pro Datensatz und die Schulung von Mitarbeitern brachte eine Ersparnis von 12,50 Euro pro Datensatz ein.

Die DSGVO kommt. Sind Sie vorbereitet?

LesetippDer Countdown läuft – die neue DSGVO kommt. Ab Mai 2018 gibt es keine Ausreden mehr, wenn die neuen EU-Datenschutzanforderungen in den Unternehmen nicht umgesetzt wurden. Aufsichtbehörden prüfen dies rigoros und bei Nichteinhaltung drohen empfindliche Geldstrafen. Wie Sie sich konsequent auf die neue Gesetzgebung vorbereiten, erfahren Sie in diesem Artikel.

Der Beitrag Weltweit angelegte Ponemon-Studie: Die Kosten der Datenpannen 2017 erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Unternehmensstrukturen bremsen Digitalisierung

28. September 2017 Posted by Diana Jensen

Capgemini Banner

Capgemini-Studie: Digitalisierung läuft – aber nicht auf Hochtouren

Überfordert Digitalisierung etablierte Unternehmensstrukturen?

Flatscreen, 3D-Erlebniskino, Navigationsgerät oder Emoji: Längst hat die Digitalisierung unseren Alltag erfasst. Auch die gesamte Wirtschaft ist von der digitalen Transformation betroffen und nach und nach verändern sich die Geschäftsmodelle ganzer Branchen zum Teil dramatisch: myTaxi macht mit einer komfortablen App Taxizentralen echte Konkurrenz, das E-Book ermöglicht neue Geschäftsmodelle wie eine Leseflatrate, telefonieren über das Internet (VoIP) mausert sich zum Telefon-Standard im Festnetz und in der Industrie übernehmen Maschinen immer komplexere Aufgaben.

Top Trend Digitalisierung

Dass die Digitalisierung die Geschäftsmodelle ihrer Branchen beeinflusst und tiefgreifende Veränderungen mit sich bringt, davon sind inzwischen auch 82 Prozent aller CIOs überzeugt. Und dass da kein Unternehmen das Nachsehen haben will, weil es nicht rechtzeitig reagiert hat, ist verständlich: Dreiviertel aller CIOs haben den Auftrag, die Digitalisierung in ihrem Unternehmen weiter voranzutreiben. Damit bildet der Ausbau der Digitalisierung die wichtigste Anforderung der Geschäftsleitungen an die IT – noch weit vor deren Effizienzsteigerung, Kostensenkung sowie Erhöhung der Datensicherheit.

Um ihren Auftrag zu erfüllen, reagieren CIOs mit der Einstellung von entsprechendem Fachpersonal und engagieren Beratungsunternehmen. Technologisch steht die verbesserte Vernetzung von Daten und der Ausbau der Datenanalyse im Mittelpunkt. Und auch die Entwicklung neuer Produkte und Services sowie den Ausbau der Cloud-Kapazitäten nimmt einen hohen Stellenwert ein. Doch während die Digitalisierung auf Hochtouren läuft, bleiben strukturelle und organisatorische Veränderungen in den Unternehmen aus.

Digitalisierung

So lauten die Ergebnisse der „Studie IT-Trends 2017“ des Analystenhauses Capgemini. Das Unternehmen wollte von 148 Entscheidungsträgern aus deutschen, österreichischen und schweizerischen Unternehmen wissen, wie sie auf die Digitalisierung reagieren, wie sie sich aufstellen und vor welchen Herausforderungen sie stehen. Wir stellen Ihnen im heutigen Blogartikel einige wichtige Studienergebnisse vor.

Unternehmensstrukturen behindern Digitalisierung

Digitalisierung Die zunehmende Digitalisierung bereitet immer mehr Probleme. Inzwischen klagen fast 73 Prozent der CIOs über Schwierigkeiten – 13 Prozent mehr als noch im Vorjahr. Das Hauptproblem bildet der Mangel an qualifiziertem Personal, insbesondere in den Bereichen Internet of Things (IoT) Technologien und Big Data. Hinzu kommen unflexible Geschäftsprozesse und organisatorische Hürden: Starre Organisationsstrukturen, mangelnde übergreifende Planung und unklare Verantwortlichkeiten bereiten laut Studie offensichtlich große Probleme. Ein Management, das der Digitalisierung zu wenig Aufmerksamkeit schenkt und deshalb nicht genügend unterstützt, ist dabei genauso wenig förderlich wie traditionelle Abteilungsstrukturen, althergebrachtes Hierarchiedenken und traditionelle Aufgabenverteilung, die allesamt agiles Zusammenarbeiten ausbremsen.

Welche Maßnahmen CIOs angesichts der Digitalisierung tatsächlich ergreifen, hängt stark von ihrer Bedeutung für das Unternehmen ab. Vereinfacht lässt sich dabei sagen: Ist die Relevanz der Digitalisierung für das Unternehmen hoch, richtet sich ein Unternehmen konsequenter auf die neue Situation aus und schreckt auch vor tiefgreifenden organisatorischen Änderungen nicht zurück. Typisch ist dann auch die enge Zusammenarbeit von IT- und Fachabteilungen.

Agile Kultur bereitet Probleme

Digitalisierung Trotz Digitalisierung ist der Einsatz agiler Methoden von der Entwicklung über den Betrieb, den Support und das Projektmanagement in den vergangenen Monaten weitgehend stabil geblieben und hat sich 2017 nur leicht um 0,9 Prozentpunkte im Vergleich zum Vorjahr auf 24,2 Prozent erhöht. Das ist entgegen den Erwartungen der meisten CIOs aus dem Vorjahr – sie hatten damit gerechnet, dass agile Methoden häufiger eingesetzt werden.

Die Studiendaten zeigen, dass die Nutzungsquote mit der Größe des Unternehmens zu tun hat: Je höher der Umsatz, desto häufiger arbeiten Firmen agil. KMUs nutzen agile Methoden hingegen am wenigsten. Auffällig ist auch, dass Organisationen aus Branchen, die ihre Wertschöpfungskette bereits in weiten Teilen digitalisiert haben oder sich zunehmend über ihre Schnittstelle zum Kunden differenzieren müssen, häufiger als andere Unternehmen agile Methoden einsetzen. Dazu zählen insbesondere Finanzdienstleister, Versicherungen und die Logistikbranche.

Die Gründe für die insgesamt schleppende Adaption sind laut Capgemini in Schwierigkeiten mit der agilen Arbeitsweise zu suchen: Viele Unternehmen können agile Methoden entweder nicht in ihr (veraltetes) Organisationsmodell integrieren oder aber ihre Mitarbeiter nehmen sie nicht an. Viele CIOs klagen zudem aber auch über Fachkräftemangel in diesem Bereich: 72 Prozent der Befragten haben Schwierigkeiten, Mitarbeiter mit Know-how und Erfahrung mit agilen Entwicklungsmethoden zu finden. All diese Probleme verzögern schließlich auch die Verkürzung von Release-Zyklen im Unternehmen: Die meisten Studienteilnehmer (33,3 Prozent) aktualisieren ihre Individualanwendungen lediglich ein- bis dreimal jährlich. Die Mehrheit unter ihnen (53,1 Prozent) strebt jedoch ein Update pro Monat oder pro Woche an.

Konsolidierung von Big Data-Anwendungen

Digitalisierung Bei den wichtigsten Anforderungen an CIOs in diesem Jahr schaffte es die Verbesserung der Informationsauswertung und -nutzung lediglich auf Rang 5. Und tatsächlich betreiben 2017 nur noch 18,3 Prozent der Unternehmen im deutschsprachigen Raum eine oder mehrere eigene Big Data-Anwendungen. Das ist deutlich weniger als noch 2016 (23,9 Prozent). Allerdings haben laut Capgemini-Erhebung einige Unternehmen das Thema nach Workshops oder der Implementierung von Pilotanwendungen nicht weiter verfolgt oder entschieden, die Leistungen von Providern zu nutzen.

In welcher Phase sich ein Unternehmen übrigens befindet, hängt stark von der Branche ab: Während Automobildienstleister verstärkt Big Data-Anwendungen in Betrieb nehmen, kommt es bei Finanzdienstleistern sogar bereits zur Konsolidierung der verschiedenen Anwendungen. So oder so: Bei der Umsetzung von Big Data holen sich fast alle Anwender (83,5 Prozent) branchenübergreifend Hilfe von außen. Projekte werden meist mit externen Dienstleistern aufgesetzt, jedes 10. Unternehmen führt diese dann aber in Eigenregie weiter. Das Ziel: Die Datenanalyse sowie fachliche und Architektur-Gestaltung sollen im eigenen Unternehmen verbleiben, während der eigentliche Betrieb von Big Data-Lösungen ausgelagert wird.

Nutzung von Big Data Analytics ist branchenabhängig

Digitalisierung Big Data Analytics nutzen Unternehmen in erster Linie, um die Effizienz zu erhöhen. Die weitere Nutzung hängt stark von der Branche ab: Während beispielsweise von den Energieversorgern mehr als die Hälfte in ihren Daten nach neuen Einnahmequellen sucht, ist es nur knapp jedes fünfte Handelsunternehmen. Sie nutzen Big Data stattdessen, um neue Erkenntnisse über ihre Kunden zu gewinnen oder um ihre Verkaufsstrategie zu verbessern. Die Automobilindustrie hingegen konzentriert sich mehr auf Effizienzsteigerung als auf das Einkaufs- und Serviceerlebnis ihrer Kunden.

Steigende Cloud-Nutzung

Parallel zur gestiegenen Big Data-Nutzung hat auch die Cloud-Nutzung zugenommen. 2017 kommen mehr IT-Leistungen aus der Cloud als im Vorjahr und insbesondere Großkonzerne sowie der Mittelstand haben die Cloud-Nutzung stark ausgebaut. Dabei stellen Drittanbieter mit 10,2 Prozent aller IT-Services nur einen geringen Anteil der Gesamtleistung bereit. Die unternehmenseigene Cloud ist mit einem Anteil von 36,6 Prozent deutlich beliebter. Dass Cloud-Anbieter in der Nutzergunst dennoch knapp 4 Prozentpunkte zugelegt haben, dürfte der Tatsache geschuldet sein, dass die Rechenzentren der meisten Provider mittlerweile in Deutschland stehen und sich die Provider damit auch an das Bundesdatenschutzgesetz halten.

Unternehmen setzen auf die eigene Cloud

Digitalisierung Apropos Sicherheit: Die Angst vor Zugriffen durch ausländische Behörden bestärkt Unternehmen darin, eine eigene Infrastruktur aufzusetzen. Bezüglich der technischen Sicherheit halten die meisten Befragten dann doch die private Anbieter-Cloud für die bessere Variante. Abgesehen vom Schutz vor dem Datenzugriff durch ausländische Behörden, bauen Unternehmen auch deshalb eigene Cloud-Infrastrukturen auf, um die Kontrolle über die Services in der eigenen IT-Abteilung zu behalten und die vorhandenen eigenen personellen wie infrastrukturtechnischen Ressourcen optimal zu nutzen. Wenngleich für 67,5 Prozent der Befragten der Sicherheitsaspekt der Hauptgrund für den Betrieb einer eigenen Cloud ist, wird er im Vergleich zum Vorjahr nicht mehr ganz so kritisch gesehen. Stattdessen ist in diesem Jahr das Kontrollbedürfnis um 10 Prozentpunkte auf 49,4 Prozent deutlich gestiegen. Capgemini vermutet hinter dieser Entwicklung die zunehmende Komplexität und gestiegene Anzahl von Datenquellen und Kommunikationskanälen, die in der Cloud zusammenfließen. Damit einher geht wohl auch das gestiegenes Bedürfnis nach Unabhängigkeit von externen Anbietern (2017: 39 Prozent, 2016: 23,2 Prozent) und der Möglichkeit, Leistungen individuell gestalten zu können (2017: 42,9 Prozent, 2016: 30,4 Prozent).

Digitalisierung Derzeit überwiegt die Anzahl der Unternehmen, die Cloud-Infrastrukturen eher für neue Applikationen (37,9 Prozent) anstatt für vorhandene (22,7 Prozent) nutzen. Mit zunehmender Verjüngung der Anwendungslandschaften geht Capgemini davon aus, dass die Anzahl der Portierungen zunehmen wird. Mit unserem GBS AppDesigner haben wir beispielsweise ein Werkzeug entwickelt, mit dem Unternehmen in wenigen Schritten sowohl neue, Workflow-basierte Geschäftsanwendungen modellieren als auch ihre vorhandenen Anwendungen fit für das nächste Jahrzehnt machen und moderne Web-Anwendungen erstellen. Dabei fühlt sich der GBS AppDesigner sowohl in der Microsoft- als auch der IBM-Welt zu Hause: In SharePoint und Office 365, in IBM Connections, im Webbrowser oder unter IBM Domino. Zudem beherrscht unser AppDesigner das Zusammenspiel mit Cloud-Plattformen, wie Microsoft Azure.

Fazit

Digitalisierung Der Auftrag ist klar: Die Digitalisierung muss weiter vorangetrieben werden. Technisch haben Unternehmen damit viel weniger Schwierigkeiten, als organisatorisch und strukturell: CIOs verändern ihre IT-Organisation nur oberflächlich und schrecken vor tiefgreifenden Maßnahmen, wie dem Aufbau einer Innovationsabteilung, der Abflachung der Hierarchie und dem Austausch von Führungskräften, zurück. Traditionelle Abteilungsstrukturen und Aufgabenverteilung werden jedoch dem Tempo nicht gerecht und bremsen agiles Zusammenarbeiten aus.

Sicherheitsrisiken vermeiden in Zeiten der Digitalisierung

LesetippOhne Sicherheitsstrategien kann jedes Unternehmen Opfer von Hackern und Datendieben werden. Nicht nur Kundendaten wecken Begehrlichkeiten, sondern oft auch Finanz- und Personaldaten, Strategiepapiere, Patente oder Verträge aller Art. Und manchmal ist es einfach nur das Ziel, möglichst großen Schaden anzurichten. Die Folgen solcher Angriffe reichen von kleineren Krisen über Systemstörungen bis hin zur Insolvenz. Deshalb heißt das Hauptcredo dieser Tage: Sicherheitsrisiken durch Digitalisierung vermeiden! Es gilt eine Balance zu finden zwischen totaler Abschottung sensibler Daten, der Nutzerfreundlichkeit sowie der Wirtschaftlichkeit von IT-Systemen. Im Blogartikel erfahren Sie mehr darüber.

Der Beitrag Unternehmensstrukturen bremsen Digitalisierung erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Die DSGVO kommt. Sind Sie vorbereitet?

14. September 2017 Posted by Robert Becker

EU-Datenschutz-Grundverordnung und die Folgen für Security-Konzepte

Stichtag ist der 25. Mai 2018

Bereits 2016 trat die EU-Datenschutz-Grundverordnung (DSGVO) in Kraft. In 99 Artikeln hat die Europäische Union die Verarbeitung von personenbezogenen Daten durch Unternehmen und öffentliche Stellen für alle Mitgliedsstaaten der EU vereinheitlicht. Nach einer zweijährigen Übergangszeit, die am 25. Mai 2018 endet, gilt das europäische Datenschutzrecht verpflichtend. Damit löst es hierzulande den Großteil des Deutschen Datenschutzrechts ab.

Bedeutung des Datenschutzes wächst

Die DSGVO kommt und bringt eine Reihe geänderter oder neuer Datenschutzanforderungen mit sich. Die veränderten Regeln im Umgang mit Daten treffen Unternehmen wie Bürger gleichermaßen: Dort, wo die Verbraucherrechte deutlich gestärkt werden, indem der Bürger wesentlich mehr Kontrolle über die Nutzung seiner persönlichen Daten durch Dritte gewinnt, müssen Unternehmen ihre Datenverarbeitungsprozesse an die neuen Regeln anpassen.

Neue Rechte, wie das Recht auf Vergessenwerden und das Recht auf Datenübertragbarkeit, lassen die Anforderungen an die IT-Sicherheit deutlich steigen. Denn die DSGVO enthält etliche Datenschutzvorschriften, die Unternehmen dazu zwingen, umfassende technische und organisatorische Sicherheitsmaßnahmen zu ergreifen und diese in ihre IT-Sicherheitsstrategie zu integrieren. Obendrein sind Unternehmen künftig in der Nachweispflicht, die getroffenen Schutzmaßnahmen in ihrer Datenverarbeitung nachzuweisen.

DSGVO kommt Einigen der eben genannten Punkte widmen wir uns im heutigen Blogbeitrag, wobei wir die Auswirkungen der DSGVO auf die IT-Sicherheit von Unternehmen im Blick haben werden. Wir zeigen außerdem auf, an welchen Stellen sich Unternehmen schwer tun, beziehungsweise wo Stolpersteine in der Umsetzung der neuen Regeln liegen. Die gesamte EU-Datenschutz-Grundverordnung finden Sie hier sehr übersichtlich aufbereitet.

Vorweg: Stimmungslage in der deutschen Wirtschaft zu IT-Sicherheit und Datenschutz

Die verschärften Vorschriften zum Datenschutz, aber auch die steigende Zahl an Bedrohungen: Deutsche Unternehmen sind sich der Bedeutung von Datenschutz und IT-Sicherheit deutlich bewusst. Wie eine Bitkom-Umfrage Anfang dieses Jahres ergab, halten 67 Prozent aller hierzulande befragten Unternehmen IT-Sicherheit als das wichtigste Hightech-Thema in 2017.

DSGVO kommt NIFIS (Nationale Initiative für Informations- und Internet-Sicherheit) wurde noch konkreter und fragte bei Unternehmern nach, welches IT-Sicherheitsthema für sie denn am wichtigsten sei. Das Ergebnis ist fast einstimmig: 91 Prozent halten den Datenschutz für das wichtigste IT-Sicherheitsthema in diesem Jahr.

Seit der NSA-Affäre rund um das Spähprogramm PRISM ist die deutsche Wirtschaft eben sensibel geworden. Zwar ist die große Masse deutscher Manager – nämlich 93 Prozent – der Meinung, dass es keinen umfassenden Schutz vor Spähattacken gibt. Dennoch haben 71 Prozent ihre Abwehrmaßnahmen verstärkt. Das schlägt sich auch in den Ausgaben für IT-Sicherheit nieder: Neben der Abwehr von Hackerangriffen und dem Schutz vor Industriespionage stellt Datenschutz einen wesentlichen Kostentreiber in den nächsten Jahren dar. So schätzen 48 Prozent der von NIFIS befragten Unternehmen, dass ihre Ausgaben für IT- und Informationssicherheit im laufenden Jahr um ein Drittel höher sein werden als noch 2016. 14 Prozent erwarten einen Anstieg um die Hälfe und acht Prozent gehen sogar von einer Verdopplung ihrer Ausgaben in 2017 aus.

Alte Grundprinzipien des Datenschutzes und neue Instrumente

Aber zurück zur DSGVO: Grundlage des Gesetzes bilden die bisherigen Grundprinzipien des Datenschutzes. Dazu gehören Rechtmäßigkeit, Transparenz, das Verbot von Erlaubnisvorbehalt, Zweckbindung, Datenminimierung bei gleichzeitigem Ausschluss von „Datenerhebung auf Vorrat“ sowie die Wahrung von Integrität und Vertraulichkeit. Zu diesen Grundprinzipien kommen neue Instrumente, die schließlich zur Modernisierung des Datenschutzes beitragen.

Privacy by Design und Privacy by Default

Datensicherheit und Datenschutz müssen nach dem Stand der Technik bei der Entwicklung von Produkten oder Verfahren einbezogen werden. Standardgemäß müssen Geräte oder Onlineplattformen mit datenschutzfreundlichen Voreinstellungen bereitgestellt werden.

Marktortprinzip

Nicht nur Unternehmen innerhalb der EU, auch außereuropäische Unternehmen sind zur Einhaltung des europäischen Datenschutzrechts verpflichtet, wenn sie in Mitgliedsstaaten der EU ihre Dienstleistungen anbieten.

Datenschutz-Folgenabschätzungen

Hier geht um die Bewertung von Risiken durch den Datenschutzbeauftragten des Unternehmens sowie die aus den Risiken resultierenden möglichen Folgen für die persönlichen Rechte und Freiheiten der Betroffenen – vor allem dann, wenn besonders sensible Daten verarbeitet werden. Dieses Instrument kommt zum Beispiel zum Tragen, wenn die Persönlichkeit des Betroffenen, einschließlich seiner Fähigkeiten, Leistungen oder seines Verhaltens bewertet werden sollen.

Aufwändige Neuerung: Dokumentationsaufwand steigt

Ohne Dokumentation in der Datenverarbeitung läuft bei der DSGVO nichts. Unternehmen müssen jederzeit Nachweis über ihre Datenverarbeitungsprozesse erbringen. Das heißt, belegen, dass Zweck, Art und Umfang sowie risikomindernde Maßnahmen dokumentiert und die Zulässigkeit geprüft worden sind. Anders ausgedrückt kann man auch sagen, dass Unternehmen künftig nach dem „Belege deine Unschuld“-Prinzip arbeiten müssen. Wer seine Schutzmaßnahmen nicht transparent belegen kann, muss hohe Bußgelder fürchten.

Teure Neuerung: Empfindlich hohe Bußgelder

Unternehmen, die den Datenschutz wissentlich oder unwissentlich vernachlässigen, werden empfindlich getroffen. Denn künftig können betroffene Verbraucher bei Behörden oder Gerichten Beschwerde zu Datenschutzverstößen einreichen und Schadenersatzansprüche geltend machen. Das bedeutet für Unternehmen nichts anderes, als dass jeder Datenschutzfehler extrem teuer werden kann. Die DSGVO sieht hier hohe Geldbußen vor, die „wirksam, verhältnismäßig und abschreckend“ verhängt werden dürfen. Je nach Datenschutzverstoß reden wir hier von Summen von bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes – je nachdem, was höher ist.

Kein Entkommen wenn die DSGVO kommt: Aufsichtsbehörden prüfen

DSGVO kommt Wer meint, chronischer Personalmangel bei den Aufsichtsbehörden führe dazu, dass Kontrollen eher unwahrscheinlich sind, hat weit gefehlt: Die Aufsichtsbehörden prüfen sehr wohl – und zwar zunehmend mit automatisierten Prüfverfahren. Das Bayerische Landesamtes für Datenschutzaufsicht (BayLDA) zum Beispiel zeigt deutlich, wie vielfältig die Prüfungen sein können. So können die Behörden anlasslos nicht nur vor Ort beim Unternehmen prüfen, sondern auch im Rahmen schriftlicher Verfahren oder online über das Internet: Mailserver, Adobe Analytics und Google Analytics sind sehr gute Informationsquellen.

Unser Rat an dieser Stelle

Wenn nicht schon längst geschehen, dann sehen Sie sich an, wie es um die Sicherheit der Verarbeitung personenbezogener Daten in Ihrem Unternehmen bestellt ist. Unverschlossene Aktenschränke mit Mitarbeiter-, Bewerber- oder Kundendaten im Keller oder Treppenhaus zu lagern gehört ganz sicher nicht dazu.

Herausforderungen über Herausforderungen – und nur Wenige sind vorbereitet

Wer noch nicht damit begonnen hat, Maßnahmen zu ergreifen, um die Forderungen laut DGSVO bis Mai 2018 umzusetzen, sollte sich sputen. Denn künftig sind Unternehmen neben den oben genannten Normen auch in der Pflicht, Daten zu löschen, Datenpannen zu melden und die Belastbarkeit der Systeme zu Dienste zu gewährleisten. Und genau diese Forderungen an die IT-Sicherheit stellen Unternehmen vor eine Reihe von Herausforderungen.

Schwierigkeiten im Datenmanagement

Die größte Herausforderung im Rahmen der DSGVO stellt die Fragmentierung von Daten und der fehlende Einblick in die Daten dar. Gerade im Hinblick auf die Compliance gestaltet sich die zunehmende Nutzung von schwer kontrollierbaren Speicherorten in der Cloud und File-Sharing-Diensten von Kunden als kompliziert und lässt Unternehmen keine Ruhe.

Probleme mit dem Recht auf Vergessenwerden

Ähnlich große Probleme bereiten auch die technischen Voraussetzungen für das Recht auf Vergessenwerden. Das geht aus der Studie „State of European Data Privacy Survey“ des Marktforschungsinstituts Vanson Bourne hervor. So haben bis Dato offenbar nur 28 Prozent der befragten IT-Entscheidungsträger überhaupt realisiert, dass das Recht auf Vergessenwerden Teil der DSGVO ist. Fast alle befragten Unternehmen (90 Prozent) sind zudem der Meinung, dass Anfragen zur Löschung von Kundendaten für ihr Unternehmen eine Herausforderung sein werden. Gleichzeitig sind 81 Prozent davon überzeugt, dass ihre Kunden von ihrem Recht auf Datenlöschung Gebrauch machen werden.

DSGVO kommt Nun erscheint auf den ersten Blick das „Recht auf Löschung“ nach DSGVO eine leichte Aufgabe. Bedenkt man jedoch, wie komplex IT-Infrastrukturen geworden sind, wird schnell klar, dass die nachweisliche Löschung persönlicher Daten eine nicht ganz so leichte Aufgabe darstellt. Freilich ist es einfach, einen Datensatz aus einer simplen Kundendatenbank zu löschen. Damit ist es aber nicht getan, denn vergessen Sie bitte nicht, dass dann dieser Datensatz auch aus den Bändern der Datensicherung, den digitalen Archiven, abgelegten Ausdrucken oder aus den Speichern der mobilen Endgeräte der Vertriebsmitarbeiter gelöscht werden müssen. Ganz zu schweigen von der Leistungsbereitstellung von Diensten durch externe Cloud-Anbieter. Und schon gestaltet sich das Bild wesentlich komplexer.

Schwierigkeiten mit den Meldepflichten bei Datenpannen

Ein weiteres Problemfeld ist ganz offenbar auch die neue Pflicht, Datensicherheitsverletzungen zu melden. Laut IDC-Studie „The State of the Art Paradox“ bereitet 51 Prozent der befragten Unternehmen diese 72-Stunden-Meldepflicht Sorge. Viele der befragten Unternehmen sind nach eigener Einschätzung nicht in der Lage, Datenschutzverletzungen innerhalb von 72 Stunden zu erkennen und zu melden.

Sie sind dran: Prüfen Sie, wo personenbezogene Daten anfallen

DSGVO kommt Wenn die DSGVO kommt, geht die Verantwortung für den sicheren und richtigen Umgang mit personenbezogenen Daten auf die Unternehmen über, die Daten erheben, verarbeiten, speichern und analysieren. Um die ganze Tragweite und die Auswirkungen auf das eigene Unternehmen zu verstehen, sollten Unternehmen rasch und vollständig erfassen, welche personenbezogenen Daten im Unternehmen anfallen beziehungsweise schon vorhanden sind. Fragen Sie sich auch danach, warum diese Daten erhoben werden, wie sie verarbeitet werden und wo sie wie lange gespeichert werden. Welche Sicherheitsmaßnahmen werden dabei für den Schutz der Daten eingesetzt und sind diese angemessen beziehungsweise ausreichend? Entwickeln Sie zügig Richtlinien und Maßnahmen, um auf Datenschutzverletzungen rasch und gezielt reagieren zu können. Verinnerlichen Sie dabei das „Belege deine Unschuld!“-Prinzip. Damit Sie der neuen Rechenschaftspflicht nachkommen, stellen Sie klare und verständliche Richtlinien auf. Diese müssen auch für Laien nachvollziehbar sein. Sie sehen: Es gibt viel zu tun und die Uhr tickt.

Neue DSGVO: Kein Datenschutz nach Pi mal Daumen

LesetippMit dem Beschluss der neuen EU-Datenschutz-Grundverordnung wurde wahrscheinlich die größte Umwälzung im Datenschutzrecht eingeläutet. Sie ist ab Mai 2018 bindend. Was bedeutet das für deutsche und europäische Unternehmen? Rechtsanwältin Dr. Bettina Kähler gibt einen Überblick über die wichtigsten Änderungen und die wesentlichen Maßnahmen, die Ihr Unternehmen dringend einleiten sollte.

Der Beitrag Die DSGVO kommt. Sind Sie vorbereitet? erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Kein Ende in Sicht: Internetkriminalität wächst

30. August 2017 Posted by Robert Becker

BKA veröffentlicht Bundeslagebild Cybercrime 2016

Bundeslagebild Cybercrime Internetkriminalität ist ein florierendes Geschäft und es wächst rasant. Wie das Bundeskriminalamt (BKA) in seinem kürzlich veröffentlichten Bundeslagebild Cybercrime bekannt gibt, ist die Zahl der Straftaten im Jahr 2016 gegenüber dem Vorjahr um 80,5 Prozent auf fast 83.000 Straftaten gestiegen. Der dabei entstandene Schaden beläuft sich auf über 51 Millionen Euro.

Der größte Teil der Straftaten im Bereich der Computerkriminalität, nämlich 71 Prozent, liegt im Bereich des Computerbetrugs, erst mit weitem Abstand folgt das Ausspähen oder Abfangen von Daten (13 Prozent). Der Diebstahl digitaler Identitäten, Kreditkarten-, E-Commerce- oder Kontodaten (z.B. Phishing) sind typische Delikte in diesem Bereich. 10 Prozent aller Delikte im Cybercrime sind Täuschungen durch Fälschung von Daten, um diese im Rechtsverkehr zu nutzen. Hierunter fällt zum Beispiel die Zusendung von E-Mails unter Vorspiegelung realer Identitäten oder Firmen – oftmals mit als Rechnung getarnter Schadsoftware im Anhang. Das Delikt der Computersabotage, zu dem Denial of Service-Angriffe (DoS-/ DdoS-Angriffe) sowie die Verbreitung und Verwendung von Schadsoftware unterschiedlicher Art gehören, schlägt mit 5 Prozent zu Buche. Mit 1 Prozent gehen die Delikte von missbräuchlicher Nutzung von Telekommunikationsdiensten in die Statistiken ein.

Professionelle Täter agieren über Landesgrenzen hinweg

Im heutigen Beitrag werfen wir einen Blick in das Bundeslagebild Cybercrime und fassen die wichtigsten Ergebnisse und Erkenntnisse zusammen. Sie werden sehen: Die Täter kennen keine nationalen Grenzen, sind sehr gut organisiert und arbeiten hoch professionell. Dabei entwickeln sie ständig neue Tatgelegenheiten und Modi Operandi. Leichter als jemals zuvor können sie Cyberangriffe durchführen – denn wo eigenes Know-how fehlt, kaufen sie Dienstleistungen oder illegale Software einfach am gut organisierten digitalen Schwarzmarkt hinzu.

1. Der digitale Schwarzmarkt

Die Underground Economy boomt

Bundeslagebild Cybercrime Der digitale Schwarzmarkt boomt. Im Clearnet, im Deepweb sowie auch im Darknet finden sich inzwischen unzählige illegale Foren oder Marktplätze, die zum Teil mehr als 100.000 registrierte Mitglieder zählen. Hier kommunizieren Groß- und Kleinkriminelle, tauschen ihr Know-how aus und handeln diverse Dienstleistungen und Software, um ihre kriminellen Straftaten zu begehen. Tatsächlich gibt es hier fast alles: Von illegalen Drogen und Waffen über Falschgeld, gefälschte Ausweise und gestohlene Kreditkartendaten bis hin zu gefälschten Markenartikeln.

Geschäftsmodell Cybercrime-as-a-Service – sogar mit „Kundendienst“

Die digitale Underground Economy hält daneben ein breites Spektrum von Dienstleistungen zur Durchführung jeder Art von Cybercrime bereit. Das Angebot umfasst unter anderem Ransomware, die Bereitstellung von Botnetzen die Durchführung von DDoS-Attacken, die Herstellung und Verbreitung von Malware, der Verkauf sensibler Daten wie zum Beispiel Zugangs- oder Zahlungsdaten, die Verteilung von Schadsoftware, Anonymisierungs- und Hostingdienste zum Verschleiern der eigenen Identität sowie Test-Portale, in denen Cyberkriminelle erworbene oder erstellte Schadsoftware auf Detektierbarkeit durch aktuelle Cyber-Sicherheitsprodukte testen können. Bezahlt wird in Kryptowährung – abgewickelt werden die Transaktionen über Treuhand-Systeme.

Wenn Sie ein Problem mit Ihrer Software haben, rufen Sie den Kundendienst Ihres Herstellers an oder schreiben ihm eine Mail. So ähnlich läuft es auch bei illegalen Angeboten: Mittlerweile, so das BKA, haben die Anbieter illegaler Software und Dienstleistungen sogar schon einen Support eingerichtet, der beispielsweise Updates für Schadsoftware bereitstellt, Beratungsdienste und Anti-Erkennungsmechanismen anbietet sowie Hilfeleistung bei technischen Problemen gibt. Allein dieser Abriss zeigt, dass Kriminelle nicht einmal mehr technische Kenntnisse benötigen, um sich Zugang zu hochentwickelten, illegalen Cyber-Werkzeugen zu verschaffen, um ihre Cyberangriffe durchzuführen.

2. Die lukrativen Geschäfte

Begehrt: Digitale Identitäten

Bundeslagebild Cybercrime Ganz gleich, ob sie selbst für kriminelle Zwecke zu missbrauchen oder aber um sie im Darknet und Co. zu verkaufen: Digitale Identitäten sind nach wie vor ein beliebtes Diebesgut. Um an die personenbezogenen Daten zu gelangen, setzen die Täter auf unterschiedliche Methoden. So bedienen sie sich beispielsweise der Installation von Schadprogrammen über Drive-By-Exploits, des Phishings, sie brechen auf Server ein und kopieren Anmeldeinformationen oder setzen Keylogger oder Spyware ein. Ziel ist es, an alle Arten von Nutzer-Accounts inklusive Zugangsdaten – zum Beispiel von E-Mail- und Messenger-Diensten, von Banking-Accounts oder auch für den Online-Zugriff auf firmeninterne IT-Systeme – zu gelangen.

Rückläufig: Phishing im Onlinebanking

Bundeslagebild Cybercrime Die häufigste Variante des digitalen Identitätsdiebstahls ist auch 2016 das Phishing im Zusammenhang mit Onlinebanking: 2.175 Vorfälle wurden im letzten Jahr gemeldet. Damit erreicht die Zahl der Fälle den tiefsten Stand seit fünf Jahren! Allein im Vergleich zum Jahr 2015 konnte laut Bundeslagebild Cybercrime des BKA ein Rückgang um ganze 51 Prozent verzeichnet werden. Dennoch ist das Geschäft nach wie vor äußerst lukrativ und damit ein attraktives Betätigungsfeld für die Täter. So betrug die Gesamtschadenssumme stolze 8,7 Millionen Euro für das Jahr 2016 – das sind 4000 Euro je Vorfall. Im Vergleich zu den vergangenen fünf Jahren liegt die Gesamtsumme aber erfreulicherweise deutlich unter dem Durchschnitt von 16.9 Millionen Euro.

Besonders beliebt, um an die notwendigen Kundeninformationen zu gelangen, ist übrigens das Social Engineering, allem voran der Versand von E-Mails in vertrauenserweckender Aufmachung: In E-Mails mit bekanntem Firmen- oder Behördenlogo, fordern die Täter ihre Opfer aus bestimmten Gründen auf, vertrauliche Informationen preiszugeben.

Ransomware liegt im „Trend“: Computersabotage trifft Erpressung

Noch lukrativer als Phishing im Onlinebanking ist offensichtlich ein ganz anderes Geschäftsmodell: Ransomware. 2016 registrierten die deutschen Polizeidienststellen 972 Fälle von Ransomware. Das ist ein Anstieg im Vergleich zum Jahr 2015 von über 94 Prozent! Tatsächlich beobachtet das BSI bereits seit 2015 eine große Spam-Welle, über die massenhaft dieser neuartigen Schadsoftware verbreitet wird: Cyberkriminelle verschicken Ransomware gut getarnt in vermeintlich seriösen E-Mails, um Daten oder ganze Netzwerkkomponenten ihrer Opfer zu verschlüsseln, um für deren Freischaltung ein Lösegeld zu erpressen.

Binnen fünf Monaten – von Oktober 2015 bis Februar 2016 – verzehnfachte sich die Entdeckung von Ransomware durch Virenschutzprogramme. Eine im April 2016 durchgeführte Umfrage des BSI bei deutschen Unternehmen offenbarte, dass 32 Prozent der Befragten in den vorhergegangenen sechs Monaten von Ransomware betroffen waren. Europol spricht in seinem Cybercrime-Lagebericht 2016 sogar davon, dass Ransomware alle anderen Arten von Malware eingeholt habe.

Bundeslagebild Cybercrime

Das Geschäft mit Ransomware boomt, inzwischen hat sich sogar ein richtiger Wettbewerb etabliert: Erfolgreiche Varianten der Schadsoftware werden kopiert und in Foren der Underground Economy verkauft. Mit Hilfe von im Darknet verfügbaren „Malware-Toolkits“ können sich die Täter Ransomware ohne großen Aufwand aber auch selbst zusammenstellen. Damit ist nicht einmal mehr besonderes IT-Fachwissen mehr nötig, um in den digitalen Erpressungshandel einzusteigen. Bei erfolgreicher Lösegeldzahlung erhalten die Anbieter der Toolkit-Dienste eine Umsatzbeteiligung.

Botnetze weiterhin beliebter Angriffsvektor

Eine weitere ganz bedeutende Rolle bei den Angriffsvektoren spielen Botnetze und ihre Kapazitäten. Auch sie waren 2016 lukrative Handelsware in der Underground Economy: Betreiber der Botnetze vermieten Bots, mit denen Dritte, beispielsweise mittels DDoS-Attacken, gezielte Angriffe auf Unternehmensserver durchführen, massenhaft Spam-Mails versenden oder gezielte Datendiebstähle durchführen. Wie viele Rechner in Deutschland oder weltweit zu Botnetzen zusammengeschlossen sind, vermag das BKA zwar nicht zu sagen – die Europäische Agentur für Netz- und Informationssicherheit (ENISA) und EUROPOL gehen jedoch davon aus, dass Deutschland an der Spitze der Staaten, die Command & Control-Server hosten, steht.

Botnetze: Dunkler Angriff durch Zombie-Rechner

LesetippDie Zahl der von Botnetzen infizierten Rechner steigt unaufhörlich. Vom Nutzer unbemerkt, werden sie von Kriminellen für Verbrechen genutzt, wie dem Verschicken von Spam oder Denial-of-Service-Angriffen (DDoS). Lesen Sie in diesem Blog-Beitrag, wie Computer zu ferngesteuerten Robotern werden.

Im Bundeslagebild Cybercrime 2016 konnten wir lesen: Die erfolgreiche Beschlagnahme von 39 Servern und hunderttausenden Domains im Dezember 2016, lässt jedoch ein ungefähres Ausmaß erahnen. Vier Jahre Ermittlungsarbeit von Polizei und anderen Behörden aus 41 Staaten waren dem vorangegangenen, bis das bislang weltweit größte Botnetz aufgedeckt und analysiert werden konnte. Allein in Deutschland wurde dadurch Cyberkriminellen die Kontrolle über mehr als 50.000 infizierte Computer entzogen. Schon dieser Fall zeigt, dass die quantitative wie qualitative Ausgestaltung von kriminellen Infrastrukturen ein immer größeres Ausmaß erreicht!

Häufung von DDoS-Angriffen auf IoT zu erwarten

Im engen Zusammenhang mit Botnetzen stehen DDoS-Angriffe. Sie gehören laut BKA zu den am häufigsten beobachteten Sicherheitsvorfällen im Cyber-Raum und werden oft mithilfe von Botnetzen ausgeführt. Ziel dieser Angriffe ist es, die Verfügbarkeit von Webseiten oder einzelner Dienste zu sabotieren. Denn ist beispielsweise ein Online-Shop über Stunden oder gar Tage nicht erreichbar, zieht dies erhebliche wirtschaftliche Schäden nach sich. Dementsprechend erstrecken sich die Motive der Angreifer von rein monetären Interessen (also Erpressung) über das Erlangen von Wettbewerbsvorteilen bis hin zu ideologischen oder Rache-Motiven.

Erinnern Sie sich an den November 2016, als mitten im US-amerikanischen Wahlkampf hochfrequentierte Webdienste wie Twitter, Spotify und Amazon nicht erreichbar waren? Oder an den 27. November desselben Jahres, als hunderttausende Telekom-Kunden vom Netz abgeschnitten waren, weil deren Router gehackt worden waren? Verantwortlich dafür waren DDoS-Angriffe, die mittels Mirai-Botnetzen begangen wurden. „Mirai“ umfasste etwa 500.000 kompromittierte „Internet of Things“ (IoT)-Geräte weltweit, bis zu drei Millionen Geräte waren in das Botnetz eingebunden.

„Mirai“ nutzte aus, dass Alltagsgegenstände wie Router, Überwachungssysteme, Fernseher oder Kühlschränke mit dem Internet verbunden sind. Die Schadsoftware scannte über das Internet derartige Geräte auf Sicherheitslücken und infizierte sie dann mittels eines Schadcodes. Angesichts der Verbreitung des „Internet of Things“ und der damit einhergehenden immer umfassenderen Vernetzung von Geräten, geht das BKA davon aus, dass sich derartige DDoS-Attacken häufen werden.

3. Die Täter im Visier: Junge Männer, die schnell lernen

Bundeslagebild Cybercrime Abschließend werfen wir noch einen Blick auf das Täterprofil: Das BKA gibt an, dass 2016 knapp 21.000 Tatverdächtige registriert worden seien – davon zu gut zwei Drittel (70 Prozent) Männer. Mehr als die Hälfte (54,2 Prozent) der registrierten Delikte wurde dabei von über 30-Jährigen begangen, wobei die Gruppe der 30 bis 39-jährigen mit 25 Prozent am stärksten vertreten ist. Die Täter kommen dabei überwiegend aus Deutschland oder haben zumindest die deutsche Staatsbürgerschaft. Nur knapp ein Viertel der Tatverdächtigen waren Nichtdeutsche, wobei „keine Nationalität“ überdurchschnittlich stark in Erscheinung trat.

Ganz gleich, ob sie als Einzeltäter oder in international organisierten Gruppen arbeiten: Die Cyberkriminellen begehen die typischen Cybercrime-Delikte – angefangen von Computerbetrug über Angriffe auf das Onlinebanking bis hin zur Verbreitung von Ransomware mit dem Ziel der digitalen Erpressung. Der überwiegende Teil der Angreifer handelte aus finanzieller Motivation.

An Bedeutung gewonnen haben in den vergangenen Jahren organisierte Täterstrukturen. 2016 waren zwar „nur“ 4 Prozent aller Verfahren im Bereich des Cybercrimes angesiedelt, jedoch geht das BKA davon aus, dass die Entwicklung sich fortsetzt und das organisierte Verbrechen im Cybercrime zunimmt. Und noch etwas fällt auf: Die Täter lernen schnell und sind unglaublich flexibel, denn sie passen ihr Verhalten den technischen Entwicklungen an. Einzeltäter oder Tätergruppen, die kriminelle Dienste nicht selbst erbringen können, kaufen sich diese inzwischen einfach hinzu.

Der Beitrag Kein Ende in Sicht: Internetkriminalität wächst erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Betrugsmasche CEO Fraud weiter auf dem Vormarsch

23. August 2017 Posted by Andreas Richter

Wenn der Chef gefälscht ist

Mit fingierten E-Mails und Zahlungsanweisungen werden illegale Geldtransfers eingeleitet

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt Unternehmen aus aktuellem Anlass vor einem akuten Risiko durch CEO Fraud. Der Behörde ist es gelungen, in den Besitz einer Liste mit rund 5.000 potenziellen Zielpersonen zu gelangen. Das BSI informiert die Betroffenen über die akute Gefährdung. Damit steht eine Betrugsmasche wieder im Rampenlicht, die so erschreckend einfach und doch schwer zu durchschauen ist. Bereits vor einem Jahr berichteten wir über das Phänomen des digitalen Cheftricks. Mit gefälschten Dienstanweisungen und unter falscher Identität versuchen Kriminelle, Entscheidungsträger von Unternehmen so zu manipulieren, dass diese hohen Geldbeträge an fremde Konten überweisen lassen.

Ein lukratives Geschäft

Betrugsmasche CEO Fraud Tatsächlich ist CEO-Fraud ein einträgliches Geschäft für das organisierte Verbrechen: Laut Bundeskriminalamt (BKA) sind durch CEO Fraud allein in den letzten Monaten Schäden in Millionenhöhe entstanden. Von einem weltweiten Milliardengeschäft im Zusammenhang mit gefälschten CEO-Mails sprach im vergangenen Jahr auch schon das amerikanische FBI: Demnach versuchten Kriminelle mit dieser Masche über 3,1 Milliarden Dollar zu ergaunern – auf die Betrügerkonten überwiesen wurden davon etwa eine Milliarde Dollar.

So funktioniert der Betrug

Die Betrüger geben sich als vermeintlicher Vorstand, Geschäftsführer (CEO) oder sonstige Führungskraft des eigenen Unternehmens aus. In perfekt gefälschten E-Mails oder fingierten Anrufen weisen sie Mitarbeiter, die berechtigt sind Finanztransaktionen für das Unternehmen durchzuführen, an, eine größere Summe von einem Geschäftskonto auf ein fremdes Konto zu überweisen. Zeitdruck und psychischer Druck auf den Mitarbeiter – ganz nach dem Motto „Sie wollen doch nicht verantworten, dass das vertrauliche Projekt scheitert“ – tragen ihr Übriges dazu bei, dass die Masche zum Erfolg führt. Etwaige Zweifel an der Legitimität oder Misstrauen gegenüber ausländischen Bankverbindungen werden im Keim erstickt. Denn gern wird eine Unternehmensübernahme oder eine geänderte Kontoverbindung vorgetäuscht, um eine Überweisung nach China, Hongkong oder in ein osteuropäisches Land zu veranlassen.

Auch Sie können schnell zum Opfer werden

Stellen Sie sich bitte kurz die folgende Arbeitssituation vor: Sie sind Buchhalter bei einem Zulieferer der internationalen Automobilindustrie mit Sitz in Süddeutschland und etwas mehr als 600 Angestellten an drei Standorten. Dienstagmorgen erreicht Sie diese E-Mail von Ihrem Chef, von dem Sie ja wissen, dass er sich gerade geschäftlich in der Schweiz aufhält: „Die gestrigen Gespräche mit unserem neuen Partner verliefen sehr vielversprechend. Um die Verhandlungen zu einem raschen Abschluss zu bringen, bitte ich Sie, die weitere Bearbeitung gemeinsam mit der von uns beauftragten Kanzlei xy zu übernehmen. Über die Details informiere ich Sie in Kürze. Diese Angelegenheit muss streng vertraulich behandelt und über den bevorstehenden Geschäftsabschluss darf noch niemand informiert werden. Da ich in vielen Meetings und nur sehr schwer erreichbar bin, kontaktieren Sie mich bitte ausschließlich per E-Mail. Ich vertraue auf Ihre Diskretion. Hat Rechtsanwalt Müller Sie bereits kontaktiert? MfG, Eberhard Finke, Geschäftsführer.“ Einige Minuten nach Eingang dieser E-Mail klingelt das Telefon, besagter Rechtsanwalt Müller stellt sich vor und erläutert Ihnen die Zusammenhänge…

Betrugsmasche CEO Fraud Ganz ehrlich: Würden Sie Verdacht schöpfen, dass die E-Mail nicht von Ihrem Chef ist? Zumal Ihnen obendrein die Anwaltskanzlei geläufig ist? Zugegeben, die Geschichte ist ausgedacht, bei vielen gestandenen Mittelständlern fängt aber genauso die Betrugsmasche CEO Fraud an.

Diese Informationen sammeln die Betrüger

Kriminelle Vorarbeit ist schon notwendig, um beim CEO-Fraud erfolgreich zu sein. Denn damit die Betrugsmasche funktioniert, müssen die Täter Informationen über ihre Opfer sammeln. Wie schaffen sie es aber, an so viele Details über ihre Opfer zu gelangen? In der Regel veröffentlichen diese die Unternehmen sogar selbst: in Wirtschaftsberichten, im Handelsregister, auf ihrer Homepage oder in Werbebroschüren.

Die Täter informieren sich auch genauestens darüber, mit welchen Unternehmen in welchen Ländern Geschäftsbeziehungen bestehen und welche Investitionen geplant sind. Besonderes Augenmerk legen sie aber auch auf die E-Mail-Erreichbarkeiten, da sie Rückschlüsse auf die Tagesabläufe der Zielpersonen geben, beziehungsweise ob die auf der Website angegebenen (leitenden) Mitarbeiter tatsächlich noch im Unternehmen beschäftigt sind. Von Interesse sind in diesem Zusammenhang vor allem die E-Mail-Adresse und Telefonnummer des CEO sowie der Person(en), die im Unternehmen für Überweisungen zuständig ist.

Eine große Rolle spielen auch soziale Netzwerke, in denen Angestellte wie Geschäftsführer munter Auskunft geben über ihre Tätigkeit beziehungsweise Funktion im Unternehmen oder aber persönliche Details wie ihre Reisepläne preisgeben. In jedem Falle stellen Facebook, Xing und Co. eine perfekte Informationsquelle für Kriminelle dar. Hier erhalten sie genügend Insiderwissen, um ihre perfiden Betrugspläne in die Tat umzusetzen.

Den Faktor Mensch nicht unterschätzen!

Aber auch der menschliche Faktor spielt dabei eine nicht zu unterschätzende Rolle. Häufig haben Mitarbeiter Angst vor der höheren Hierarchieebene – und diese Angst nutzen die Betrüger für ihre Attacken aus. Scheut sich ein Mitarbeiter den vermeintlichen Chef-Absender anzusprechen, ob die Dienstanweisung auch tatsächlich legitim sei, haben die Betrüger schon fast gewonnen. Gerade im Mittelstand – häufig sind die Unternehmen hier über Jahre gewachsen, werden nicht selten von Eltern an ihre Kinder weitergegeben – verpassen es die Unternehmer, ihre Strukturen an neue Gegebenheiten anzupassen: Die Überweisung erfolgt auf Zuruf, die Kontaktdaten der Mitarbeiter stehen auf der Homepage und ein Vier-Augen-Prinzip gibt es nicht.

Vertrauen ist gut – Kontrolle ist besser

Betrugsmasche CEO Fraud Um sich gegen CEO Fraud zu wappnen, drehen Sie den Spieß um: Achten Sie darauf, welche Informationen über Ihr Unternehmen öffentlich auffindbar sind. Dazu gehört auch zu wissen, was Sie oder Ihre Mitarbeiter wann und wo im Zusammenhang mit Ihrem Unternehmen publizieren – insbesondere auch geplante Investitionen und Reisepläne der Chefetage. Kontrollieren Sie Ihre Websites sowie Social-Media Accounts und entfernen Sie Durchwahlen sowie personalisierte E-Mail-Adressen. Schaffen Sie klare Abwesenheitsregeln, wenn die Unternehmensleitung oder leitende Angestellte auf Reisen sind. Führen Sie interne Kontrollmechanismen wie ein Vier-Augen-Prinzip oder Höchstgrenzen für Geldtransfers ein. Mit Schulungen sensibilisieren Sie Ihre Mitarbeiter für diese Betrugsmasche und zeigen Sie ganz klare Handlungsoptionen auf.

Es muss Ihnen und Ihren Mitarbeitern in Fleisch und Blut übergehen, grundsätzlich E-Mail-Adressen auf ihre Schreibweise zu überprüfen und Absender nur über Ihnen bekannten Adressdaten zu kontaktieren. Das kann auch ein Anruf beim Vorgesetzten beziehungsweise Absender sein, um sich eine ungewöhnliche Zahlungsanweisung noch einmal bestätigen zu lassen. Größte Skepsis sollte geboten sein, wenn absolute Verschwiegenheit gefordert wird und/ oder dabei die weitere Kommunikation über andere Kommunikationskanäle wie private E-Mail-Adressen oder Chats verlagert wird. Meist jedoch sind Rückfragen gar nicht erwünscht. Wenn doch, dann häufig unter nicht bekannten Telefonnummern mit dem Hinweis nur diese zu nutzen. Ein deutliches Signal ist auch der Aufbau ganz erheblichen Drucks, die geforderte Geldsumme schnell auf ein bis dato unbekanntes Konto anzuweisen – meist mit der Begründung, die Übernahme oder der Deal könnte sonst platzen.

E-Mail-Verschlüsselung kompakt und verständlich

LesetippLast but not least – wir können es nicht häufig genug betonen: Bitte wickeln Sie Ihre E-Mail-Kommunikation verschlüsselt ab. Ganz besonders wenn es um vertrauliche Unterlagen und Vorgänge geht.

Der Beitrag Betrugsmasche CEO Fraud weiter auf dem Vormarsch erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Finanzbranche als Angriffsziel von Cyberattacken

31. Juli 2017 Posted by Heiko Brenn

Machen Banken es Hackern einfach?

Finanzsektor wird häufiger als jede andere Branche von Cyberattacken bedroht

Die Finanzbranche als Angriffsziel zieht Cyberkriminelle seit Jahren magnetisch an. Denn mit der Digitalisierung des Bankengeschäfts landen riesige Mengen an Daten auf Bankenservern. Mit Phishing und Social-Engineering-Attacken gegen Bank-Accounts auf der einen sowie zielgerichteten Attacken und Malware-Vorfällen gegen die IT-Infrastruktur der Institute auf der anderen Seite, versuchen Angreifer dieser habhaft zu werden. Neben personenbezogenen Daten wie Kreditkarteninformationen sind auch unstrukturierte Daten beliebt, mit denen sich im Insiderhandel ordentlich Geld machen lässt. Eine neue IBM-Studie deckt nun auf, dass die Finanzbranche 2016 tatsächlich der Hacker liebstes Ziel war.

Rückblick: August 2016 – Goznym greift an

Finanzbranche als Angriffsziel Im August ist es genau ein Jahr her, als bekannt wurde, dass 13 deutsche Banken und ihre Kunden, darunter auch Sparkassen und Genossenschaftsbanken, von Online-Banking-Trojaner Goznym angegriffen wurden. Hacker nutzen 2016 den Trojaner unter anderem, um Kunden von Onlinebanking auf Phishing Websites umzuleiten. Die gefälschten Websites sahen den Internetauftritten der jeweiligen Institute dabei täuschend ähnlich. Aufgespürt wurde der Trojaner damals von den Sicherheitsexperten der IBM X-Force. Vor Kurzem haben die Sicherheitsforscher der IBM ihren aktuellen Financial Services Report 2016 veröffentlicht, in dem sie die IT-Sicherheit im Finanzbereich untersucht haben.

200 Millionen Angriffe pro Jahr

Finanzbranche als Angriffsziel Die Zahlen sind erschreckend: 200 Millionen Angriffe auf Finanzdienstleister in 2016 zählten die Sicherheitsforscher – ein Anstieg um 937 Prozent zum Jahr 2015. Damit wurde der Finanzsektor im vergangenen Jahr häufiger als jede andere Branche von Cyberkriminellen angegriffen – um 65 Prozent lag hier die Angriffsrate höher! Angesichts solcher Ergebnisse beruhigt es etwas, wenn die Daten des IBM X-Force Threat Intelligence Index auch zeigen, dass die Finanzbranche erst an dritter Stelle steht, wenn es auch um den Erfolg solcher Angriffe geht. Die IBM geht davon aus, dass dies mit den höheren Investitionen der Branche in einen besseren IT-Sicherheitsschutz zu erklären ist. Am schlimmsten sind die Informations- und Kommunikationsbranche sowie der öffentliche Sektor von Sicherheitsvorfällen und Datenpannen betroffen.

Aktuelle Zahlen der Kaspersky-Studie zu Cybergefahren und -sicherheit in der Finanzbranche belegen dies: Die IT-Sicherheitsaufwendungen sind im Finanzbereich höher als in anderen Branchen. Demnach geben Finanzinstitute dreimal so viel für Cybersicherheit aus wie ähnlich große Organisationen aus dem Nicht-Finanzbereich.

Begehrte Kundendaten

Attacken gegen die bankeneigene Infrastruktur sowie gegen die Kundenbasis sind für Cyberkriminelle lukrativ, denn die Unternehmens- und Kundendaten versprechen satte Gewinne. So musste die Finanzbranche mit einem Anstieg der Cyberattacken um 29 Prozent im Vergleich zum Jahr 2015 fertig werden. Dabei haben die Angreifer 2016 mehr Daten gestohlen als die im Vergleichszeitraum von IBM X-Force ermittelte gleichbleibend hohe Anzahl öffentlich gemeldeter Vorfälle.

Dimension Data und Kaspersky: Spitzenreiter Finanzbranche als Angriffsziel

Zu ähnlichen Ergebnissen kommt auch der „Global Threat Intelligence Report 2017“ Nach Erkenntnis des IT-Dienstleistungsunternehmens Dimension Data, einem Unternehmen des japanischen Telekommunikationsriesen NTT, nehmen Behörden und Finanzinstitute den neuen Spitzenplatz der häufigsten Ziele von Cyberattacken im Jahre 2016 ein und verweisen den Spitzenreiter unter den Angriffszielen aus 2015, den Einzelhandel, auf Rang vier. Betrafen im Jahr 2015 lediglich drei Prozent der Virusattacken den Finanzsektor, so stieg der Anteil derartiger Angriffe 2016 auf 14 Prozent. Auf Platz drei liegt nach Angaben von Dimension Data übrigens das produzierende Gewerbe, das 2016 13 Prozent aller Angriffe über sich ergehen lassen musste.

Auch laut Kaspersky sind Finanzinstitutionen im Vergleich zu Organisationen aus anderen Branchen häufiger von zielgerichteten Attacken und Malware-Vorfällen betroffen, auch wenn sie im Vergleich generell weniger Sicherheitsvorfälle berichteten. Mehr als jede vierte Finanzorganisation (26 Prozent) hatte bereits eine zielgerichtete Attacke zu beklagen.

Insider sind die größte Bedrohung

Finanzbranche als Angriffsziel Es ist nicht neu, dass Mitarbeiter als einer der größten Risikofaktoren für die IT-Sicherheit im Unternehmen gelten. Auch wir haben in unserem Blog bereits darüber berichtet. Die IBM bestätigt dies nun auch für den Finanzsektor, denn laut Studie gehen die meisten Bedrohungen auch hier von Insidern aus: 58 Prozent aller Angriffe seien 2016 von Mitarbeitern begangen worden, vergleichsweise „nur“ 42 Prozent kamen komplett von außen. Das heißt jetzt allerdings nicht, dass alle Mitarbeiter absichtlich Schaden anrichten. In 53 Prozent der Fälle waren schädliche Aktivitäten das Ergebnis unbeabsichtigten Handelns, etwa wenn ein Mitarbeiter versehentlich Malware-verseuchte Dokumente aus Phishing-Mails öffnete und so Angreifern Tür und Tor zu Geschäftsdaten öffnet. Laut IBM treten viele dieser Angriffe auf, ohne dass Mitarbeiter sich dessen überhaupt bewusst sind.

Mitarbeiter: Zwischen Risikofaktor und dringend benötigter Fachkraft

LesetippDie größte Schwachstelle für die IT-Sicherheit ist der Mensch – darüber sind sich IT-Verantwortliche weltweit einig. Denn auch das sicherste Netzwerk schützt nicht vor Datenverlust, wenn Mitarbeiter sensible Daten unverschlüsselt über Clouds versenden, immer dieselben Passwörter nutzen, über ihre Social Media Accounts munter sensible Informationen preisgeben oder mit Malware infizierte Dateien auf ihre Computer herunterladen. Wie „gefährlich“ ein Mitarbeiter tatsächlich ist, hängt aber vor allem von seinem Alter ab. Das haben die Analysten des Ponemon Instituts nun in einer Studie herausgefunden. Lesen Sie mehr darüber im Blogartikel.

Finanz-Malware entwickelt sich weiter

Die Sicherheitsexperten von IBM stellten fest, dass einige Länder einen deutlichen Anstieg der Finanz-Cyberkriminalität im Jahr 2016 erlebt haben. Dabei fokussieren Cyberkriminelle ihre Angriffe zunehmend auf Konten von Geschäftsbanken, indem sie Malware wie Dridex, Neverquest, GozNym und TrickBot einschleusten. Da sich erfreulicherweise die großen Finanzinstitute immer besser gegen Angriffe aus dem Netz wappnen, haben IBM X-Force-Forscher herausgefunden, dass die erst kürzlich identifizieren TrickBot Malware Campaigns vor allem gegen weniger bekannte und kleinere Institute und Unternehmen gestartet werden. Dazu gehören Privatbanken, Vermögensverwalter und sehr hochwertige Kontotypen. Aus diesem Vorgehen schließen die X-Force-Forscher, dass ambitionierte Malware-Gangs neue Territorien erschließen wollen.

Minimieren Sie das Risiko

Finanzbranche als Angriffsziel Technische Sicherheitsmaßnahmen allein reichen nicht aus, der Angriffswelle Herr zu werden. Denn welchen Nutzen haben beispielsweise noch so gute Passwörter, wenn es an Anweisungen fehlt, wie damit sicher umgegangen werden soll? Es sind ja gerade solche Umstände, die dazu führen, dass Schwachstellen ausgenutzt werden, die aus (Fehl-)Verhalten von Mitarbeitern resultieren. Nur eine Mischung aus technischen und organisatorischen Sicherheitsmaßnahmen kann Finanzinstitute davor bewahren, ihre wertvollen Daten an Hacker zu verlieren.

Empfehlenswerte organisatorische Maßnahmen

… die über die Aufstellung von Sicherheitsrichtlinien hinausgehen, sind Folgende:

Schulungen und Sicherheitssensibilisierungen von Mitarbeitern, denn nur kontinuierliches Training und Tests sensibilisieren Mitarbeiter dafür, verdächtige E-Mails zu erkennen und nicht Opfer von Phishing-Mails zu werden.

Zugriffskontrollen und Berechtigungsmanagement, die den ungewollten Datenabfluss reduzieren können. Denn wenn der Zugang von Mitarbeitern zu Daten reglementiert ist und sie nur im Rahmen ihrer Tätigkeit oder Funktion auf Daten zugreifen können, kann versehentliches oder absichtliches kopieren, verändern und löschen dieser drastisch eingedämmt werden.

→ Die Entwicklung eines IT-Sicherheitshandbuches und dessen Implementierung im Unternehmen. Denn machen wir uns nichts vor: Jeder kann Opfer einer Cyberattacke werden – 100%-ige Sicherheit gibt es nicht. Um schnell reagieren zu können, ist die vorherige Identifikation und Definition der notwendigen Daten und Maßnahmen sinnvoll. Nicht zuletzt resultieren daraus aus Erkenntnisse, wie der Zugriff von Angreifern am besten verhindert werden kann.

Der Beitrag Finanzbranche als Angriffsziel von Cyberattacken erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Thales Data Threat Report 2017: IT-Security auf dem Prüfstand

26. Juli 2017 Posted by Robert Becker

Thales Data Threat Report 2017: Daten deutscher Unternehmen gefährdeter als je zuvor

djjrhhhoi joijruh houh ioih riuhorroik

Am Vorabend des Inkrafttretens der Datenschutzgrundverordnung hat Thales, ein führendes Unternehmen im Bereich kritischer Informationssysteme, Cybersicherheit und Datenschutz, seinen aktuellen Report zu IT-Sicherheitsbedrohungen vorgestellt. Die wichtigsten Ergebnisse: 95 Prozent der deutschen Unternehmen fühlen sich angreifbar und 25 Prozent berichten von einem Datensicherheitsvorfall. Gleichzeitig sind die IT-Sicherheitsausgaben sind um 80 Prozent gestiegen.

Für den Thales Data Threat Report 2017 wurden über 1100 verantwortliche IT-Security Manager befragt. Die Teilnehmer der Umfrage sind in Branchen wie Öffentliche Verwaltung, Einzelhandel, Finanzen und Gesundheitswesen tätig.

Schlechte Stimmung unter deutschen Security Managern

Thales Data Threat Report 95 Prozent der Deutschen Manager denken, dass ihre IT-Systeme und Daten nicht ausreichend gegen Cyberangriffe geschützt sind. Knapp die Hälfte von ihnen, nämlich 45 Prozent, meint sogar, dass die Sicherheit ihrer IT sehr oder extrem anfällig ist. Damit liegen die Deutschen im internationalen Vergleich auf Platz 1: In keiner anderen Nation empfinden Security-Manager ihre IT-Systeme derart schlecht geschützt wie hierzulande. Und die schlechte Stimmung hat sogar noch einmal zugenommen, denn im vergangen Jahr empfanden „nur“ 90 Prozent ihre IT-Systeme als nicht ausreichend geschützt, 40 Prozent waren 2016 der Meinung, dass die Sicherheit ihrer IT extrem anfällig sei.

Dennoch sind die Deutschen in ihren Befindlichkeiten nicht ganz allein, wie der internationale Vergleich zeigt. Auch 91 Prozent der Australier, 90 Prozent der Mexikaner und genauso viele US-Amerikaner schätzen die Sicherheit ihrer IT-Systeme als nicht nicht ausreichend gegen Angriffe von Cyberkriminellen ein.

Steigende Ausgaben für IT-Sicherheit

Die schlechte Stimmungslage spiegelt sich auch in den Ausgaben für die IT-Sicherheit wider. Deutsche Firmen haben dieses Jahr ihr IT-Sicherheitsbudget zur Abwehr von Bedrohungen im Vergleich vom Vorjahr von 63 Prozent auf 80 Prozent noch einmal deutlich erhöht und liegen über dem weltweiten Durchschnitt von 73 Prozent.

Die gute Nachricht: Weniger Sicherheitsvorfälle

Thales Data Threat Report Es gibt aber auch etwas Positives zu vermelden: „Nur“ 25 Prozent der befragten deutschen Unternehmen waren 2016 tatsächlich von Datensicherheitsvorfällen betroffen. Bei der Befragung aus dem Vorjahr lag die Zahl noch bei 37 Prozent. Damit ging die Zahl der Datensicherheitsvorfälle erfreulicherweise deutlich zurück. Das übrigens gelang keinem anderen Land: Von Großbritannien bis Brasilien, den USA bis Japan nahmen die Sicherheitsvorfälle 2017 zu. In Australien und Mexiko stiegen die Zahlen sogar explosionsartig von 31 beziehungsweise 15 Prozent auf 44 und 34 Prozent an.

Attacken auf jedes zweite Unternehmen

Bei all den guten Nachrichten aus Deutschland darf dennoch nicht verschwiegen werden, dass hierzulande die Hälfte aller Unternehmen schon einmal Opfer von Cyberattacken geworden ist – 9 Prozent von ihnen sogar mehr als einmal! Oder anders ausgedrückt: Beinahe jedes 10. deutsche Unternehmen kann seine Daten nicht gegen wiederholte Angriffe schützen. Da beruhigt es doch wieder, dass ein knappes Drittel der deutschen Unternehmen ihre IT-Sicherheit im Griff haben. 30 Prozent sind noch nie Opfer einer Datensicherheitsverletzung geworden. Damit liegt Deutschland knapp unter dem weltweiten Durchschnitt von 33 Prozent, ist jedoch weit abgeschlagen von Spitzenreitern wie Japan und Großbritannien, in denen 52 und 50 Prozent der Unternehmen alle Daten-Compliance-Audits bestanden haben.

Compliance genießt höchste Priorität

Thales Data Threat Report Vor dem Hintergrund der am 25. Mai 2018 in Kraft tretenden EU-Datenschutz-Grundverordnung (DSGVO) erwarten 81 Prozent der Umfrageteilnehmer, dass sie von Gesetzen zu Datenschutz und Datenhoheit betroffen sein werden. Immerhin ist das Risiko eines Sicherheitsvorfalls für größere deutsche Unternehmen auch sehr hoch: 70 Prozent der Befragten haben schon einmal gegen Compliance-Anforderungen verstoßen oder waren Opfer eines Sicherheitsvorfalls. Jedes vierte deutsche Unternehmen wird jedes Jahr erneut Opfer eines Sicherheitsvorfalls. Vor diesem Hintergrund müssen Unternehmen also noch einiges tun – und sind sich dessen auch bewusst: Compliance und Best Practices, beide im Hinblick auf die DSGVO sehr wichtig, genießen bei den IT-Sicherheitsausgaben 2017 oberste Priorität. Zumal Datenschutzverletzungen ab dem nächsten Jahr mit einer Geldstrafe von bis zu 4 Prozent des weltweiten Brutto-Umsatzes geahndet werden.

Neue DSGVO: Kein Datenschutz nach Pi mal Daumen

LesetippMit dem Beschluss der neuen EU-Datenschutzgrundverordnung wurde wahrscheinlich die größte Umwälzung im Datenschutzrecht eingeleutet. Sie ist ab Mai 2018 bindend. Was bedeutet das für deutsche und europäische Unternehmen? Rechtsanwältin Dr. Bettina Kähler gibt einen Überblick über die wichtigsten Änderungen und die wesentlichen Maßnahmen, die Ihr Unternehmen schon jetzt einleiten sollte.

Investiert wird bei der IT-Sicherheit übrigens hauptsächlich in die Netzwerksicherheit (79 Prozent) sowie in die Endpoint- und Mobile-Security (72 Prozent). Dies ist interessant, denn Unternehmen setzen verstärkt fortschrittliche Technologien ein – bei den Investitionen belegen Sicherheitslösungen wie Verschlüsselung und Zugriffskontrollen aber nur den vorletzten Platz.

Nicht ohne Verschlüsselung: Einsatz Neuer Technologien

Thales Data Threat Report Der Einsatz Neuer Technologien wie Cloud, Internet der Dinge und Big Data verschärfen die Anforderungen an die IT-Sicherheit zusätzlich. So geben 96 Prozent der gefragten IT-Manager an, Unternehmensdaten in mindestens einer der eben genannten Umgebungen zu speichern oder zu verarbeiten. Erschreckend ist dabei, dass Zwei Drittel in diesen Umgebungen keine Sicherheitslösungen zum Schutz vertraulicher Daten einsetzen! Um den Anforderungen der DSGVO gerecht zu werden, kommen immer mehr deutsche Unternehmen zu der Einsicht, dass Verschlüsselung den digitalen Wandel und den Einsatz neuer Technologien ermöglicht. Als Resultat sind 57 Prozent der Befragten der Meinung, Verschlüsselung ermögliche eine verstärkte Nutzung der Cloud und löse die größten Big Data Sicherheitsprobleme: Wahrung der Vertraulichkeit von Daten an jedem Ort und zu jeder Zeit, die Sicherheit von Berichten sowie fehlende Zugangskontrollen. 58 Prozent der Befragten denken zudem, dass Datenverschlüsselung für den verstärkten Einsatz des IoT am wichtigsten ist.

Fazit: Das gibt es noch zu tun

Der Thales Report kommt auf Grundlage der Ergebnisse zu dem Schluss, dass es noch einiges für die IT-Security Manager zu tun gibt und formuliert vier Kernaufgaben.

  • So müssen neue Schwerpunkte bei IT-Sicherheitslösungen gesetzt werden, denn die traditionellen IT-Sicherheitsmodelle sind auf Cloud und SaaS nicht anwendbar.
  • Vielmehr erfordert Datensicherheit künftig Verschlüsselung und Zugriffskontrollen.
  • Dies setzt jedoch voraus, dass zunächst einmal Kenntnis über die Speicherorte vertraulicher Daten, vor allem in Cloud-, Big-Data-, Container- und IoT-Umgebungen, gewonnen werden muss.
  • Eine weitere Kernaufgabe muss sein, unabhängig von Compliance-Anforderungen auf Verschlüsselung und BYOK (Bring Your Own Key) zu setzen. Dabei darf Verschlüsselung aber nicht nur auf Laptops und Desktop-PCs beschränkt sein, sondern muss unter anderem auch im Rechenzentrum auf Datei und Anwendungsebene, in der Cloud sowie im Big Data-Umfeld stattfinden.

Studie

Der Beitrag Thales Data Threat Report 2017: IT-Security auf dem Prüfstand erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.