Posts Tagged: ‘Trends’

Manifest IT-Sicherheit identifiziert sechs Problemfelder

17. Juli 2017 Posted by Robert Becker

Manifest IT-Sicherheit Banner

Thesenpapier deckt Defizite auf und formuliert Lösungen

Leitliniendokument mit konkreten Forderungen an die Politik

Im März diesen Jahres übergaben Vertreter des Bundesverbandes der IT-Anwender „VOICE“ und des Bundesverbandes IT-Sicherheit e.V. – TeleTrusT ihr gemeinsam erarbeitetes Manifest zur IT-Sicherheit an die Bundesregierung. Das an die Politik adressierte Leitliniendokument stellt Defizite und Problembereiche im Umfeld der IT-Sicherheit dar. Dabei zeigen die im Manifest formulierten Ziele und Absichten große Übereinstimmung mit der im November 2016 von der Bundesregierung beschlossenen Cyber-Sicherheitsstrategie für Deutschland.

Aber der Reihe nach. Bevor wir uns dem 20-seitigen Papier widmen, rufen wir uns noch einmal besagte Cyber-Sicherheitsstrategie in Erinnerung:

Status quo in Sachen IT-Sicherheit

Mit Fortschreiten der Digitalisierung nimmt die Anzahl und Qualität von Cyber-Attacken kontinuierlich zu. Auffällig dabei ist einerseits der hohe Professionalisierungsgrad der Angriffe: Hochentwickelte Schadprogramme nehmen gezielt nur unzureichend gesicherte IT-Landschaften ins Visier. Andererseits reichen die klassischen Abwehrmaßnahmen aus Antiviren-Programmen oder Zugangssicherung per Passwort und Benutzernamen längst nicht mehr aus.

Um angesichts dieser Tatsachen die Handlungsfähigkeit und Souveränität der Bundesrepublik zu gewährleisten, beschloss die Regierung im November 2016 ihre neue Cyber-Sicherheitsstrategie für Deutschland. Dabei lautet der Grundtenor für die Cyber-Sicherheitspolitik der Bundesregierung: Deutschland muss die Chancen und Potenziale der Digitalisierung voll ausschöpfen können und gleichzeitig auch die damit verbundenen Sicherheitsrisiken beherrschen.

Die Cyber-Sicherheitsstrategie für Deutschland

Cyber-Sicherheitsstrategie Das Strategiepapier wirbt für sicheres, selbstbestimmtes Verhalten der Bürger und stellt sich gegen die „digitale Sorgloskultur“. Staat und Wirtschaft sollen näher zusammenrücken, unterdessen die europäische und internationale Cyber-Sicherheitspolitik noch enger verflochten werden sollen.

Als konkrete Schritte benennt das Papier den Ausbau des nationalen Cyber-Abwehrzentrums (NCAZ), sodass es in Schadensfällen als Krisenzentrum arbeiten kann. Zudem soll der bereits 2011 eingerichtete nationale Cyber-Sicherheitsrat stärker eingebunden werden, um „Handlungsnotwendigkeiten“ zu identifizieren. Ergänzt werden diese Maßnahmen um die Aufstellung von „Mobile Incident Response Teams“ (MIRTs), die im Bundesamt für Sicherheit in der Informationstechnik (BSI) sowie in der Bundeswehr zum Einsatz kommen.

Cyber-Sicherheitsstrategie Noch in diesem Jahr soll ein IT-Gütesiegel, betreut vom BSI, eingeführt werden, das Verbrauchern sichere IT-Produkte anzeigt. So sollen sie „bei der Kaufentscheidung für neue IT-Produkte und bei der Inanspruchnahme entsprechender Dienstleistungen schnell und einfach feststellen können, welche Angebote wie gut zum Schutz der IT und der Daten beitragen“. Außerdem sollen Bürger unter anderem zur Nutzung der Onlineausweisfunktion ihres Personalausweises animiert werden.

Die Bundesregierung ist zu dem Schluss gelangt, dass Sicherheit nach dem klassischen Benutzername-Passwort-Prinzip nicht mehr ausreicht. So soll beispielsweise die Nutzung von Verschlüsselungstechniken gefördert werden: „Die Bundesregierung wird die spezifischen Hemmnisse beim Einsatz von Verschlüsselungslösungen untersuchen und Initiativen zum Abbau dieser Hemmnisse fördern“, heißt es im Strategiepapier. Zudem wird die Regierung die stetige Weiterentwicklung der technischen Fähigkeiten von Strafverfolgungs- und Sicherheitsbehörden parallel zur technischen Entwicklung in Sachen Verschlüsselung forcieren.

Manifest IT-Sicherheit: Thesen und Problembereiche

Zurück zum Manifest IT-Sicherheit: VOICE und TeleTrust haben in ihrem Thesenpapier sechs Problemfelder identifiziert. Dem aber nicht genug. Gemeinsam haben die beiden Verbände daraus sechs Thesen erarbeitet. Konkrete Aufgaben in jeder These skizzieren, wie die jeweilige Herausforderung bewältigt werden könnte.

  • These 1: Sicherheitsprobleme gefährden nachhaltige Digitalisierung

    Die IT-Sicherheitsprobleme werden jedes Jahr größer. Die IT-Architekturen von Endgeräten, Servern und Netzkomponenten sind nicht sicher genug konzipiert, um den Fähigkeiten von intelligenten Hackern standzuhalten. Für ihre erfolgreichen Angriffe machen sich Kriminelle auch die unzureichende Qualität von Software zu Nutze: Sie installieren Malware, stehlen Passwörter und Identitäten und spionieren Endgeräte aus.

  • These 2: Zu wenige sichere und vertrauenswürdige IT-Lösungen

    Manifest IT-Sicherheit Immer komplexer werdende Software und immer kompliziertere Zusammenhänge zwischen Protokollen, Diensten, IT-Geräten und globalen Infrastrukturen vergrößern die Angriffsfläche für Hacks derart, dass sogar „harmlose“ Geräte wie Kaffeemaschinen, Drucker oder Smartwatches als Einfalltore missbraucht werden. Hinzu kommt die Tatsache, dass der IT-Sicherheitsmarkt aus vielen kleinen Anbietern besteht, die nur Nischen abdecken. Da eine „Komplettlösung“ aus einer Hand eines nationalen Herstellers nicht existiert, hat dies zur Folge, dass Anwender für einen umfänglichen Schutz gegen allerhand Bedrohungen Nischenlösungen „übereinander stapeln“ müssen.

  • These 3: Fehlende Transparenz und Vertrauen

    Staatlich motivierte Schwachstellen und Hintertüren in der IT sorgen für weniger Sicherheit und zerstören das Vertrauen in IT-Technologien und IT-Dienste. So werden IT-Produkte häufig bereits als „unsicher“ am Markt platziert und IT-Sicherheitsfeatures meist erst auf Nachfrage oder Druck von Anwendern angeboten beziehungsweise sind erst dann zu- oder abschaltbar. Es mangelt zudem an flächendeckender Verschlüsselung für die Übertragung und Speicherung digitaler Informationen. Hierfür jedoch müssen erst sichere und vertrauenswürdige Verschlüsselungsprodukte geschaffen werden, die einfach zu integrieren und zu nutzen sind.

  • These 4: Unzureichende Umsetzung der Prinzipien Security-by-Design sowie Privacy-by-Design

    Die Qualität und die Prozesse rund um die Entwicklung von quelloffener Software bergen noch großes Verbesserungspotential bezüglich Sicherheit und Vertrauen in die IT. Jedoch wird dieses Verbesserungspotential für sichere und vertrauenswürdigere Software, insbesondere Open Source Software, noch nicht ausreichend gefördert, gefordert und genutzt. Dabei erlauben es Offene Systeme, IT-Architekturen und IT-Produkte, Sicherheit und Vertrauenswürdigkeit bei Bedarf jederzeit zu überprüfen.

  • These 5: Mangelnde Selbständigkeit der europäischen IT-Sicherheitsinfrastruktur

    Europa mangelt es an einer eigenen IT-Sicherheitsinfrastruktur. Diese ist jedoch für eine eigene Souveränität sowie sichere und vertrauenswürdige IT-Lösungen unerlässlich.

  • These 6: Steigende Bedrohung durch Cyber-War

    Cyber-War, Cyber-Sabotage und Cyber-Spionage durch andere Staaten oder terroristische Gruppen auf Kritische Infrastrukturen stellen eine steigende Gefahr für Unternehmen, aber auch die gesamte Gesellschaft, dar.

Manifest IT-Sicherheit: Gemeinsame Aufgabenstellungen

Der Grad an IT-Sicherheit und Vertrauenswürdigkeit ist in Deutschland derzeit nicht ausreichend. Es fehlt an Wissen, Verständnis, Einschätzungskompetenz, Technologien und Vorgehensweisen. Viele IT-Produkte erreichen nicht den nötigen Reifegrad hinsichtlich IT-Sicherheit, um ein grundlegendes Maß an Vertrauenswürdigkeit zu etablieren. Deshalb haben TeleTrust und VOICE Aufgaben zur Lösung der oben genannten Thesen und Problemfelder formuliert.

  • Aufgabe 1: Gemeinsam intolerant gegenüber unsicheren IT-Lösungen!

    Manifest IT-Sicherheit Die Verbände sind sich einig darüber, dass das Sicherheitsniveau eines IT-Produktes klar erkennbar, überprüfbar und mit dem anderer vergleichbar sein muss. Das Aushängeschild „IT Security made in Germany“ für IT-Sicherheit und Daten-schutz hat sich in diesem Zusammenhang zwar bereits erfolgreich etabliert. Kernaufgabe muss es jedoch werden, auch eine IT-Sicherheitssouveränität zu schaffen und zu fördern.

    Ein Großteil erfolgreicher Angriffe erfolgt über veraltete Software. Deshalb müssen die Hersteller in die Pflicht genommen werden Schwachstellen in Hard- und Software zu schließen. Gleichzeitig gilt es, bekannte Konzepte, auf denen die heutige Softwareentwicklung aufsetzt, im Hinblick auf IT-Sicherheitsaspekte zu überprüfen und, wenn notwendig, neu zu entwerfen. Aber damit nicht genug: Auch Anwender müssen die angebotenen Nachbesserungsmöglichkeiten schnellstens annehmen.

  • Zentrales E-Mail-Management mit der iQ.Suite

    LesetippMit der iQ.Suite von GBS umfassendes Lösungspaket zum E-Mail-Management, das alle notwendigen Bausteine auf dem Weg zur E-Mail-Compliance miteinander verbindet. Beginnend beim Viren- und Spamschutz, über Verschlüsselung und Haftungsausschluss bis hin zu rechtssicheren Archivierung decken wir alle Aspekte eines durchgängigen E-Mail-Managements ab.
  • Aufgabe 2: Gemeinsam für wirkungsvolle IT-Sicherheit!

    Manifest IT-Sicherheit Das Thesenpapier betont die notwendige Zusammenarbeit der Verbände mit IT-Marktführern, um eine optimale Integration von IT-Sicherheitslösungen in Hard- und Software umzusetzen und zu überprüfen. Die Einbeziehung von Anwendern ist jedoch nötig, um angemessene, wirkungsvolle, sichere und vertrauenswürdige IT-Lösungen zu schaffen. VOICE und TeleTrust erachten dabei die Erarbeitung und Festlegung einer gemeinsamen IT-Sicherheitsstrategie mit konkreten Zielen, wie der Sicherheit und Vertrauenswürdigkeit in der IT, als notwendig.

  • Aufgabe 3: Gemeinsam digitale Werte sicher verschlüsseln!

    Transparenz und Vertrauen müssen vom Alleinstellungsmerkmal zum Standard-Ausstattungsmerkmal eines IT-Produktes werden – so lautet die grundlegende dritte Aufgabenstellung laut Thesenpapier. Und so soll sie gelöst werden: Verschlüsselung muss nicht nur häufiger aktiv zum Einsatz kommen, sie muss auch einfach in der Bedienung sowie in der Integration werden. Dafür müssen Hersteller und Anwender von Verschlüsselungslösungen enger zusammenarbeiten. Beide Seiten müssen einer staatlich motivierten Schwächung von Kryptografie oder den Wünschen nach Hintertüren gemeinsam eine Absage erteilen. Im gleichen Atemzug ist die konsequente Erstellung und Nutzung von IT-Technologien und -Diensten, die keine staatlich motivierten Schwachstellen und Hintertüren in IT-Lösungen beinhalten, Voraussetzung.

    Zudem fordern beide Verbände eine klare Positionierung der EU-Länder und der EU hinsichtlich des Schutzes der digitalen Werte. Darüber hinaus sollten sie dafür sorgen, dass mehr sichere und vertrauenswürdige IT-Technologien und IT-Dienste entwickelt und genutzt werden.

  • Aufgabe 4: Security-by-Design und Privacy-by-Design Software müssen Anforderungen an Sicherheit erfüllen!

    Security-by-Design und Privacy-by-Design Software vermeiden hohe nachträgliche Sicherheitsassessments, weshalb zukünftige Vorhaben diese Anforderungen erfüllen müssen. Derweil muss Open Source Software bezüglich der IT-Sicherheitsaspekte nachhaltig überprüft werden. Beide Verbände sehen hierfür den gemeinsamen Aufbau eines Fonds als notwendig: Über ihn können finanzielle Mittel für die Verbesserung der Softwarequalität von wichtigen Open Source-Komponenten zur Verfügung gestellt werden. Ziel müsse es sein, sichere und vertrauenswürdige IT-Technologien schnell in die Fläche von wichtigen und zukunftsorientierten Anwendungsbereichen zu bekommen.

  • Aufgabe 5: Ausbau, Sicherung und Förderung des technologischen Stands in Europa!

    Manifest IT-Sicherheit TeleTrust und VOICE fordern die EU auf, kurz- bis mittelfristige Maßnahmen zu ergreifen, um die Souveränität im Bereich IT- Sicherheit für wichtige IT-Infrastrukturen aufzubauen und zu sichern. Hierfür schlagen die Verbände vor, dem Attribut „IT-Sicherheitsinfrastruktur in Europa“ einen besonderen Wert beizumessen. Gleichzeitig sollen Aufsichtsräte und Beiräte deutscher sowie europäischer Unternehmen in ihren Strategien die Anforderungen an IT-Sicherheit sowohl für Produkte als auch für Dienstleistungen und Anwendungen hinterfragen und bewerten.

  • Aufgabe 6: Regelmäßige Kontrolle potenziell gefährlicher IT-Lösungen!

    Sofern eine IT-Lösung das Potenzial aufweist, negative Auswirkung auf die kritischen Infrastrukturen auszuüben, liegt die Aufgabe nach Meinung beider Verbände darin, diese sorgfältig zu prüfen und regelmäßig zu kontrollieren. Zum Erreichen einer höheren Sicherheit und Robustheit fordern TeleTrust und VOICE dabei eine Zusammenarbeit aller Interessengruppen.

    Darüber hinaus sollte auch in Prävention, Detektion und Reaktion investiert werden. Notwendig seien Notfallpläne für ein Worst-Case Szenario, die Entwicklung von Krisenstabsübungen sowie die Bildung von Eingreiftruppen.

IT-Security Trends: Hacker im El Dorado

LesetippDer Präsident des Bundesamtes für Verfassungsschutz vergleicht Hacker-Angriffe mit gelenkten Mittelstreckenraketen. Zahlen und Fakten zum Thema IT- Sicherheit finden Sie in diesem Beitrag in unserer übersichtlichen Infografik „Cyberattacken“.

Fazit

TeleTrust und VOICE e.V. stellen in ihrem Manifest ganz konkrete Forderungen an Politik und IT-Anbieter. Werden die bestehenden Sicherheitsmängel in Hardware, Software und Betriebssystemen nicht von Grund auf beseitigt, sehen beide Industrieverbände große Gefahren auf eine sich zunehmend vernetzende Wirtschaft zukommen. Hart ins Gericht gehen sie insbesondere mit dem geringen Reifegrad von Systemen und deren Widerstandsfähigkeit gegen Angriffe. Kritik üben TeleTrust und VOICE auch an der fehlenden Standardisierung vorhandener Sicherheitslösungen.

Europäische Hersteller werden aufgefordert, vermehrt eigenes Know-how rund um die IT-Sicherheit aufzubauen und alle IT-Produkte so zu designen, dass Sicherheit und Datenschutz von Beginn an berücksichtigt werden. Zudem fordern die Verbände IT-Anbieter auf, Lösungen anzubieten, die das Prinzip Security-by-Design befolgen. Alles andere würde sonst IT-Anwendungsunternehmen in ernsthafte Schwierigkeiten bringen, ihren Teil zur Cyber-Sicherheit beizutragen.

Der Beitrag Manifest IT-Sicherheit identifiziert sechs Problemfelder erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Neue Studie „Workflow Spezial 2017“ unter Microsoft SharePoint

10. Juli 2017 Posted by Andreas Richter

SharePoint Workflow: Unzufriedene Anwender

SharePoint – Eine strategische Geschäftsplattform

Seit der Einführung des ersten SharePoint Portal Servers sind 16 Jahre vergangen und seit 2001 hat das Produkt eine Wandlung vollzogen: Gestartet als Rüstzeug für die dokumentenbasierte Teamarbeit über ein Tool für Social Business Collaboration bis hin zur Plattform für Workflows und Prozessmanagement hat sich der Schwerpunkt immer wieder verlagert. Für Letzteres liefert Microsoft mit den integrierten SharePoint Workflow-Erweiterungen seit SharePoint 2007 das notwendige Werkzeug.

Dennoch sind die Möglichkeiten dieses Werkzeugs bis heute sehr limitiert, so dass viele Unternehmen entweder eigene Erweiterungen programmieren oder sich im wachsenden Markt an Workflow- und Prozess-Tools nach professionellen Alternativen umsehen. Aber welche Bedürfnisse haben Anwender dabei? Welche Erwartungen stellen sie an die Hersteller? Welche Chancen ergeben sich dabei sowohl für etablierte Anbieter als auch für neue?

Um Antworten auf diese Fragen zu finden, haben wir gemeinsam mit Prof. Dr. Arno Hitzges von der Hochschule der Medien in Stuttgart, und Wolfgang Miedl vom Fachportal SharePoint 360.de eine Studie aufgesetzt.

Als empirische Grundlage für unsere SharePoint Studie Workflow Spezial 2017 dient eine Anwenderbefragung, die von März bis April 2017 durchgeführt wurde. Insgesamt haben sich daran rund 150 Vertreter aus Unternehmen im deutschsprachigen Raum beteiligt. Die meisten von ihnen waren Entscheider aus den Bereichen IT, Marketing und Geschäftsführung. Der Großteil, nämlich 39 Prozent, ist im Industriesektor heimisch, 10 Prozent gehören dem Handel an und 8 Prozent sind im Bereich öffentliche Einrichtungen angesiedelt. Der Rest verteilt sich weitgehend sich auf die Branchen Dienstleistung, Banken und Versicherungen, Verkehr und Logistik sowie Telekommunikation.

Die Office 365-Cloud ist im Kommen

SharePoint Workflow Microsoft macht Fortschritte, was den Einsatz von Office 365 mit der enthaltenen Kernkomponente SharePoint Online betrifft. 29 Prozent setzen bereits die Cloud-Suite in irgendeiner Form ein. Bei einer ähnlichen Befragung im vergangenen Jahr waren es noch 13 Prozent. Dennoch setzt mit 64 Prozent noch immer ein Großteil der Anwendungsunternehmen auf den Betrieb im eigenen Unternehmen (SharePoint On-Premise).

Der „typische“ Office 365-Nutzer arbeitet übrigens in kleineren Unternehmen: 34 Prozent der Office 365-Nutzer sind in Unternehmen mit einer Größe zwischen 1 und 200 Mitarbeitern angesiedelt.

Fachbereiche bilden Prozesse in SharePoint ab

SharePoint Workflow Workflows und die damit einhergehende Automatisierung von Geschäftsprozessen genießen in Unternehmen einen sehr hohen Stellenwert. Tatsächlich gaben 56 Prozent der Befragten an, SharePoint Workflow Lösungen im Bereich Workflow-Management bereits zu nutzen, weitere 26 Prozent der Befragten planen dies in der Zukunft. Auffällig ist, dass der IT-Fokus zusehends schwindet und der Nutzung von SharePoint in Fachabteilungen Platz macht. Insbesondere breitet sich SharePoint in den Bereichen Vertrieb (36 Prozent), Einkauf (36 Prozent) und Marketing (33 Prozent) aus.

Datenquelle Drittsysteme

Nun müssen all die Daten, die für die verschiedensten Workflows im Unternehmen bereitgestellt werden, irgendwo herkommen. Unsere Studie deckt dabei auf, dass 34 Prozent der Unternehmen eine Anbindung an externe Drittsysteme benötigen. Die Daten stammen dabei überwiegend aus SAP-Systemen, gefolgt von allgemeinen ERP- und CRM-Anwendungen. Ein weiteres Drittel der Befragten verwendet übrigens ausschließlich Daten, die innerhalb von SharePoint zur Verfügung stehen.

Viel Luft nach oben bei Drittanbieter-Lösungen

Soweit so gut: Die meisten Unternehmen setzen also auf Drittanbieter-Lösungen. Was jedoch die Zufriedenheit mit diesen angeht, sieht es gar nicht rosig aus: Gerade einmal sechs Prozent sind sehr zufrieden mit den derzeit eingesetzten Lösungen. Der Großteil, nämlich 52 Prozent, ist eher mäßig zufrieden bis unzufrieden. Im Markt für Workflow-Lösungen ist also noch deutlich „Luft nach oben“.

Unzufriedenheit mit den von SharePoint bereitgestellten Funktionalitäten

SharePoint Workflow Da drängt sich doch gleich auch die Frage nach der Zufriedenheit mit den standardmäßig verfügbaren Funktionen in Microsoft SharePoint auf. Die Antwort darauf fällt mehr als deutlich aus: 58 Prozent der befragten Anwender sind nicht oder nur teilweise zufrieden mit den Microsoft-eigenen Möglichkeiten.

Wir haben uns daraufhin den Einsatz von Workflow-Tool detaillierter angeschaut und stellen fest, dass mehr als zwei Drittel (71 Prozent) der Anwender eine zusätzliche Software verwenden. Von ihnen begnügen sich 32 Prozent mit den von Microsoft gelieferten Funktionen und fast die Hälfte – 49 Prozent – setzt für die Entwicklung von SharePoint Workflow lieber auf Drittanbieter-Lösungen.

Ganz offensichtlich steht der hohe Einsatzgrad an externen Workflow-Tools auch in Zusammenhang mit der oftmals schwierigen Ressourcen-Situation im Personalbereich: Gut 80 Prozent der Unternehmen setzen weniger als fünf Mitarbeiter im SharePoint-Umfeld ein.

Unternehmen wollen im Bereich Workflow investieren

Dass genügend Potenzial sowohl für etablierte Anbieter als auch innovative Newcomer vorhanden ist, beweist schon die vorhandene Investitionsbereitschaft im Bereich Workflow: 20 Prozent der bereits bestehenden Anwender wollen in den nächsten 12 Monaten mehr als 50.000 Euro im Bereich Workflows investieren. Der überwiegende Teil, 75 Prozent, will bis zu 50.000 Euro in die Hand nehmen.

Berücksichtigt man die Tatsache, dass in letzter Zeit einige neue Anbieter mit innovativen Produkten im Marktsegment Workflow-Tools auftreten, steht ein spannender Wettbewerb bevor. Anwender können dabei eigentlich nur gewinnen: Im wachsenden Produktfeld steigt die Auswahl, und der steigende Wettbewerb wird auch die Marktführer zu mehr Innovation und Produktpflege motivieren.

GBS AppDesigner – Workflow Management leicht gemacht

LesetippMit dem GBS AppDesigner steht Ihnen eine intuitive Lösung zum Workflow-Management zur Verfügung, mit der sich beliebige Geschäftsabläufe einfach modellieren und automatisieren lassen. Damit bekommen Sie die größten Herausforderungen sicher in den Griff!

Fazit

Die Herausforderungen, die im Bereich SharePoint-basierender Workflow-Lösungen existieren, sind im Rahmen der Studie deutlich zutage getreten. So hält sich insbesondere die Zufriedenheit der Anwender mit integrierten Funktionen in Grenzen. Gleichzeitig macht die vorliegende Studie auch deutlich, dass die Unternehmen mit allen momentan gängigen Anwendungen, also auch den Zusatz-Tools von Drittanbietern, Probleme haben und bei den Zufriedenheitswerten insgesamt noch viel Luft nach oben besteht.

Nichtsdestotrotz sind SharePoint Workflow Lösungen auf der SharePoint-Plattform auf dem Vormarsch. Die enorme Verbreitung als Unternehmens- oder Abteilungsportal dürfte in vielen Firmen den Ausschlag geben, auch Workflows darüber abzubilden.

SharePoint Workflow Spezial 2017 – Digitale Transformation mit SharePoint

LesetippHolen Sie sich jetzt Ihr kostenfreies Exemplar der neuen Studie „Workflow Spezial 2017“. Diese will Anwendern unter Microsoft SharePoint und Office 365 mehr Transparenz über Einsatzziele, Nutzung und Markttrends vermitteln.

Der Beitrag Neue Studie „Workflow Spezial 2017“ unter Microsoft SharePoint erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Agiler Softwareentwicklungsprozess: Komplexität beherrschen

22. März 2017 Posted by Dr. Rolf Kremer

Banner - Agile Softwareentwicklung

Projektteams sorgen für erfolgreiche Softwareentwicklung

Populäre Methode in der Softwareentwicklung: Scrum

Die Entwicklung von Unternehmenssoftware ist heute ein komplexes Unterfangen mit einer Vielzahl an Beteiligten. Als Softwareunternehmen wissen wir das nur zu gut. Denn unsere Lösungen bedienen nicht nur unterschiedlichste Kundenanforderungen in den Bereichen E-Mail- und Workflow-Management, sondern arbeiten auch mit verschiedensten Technologien auf einer Vielzahl an Plattformen.

Und neben den Mitarbeitern, die die eigentliche Programmierung durchführen, sind auch zahlreiche Kollegen zum Testen der Software eingebunden. Für das Aufstellen der Anforderungen und die Abnahme sind zudem Produktmanager zuständig. Je nach Umfang des Entwicklungsvorhabens können noch User Interface Designer, die für das Entwerfen der Benutzerschnittstelle zuständig sind, Software Architekten, welche die Architektur der Software entwerfen, und Stakeholder eingebunden werden.

In diesem Artikel möchte ich gemeinsam mit Ihnen einen Blick auf eine der derzeit populärsten Methodiken werfen: den agilen Softwareentwicklungsprozess basierend auf Scrum.

Agile Durchführung

Damit ein Softwareentwicklungsprozess zielgerichtet umgesetzt werden kann, erfolgt die Durchführung mit Hilfe von Vorgehensmodellen. Bei den in den 1970er Jahren eingeführten Wasserfall-Modellen wurde versucht, bereits am Anfang eines Projektes möglichst vollständig alle terminlichen, wirtschaftlichen und organisatorischen Aspekte festzulegen. Dies entspricht aufgrund der Komplexität von Software und der sich häufig ändernden Anforderungen oftmals nicht der Realität.

Demgegenüber können bei den inkrementellen Vorgehensmodellen im Laufe des Projektes Anpassungen terminlicher, wirtschaftlicher und organisatorischer Art vorgenommen werden. Im Jahr 2001 wurden von sechs Autoren 12 Prinzipien zur Entwicklung von Software im Rahmen des Agilen Manifests definiert.

Diese definieren unter anderem, dass späte Anforderungsänderungen erwünscht sind, dass regelmäßig eine funktionierende Version der Software erstellt, persönliche Gespräche innerhalb des Entwicklungsteams bevorzugt werden sollen und dass in regelmäßigen Abständen das Team überprüft, wie es effektiver arbeiten kann. Dadurch soll eine höhere Produktivität des Teams, eine schnellere Auslieferung, eine bessere Qualität der Software erreicht werden, so dass sich letztendlich eine höhere Kundenzufriedenheit einstellt. Diese Prinzipien finden sich in einigen Vorgehensmodellen wieder. Dazu gehören Scrum, Kaban und eXtreme Programming.

Agiler Softwareentwicklungsprozess

Scrum

Laut einer Umfrage mehrerer Hochschulen, ist Scrum das am häufigsten in einem Softwareentwicklungsprozess eingesetzte Vorgehensmodell. Auch in der Entwicklung bei GBS kommt diese Methodik zum Einsatz. Bei Scrum handelt es sich um eine Organisationsmethode und ein Framework des Projektmanagements. Scrum basiert auf der Idee, dass sich das Entwicklerteam selbst organisieren und auch die unterstützenden Werkzeuge selbst bestimmen kann.

Die drei wichtigen Rollen in Scrum: Product Owner, Scrum Master, Scrum Team

Der gesamte Zeitraum, der vom Projektstart bis zum Projektende zur Verfügung steht, wird in Iterationen eingeteilt. Eine Iteration dauert in der Regel eine oder zwei Wochen. Für die Durchführung werden die Beteiligten in Scrum in drei Rollen eingeteilt:

  • Der Product Owner ist für die Pflege der Anforderungen verantwortlich. Er vertritt im Projekt den Kunden und definiert die Projektziele und nimmt am Ende der Iteration die Ergebnisse ab. Die Anforderungen definiert der Product Owner umgangssprachlich zusammen mit den Abnahmekriterien, in Form von User Stories. Die User Stories werden dabei immer aus der Sicht des jeweiligen Anwenders der Software definiert.
  • Neben dem Product Owner gibt es den Scrum Master, welcher für die Durchführung und Einhaltung des Scrum-Prozesses zuständig ist. Daneben ist er für die Organisation der Besprechungen zuständig.
  • Die dritte Rolle ist das Scrum Team. Es besteht aus den Personen, die für die Ausführung der Aufgaben im Projekt zuständig sind. Hierzu können die Software Architekten, die Software Entwickler, die Test Engineers, die Technischen Redakteure oder UX Designer gehören. Damit das Projekt organisierbar bleibt, sollte das Scrum Team im optimalen Fall zwischen 3 und 6 Personen umfassen.

Anfang und Ende einer Iteration

Am Anfang einer Iteration definiert das Scrum Team im Planungsmeeting selbständig, welche Aufgaben von wem in der Iteration durchgeführt werden. Am Ende der Iteration stellt das Scrum Team im Review-Meeting dem Product Owner die Ergebnisse vor, der die Aufgabe abnehmen oder Änderungen bestimmen kann. Zwischen dem Planungs- und dem Review-Meeting werden in der Regel einmal täglich Daily Scrum-Meetings durchgeführt, indem die Scrum Team-Mitglieder über den aktuellen Stand ihrer Aufgaben berichten und mitteilen, ob Probleme aufgetreten sind. Diese täglichen Meetings sollen kurz gehalten werden und sollen in der Regel nicht länger als 15 Minuten dauern.

Am Ende einer Iteration findet ein Retrospektive-Meeting statt, in dem versucht wird, Hindernisse in der vergangenen Iteration zu finden, so dass diese in der nachfolgenden Iteration vermieden werden können. In der Praxis hat es sich bewährt keinen starren Scrum-Prozess für alle Projekte anzuwenden. Stattdessen sollten am Anfang eines jeden Projektes die Parameter für den Scrum-Prozess hinsichtlich der Projektgegebenheiten und den zur Verfügung stehenden Personen definiert werden.

Microsoft Team Foundation Server

Aufgrund der Komplexität der Softwareentwicklung kann der Steuerungs- und Aufgabenprozess in Scrum-Projekten mit Hilfe von elektronischen Werkzeugen unterstützt werden. Ein beliebtes Werkzeug ist der Team Foundation Server (TFS) von Microsoft, den wir für unsere beiden Produktlinien iQ.Suite und GBS AppDesigner verwenden. Der Product Owner kann das Produkt-Backlog mit Hilfe von Epics, Features und User Stories strukturieren und so die Funktionsvorgaben an das Team definieren. Dem Team wiederum steht ein Taskboard zur Verfügung mit dem die Aufgaben den Team-Mitgliedern zur Bearbeitung zugewiesen werden können. Jede Aufgabe wird in Form einer Karteikarte angezeigt und kann und per Drag & Drop entsprechend dem Bearbeitungsstand zu dem Fortschrittsstatus verschoben werden. Dazu kann das Taskboard beispielsweise in die Spalten „Neu“, „In Arbeit“, „Erledigt“, „Im Test“ und „Abgeschlossen“ eingeteilt werden.

Agiler Softwareentwicklungsprozess Mit Hilfe eines Burn-Down-Charts kann nicht nur der Arbeitsfortschritt in einer Iteration einfach erkannt werden, sondern auch eventuelle Abweichungen entsprechend der verfügbaren Kapazität. So lässt sich frühzeitig erkennen, ob im späteren Verlauf der Iteration Probleme auftreten können. Anhand weiterer Grafiken, die sich in einem Dashboard anordnen lassen, können sich die Projektbeteiligten und Stakeholder einen Überblick über den Status der Aufgaben verschaffen.

Agiler Softwareentwicklungsprozess Der TFS hat zudem den Vorteil, dass bei Verwendung von Microsoft Visual Studio als Entwicklungsumgebung eine Unterstützung der kontinuierlichen Integration in den Entwicklungsprozess möglich ist. Neben den Steuerungs- und Aufgabenverteilungsfunktionen stellt ein TFS ein Quellcode-Repository bereit und mit dem Microsoft Test Manager ein Werkzeug um manuelle und automatisierte Tests der Software anhand von Testplänen zu strukturieren. Aktuell ist der TFS in der Version 2015 verfügbar. Für dieses Jahr ist die neue Version 2017 geplant, von der es zurzeit eine Vorabversion gibt.

Fazit

Ein Softwareentwicklungsprozess, insbesondere im Enterprise Markt, ist komplex. Anforderungen von Kunden, Compliance-Vorgaben und technologische Innovationen verleihen der Thematik zahlreiche Facetten. Damit Entwicklungsprojekte dennoch unter Einhaltung von Termin- und Budgetvorgaben umgesetzt werden können, ist eine agile Vorgehensweise unumgänglich. Mit Scrum hat sich eine solche Methodik erfolgreich in den letzten Jahren etabliert und dazu beigetragen, diese Komplexität beherrschbar zu machen.

Wie bewerten Sie den Einsatz von Scrum? Welche Erfahrungen haben Sie gemacht? Ich freue mich auf Ihre Kommentare.

Der Beitrag Agiler Softwareentwicklungsprozess: Komplexität beherrschen erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Sandbox-Technologie in die Cloud!

16. März 2017 Posted by Heiko Brenn

Sandbox Banner

Sandbox-Technologie hält Cyberkriminelle ab

Schutz vor neuen Bedrohungen durch Sandbox-Verhaltensanalyse

Die Bedrohungslage durch Verschlüsselungstrojaner und andere Schadsoftware wächst. Wir leben in einer Zeit, in der Nachrichten über immer neue Angriffswellen und -muster beinah alltäglich geworden sind. Gleichzeitig verbreitet die immer raffiniertere Vorgehensweise von Cyberkriminellen Angst und Schrecken in Unternehmen. Denn trotz zahlreicher Präventivmaßnahmen gelangen immer wieder Schädlinge in die IT-Netze von Unternehmen und legen ganze Infrastrukturen lahm. Es ist die Zeit für hochkarätige Gegenmaßnahmen – es ist Zeit für Sandbox. Lesen Sie heute, was es damit auf sich hat.

Antivirenprogramme erkennen nicht alle Schädlinge

Klassische, signaturbasierte Antivirenlösungen identifizieren nicht immer jeden Schädling, sondern nur diejenigen, die sie kennen – oder besser: erkennen. Aber Cyberkriminelle schlafen nicht – sie entwickeln schnell immer neue Malware und verbessern Angriffsmuster, um ihre Schadsoftware an die Gegenmaßnahmen der Anbieter von Sicherheitslösungen anzupassen. Zwar gibt es keine konkreten Zahlen, aber nach Schätzung des Bundesamts für Informationssicherheit entstehen 400 000 neue Viren pro Tag. Kennt ein Virenprogramm ein Angriffsmuster nicht, erkennt es folglich einen Schädling nicht – und es reichen kleinste Veränderungen, damit ein Virus vom Antivirenprogramm übersehen wird. Zwar sind die Hersteller von Antivirenprogrammen schnell mit dem Updaten ihrer Lösungen, jedoch kann vom Entdecken eines neuen Schädlings bis zur Auslieferung einer aktualisierten Signaturdatenbank an die Antivirenlösung wertvolle Zeit verloren gehen.

E-Mails als Verbreitungswege

Sandbox Technologie Es bleibt dabei: Wie das Bundesamt für Sicherheit in der Informationstechnik in seinem „Report zur Lage der IT-Sicherheit in Deutschland 2016“ bestätigt, gehören E-Mail-Anhänge sowie Drive-by Downloads durch den Besuch von Webseiten zu den häufigsten Infektionswegen eines Systems mit Schadprogrammen. Weiterhin spielen auch Links auf Schadprogramme, deren Quelle manipulierte Werbebanner auf an sich vertrauenswürdigen Webseiten sind, eine gewichtige Rolle.

Bedrohungen lauern im Verborgenen

Malware wird von ihren Schöpfern so konzipiert, dass sie möglichst lange unentdeckt bleibt und möglichst viel Schaden anrichten kann. Sie soll unbemerkt Daten stehlen oder sich in der IT-Umgebung ausbreiten, um dann in maximalem Ausmaß zuzuschlagen. Zwei Angriffsmuster sind in diesem Zusammenhang zu nennen, die es in sich haben:

Advanced Persistent Threat (APT)

APT-Attacken (Advanced Persistent Threat) sind komplexe, zielgerichtete und aufwändig vorbereitete Cyberangriffe. Die Angreifer nehmen einen hohen Aufwand auf sich (Advanced), um auf das IT-System ihrer Opfer erfolgreich zuzugreifen und dabei möglichst lange (Persistent) unentdeckt Daten auszuspähen oder Schaden anzurichten. Um dauerhaft unentdeckt zu bleiben, müssen Angreifer permanent Codes umschreiben und raffinierte Ausweichtechniken einsetzen, um nicht doch vom Intrusion Detection System eines Netzwerks entdeckt zu werden. Aus diesem Grund sind APT-Attacken nur schwer zu identifizieren. Da sie in der Regel mit Datendiebstahl einhergehen, sind ihre Folgen erst anhand von Datenabflüssen aus dem Firmen-Netzwerk zu erkennen – und dann ist es schon zu spät.

Advanced Evasion Technique (AET)

AET-Attacken sind Cyberattacken, bei denen verschiedene, bekannte Angriffstaktiken so kombiniert werden, dass ein völlig neues Angriffsmuster entsteht, welches unbekannt ist und deshalb unentdeckt vom Antivirenprogramm auf IT-Infrastrukturen zugreifen kann. AET-Attacken dienen in erster Linie dazu, dem Angreifer unbemerkt Zugriff auf Netzwerke zu verschaffen. Selten richten AET-Attacken also direkten Schaden an.

Neue Erkennungstechnologien: Sandbox

Sandbox Technologie Neue Erkennungstechnologien werden deshalb immer wichtiger. Dazu zählen verhaltensbasierte Sicherheitsverfahren, die schädlichen Datenverkehr erkennen und dadurch Rückschlüsse auf Schadsoftware, die sich bereits auf den Endgeräten eingenistet hat, ziehen können. An dieser Stelle kommt die Sandbox-Technologie zum Einsatz: Sie unterstützt ein Antivirenprogramm darin, die IT-Infrastruktur vor Cyberangriffen zu schützen, indem sie schädliche Software bereits vor dem Eindringen in das Netzwerk erkennt und diese blockiert. Deshalb haben auch wir von GBS die Sandbox-Technologie nun in unser Antivirenmodul iQ.Suite Watchdog integriert.

Was ist eine Sandbox?

Eine Sandbox ist eine sichere Umgebung, die vollständig von der IT-Infrastruktur eines Unternehmens isoliert ist. In dieser sicheren Umgebung werden verschiedenste Computersysteme mit unterschiedlichen Betriebssystemen bereitgestellt, um eine reale IT-Umgebung zu simulieren. Unbekannte und verdächtige Programme und Dateien werden in dieser sicheren Umgebung zur Ausführung gebracht, um ihr Verhalten und die Auswirkungen auf das Computersystem zu beobachten. Anhand dieser Beobachtungen kann festgestellt werden, ob sich die Datei schädlich auf das System auswirkt oder nicht. Diese Bewertung bildet nun die Grundlage der Entscheidung, ob das Programm oder die Datei auf dem Endgerät zugelassen oder geblockt werden soll.

Sandbox in der Cloud? Natürlich!

Man kann eine Sandbox auch als eigene Lösung im Unternehmen betreiben. Die Verlagerung von Sandbox-Technologien in die Cloud hat jedoch immense Vorteile: Sicherheitsanbietern steht mehr Rechenleistung zur Verfügung und Ressourcen von mehreren Kunden können gemeinsam genutzt werden. Außerdem sind Unternehmen nicht mehr auf internes Fachwissen angewiesen, da ihre Anbieter oder Partner die Analysearbeit für sie an einem zentralen Ort erledigen können.

Sandbox-Verhaltensanalyse in Watchdog

Sandbox Technologie
  • Wird eine Datei als verdächtig eingestuft, zum Beispiel wenn sie ausführbare Inhalte enthält, wird sie von der Sicherheitslösung automatisch an die Sandbox gesendet. Dort wird der Hashwert dieser Datei ermittelt und mit denen bereits bekannter Malware verglichen.
  • Wenn die Datei schon einmal analysiert wurde und bekannt ist, übermittelt die Sandbox die Analysedaten an die Sicherheitslösung. Liegt eine Bedrohung vor, platziert iQ.Suite Watchdog die Datei samt E-Mail in der Quarantäne. Liegt keine Bedrohung vor, wird die Datei regulär zugestellt.
  • Ist der Hashwert unbekannt, wird eine anonymisierte Kopie der verdächtigen Datei an die Sandbox gesendet. Dort wird sie in einer sicheren Cloud-Umgebung zur Ausführung gebracht und ihr Verhalten überwacht und analysiert. Werden die Analysedaten als Bedrohung eingestuft, wird die Datei abgelehnt und blockiert. Wird die Datei als sicher eingestuft, erfolgt ihre Zustellung.
  • Anhand der von Sandbox ermittelten Informationen erstellt iQ.Suite Watchdog abschließend zu jedem Bedrohungsereignis einen forensischen Report, der tiefere Einblicke und Kontextinformationen liefert.

Ihr Weg zur passenden Lösung

Sandbox Technologie Es gibt sicherlich viele Sandbox-Angebote auf den Markt. Entscheiden Sie sich für eine Lösung, die sich einfach testen und bereitstellen lässt. Cloudbasierte Lösungen haben hier die Nase vorn, denn sie sind schnell installiert und können sofort genutzt werden. Eine Sandbox sollte grundsätzlich gut zur bestehenden Infrastruktur passen. Ideal ist es, wenn die Sandbox-Lösung sich in die bestehenden Sicherheitsprodukte einfach integrieren lässt, um sie zu erweitern.

Auf einige wichtige Merkmale Ihrer Sandbox sollten Sie außerdem achten:

  • So sollte eine Sandbox-Lösung auch Bedrohungen erkennen können, die speziell zum Umgehen von Sandboxes entwickelt wurden.
  • Eine gute Sandbox-Lösung sollte verdächtige Dateien unterschiedlichster Art analysieren können. Dazu gehören mindestens Microsoft-Office-Dokumente, PDFs und ausführbare Dateien.
  • Eine Sandbox muss außerdem verschiedene Betriebssysteme und Anwendungen unterstützen, damit auch Malware entdeckt wird, die zur Ausführung in einer ganz bestimmten Umgebung entwickelt wurde. Denn bedenken Sie: Malware verhält sich auf einer Windows Plattform anders als auf einer MacOS, Linux oder Android Plattform!
  • Dateien sollten mithilfe von Anti-Malware- und Reputationsdiensten gefiltert werden. Das reduziert die Zahl der fälschlich als schadhaft kategorisierter und an die Sandbox gesendeter Dateien. Mit detaillierten, vorfallbasierten Reports erhalten Sie zudem wertvolle Kontextinformationen über die Malware selbst oder den gezielten Angriff auf Ihre IT. Nutzt eine Sandbox außerdem eine so genannte „Kollektive Intelligenz“, können Bedrohungsanalysedaten von allen Kunden korreliert werden und allen Nutzern zugute kommen.

Haben Sie bereits Erfahrungen mit Sandbox-Technologien? Hier erfahren Sie mehr über die neue Sandbox-Technologie in iQ.Suite Watchdog. Ich freue mich über Ihre Kommentare und weitere Anregungen.

Der Beitrag Sandbox-Technologie in die Cloud! erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

IoT – Sind deutsche Unternehmen bereit?

9. März 2017 Posted by Richard Koncz

Banner IoT

Das Internet der Dinge: Nutzen und Hemmnis

Das Potenzial der IoT-Technologien wird nur teilweise erkannt – es gibt große Unterschiede zwischen Branchen

Das Internet der Dinge ist zentraler Pfeiler der Digitalisierungsstrategie von Unternehmen – in Deutschland und international. Dabei geht es nicht nur um die bloße Vernetzung, sondern darum, Wettbewerbsvorteile daraus zu erzielen: Wer Datenströme analysieren und in Wissen umwandeln kann, hat Vorteile im Markt.

Aber sind Unternehmen überhaupt bereit für das Internet der Dinge in Deutschland? Welche Erwartungen knüpfen sie an das IoT? Und gibt es einen Unterschied im Reifegrad zwischen Fertigung und Logistik, Handel sowie Dienstleistern? Die Gemeinschaftsstudie „Wettbewerbsfaktor Analytics im Internet der Dinge“ der Universität Potsdam und der SAS Institute GmbH liefert einen Einblick in den Stand von IoT-Einführungsprojekten, Herausforderungen sowie das zukünftige Potenzial der Technologie. Befragt wurden hierzu 5.777 Unternehmen unterschiedlicher Branchen – was dabei herausgekommen ist, erfahren Sie zusammengefasst in unserem heutigen Blogbeitrag.

Weniger als die Hälfte der Unternehmen setzt sich aktiv mit dem Internet der Dinge auseinander

Internet der Dinge Obwohl das Thema Digitalisierung aktueller denn je ist, setzen sich noch nicht alle befragten Unternehmen mit dem Internet der Dinge auseinander: Nur 43,5 Prozent der Befragten setzen sich derzeit aktiv mit dem Thema auseinander. Große Unterschiede gibt es in den einzelnen Branchen: In Fertigung (50%) und Logistik (51%) ist es rund die Hälfte der Unternehmen, während der Handel (nur 35%) und das Gesundheitswesen (38%) deutlich hinterherhinken.

Eine Kosten-Nutzen Frage: Die Herausforderungen

Internet der Dinge Größtes Hindernis für die Implementierung des Internet der Dinge im Unternehmen ist die Frage nach dem Nutzen: Für 63 Prozent der Firmen, die IoT noch nicht implementiert haben, ist dies die größte Hürde, die es zu bewältigen gilt. Unabhängig davon sehen alle befragten Unternehmen im Fehlen technischer Standards (60%), sowie geeigneter Plattformen zur Datenintegration (47%) die größten Herausforderungen. Aber auch die Kosten für die zusätzliche Infrastruktur zur Vernetzung (40%) sowie Bedenken bei Datenschutz (40%) und Datensicherheit (33%) wurden als häufige Hindernisgründe genannt.

Hohe Ziele und Erwartungen

Die mit dem Einsatz des IoT verbundenen Ziele sind verschieden. Für die Hälfe der Befragten (50%) steht die Entwicklung neuer Produkte und Dienstleistungen im Vordergrund. 40 Prozent erhoffen sich eine Verbesserung der Effizienz und lediglich 5 Prozent möchte das Internet der Dinge in Deutschland für neue Geschäftsmodelle und zur Prozessüberwachung nutzen. Einen Einfluss auf signifikante Umsatzsteigerung zwischen 6 und 20 Prozent erwartet die Mehrheit der Unternehmen (60%) in rund 5 Jahren. Nur 13 Prozent sehen innerhalb der nächsten fünf Jahre keinen Einfluss auf den Umsatz durch IoT. Über zwei Drittel der Unternehmen erwarten in fünf Jahren außerdem auch eine erhebliche Effizienzsteigerungen durch das Internet der Dinge.

Umfassende IoT-Strategie fehlt

Internet der Dinge Um diese Potenziale zu heben, braucht es jedoch entsprechend erfolgreiche Umsetzung. Und hier kommt das Management ins Spiel: Die Macher der Studie sind davon überzeugt, dass eine unternehmensweite Strategie, in der die Anstrengungen zielgerichtet gebündelt werden, ein Indikator für die Bedeutung von IoT und die Reife der Nutzungsideen ist. Derzeit allerdings werden Einsatzszenarien häufig nur getestet. Das zeigen auch die Zahlen: Eine unternehmensweite Implementierung des Internets der Dinge findet bei lediglich 13 Prozent der Befragten statt – bei allen anderen ausschließlich auf Projektbasis oder Abteilungsebene.

Übrigens: IoT-Projekte zur Produkt- und Dienstleistungsentwicklung befinden sich bei Fertigung, Handel und Gesundheitswesen in der Regel noch in der Testphase oder in der prototypischen Implementierung. Das zumindest gaben 16 und 10,5 Prozent der Befragten an. Banken sind hier offenbar schon einen Schritt weiter, denn laut Studie haben die ersten Banken (5% der Befragten) bereits damit begonnen, die Sensordatenanalyse in entsprechenden Projekten zu integrieren. Das sieht auf den ersten Blick recht mager aus, allerdings erwarten die Initiatoren der Studie, dass dieser Anwendungsbereich branchenübergreifend zunehmen wird: Knapp die Hälfte aller Unternehmen (47%) befindet sich in der Ideenfindungsphase.

Datennutzung bislang Fehlanzeige

Internet der Dinge Die schieren Massen an Daten und Informationen, die durch das IoT produziert werden, lassen sich im Unternehmen zur Entscheidungsfindung und Prozesssteuerung verwenden. Soweit die Theorie. Ein Blick in die Praxis sieht trübe aus: Nur zwei Drittel der befragten Unternehmen nutzen überhaupt Daten zur Entscheidungsvorbereitung. Davon haben 43 Prozent bislang lediglich ein Viertel ihrer Daten erschlossen und nur 7 Prozent gelingt es, mehr als die Hälfte der durch das Internet der Dinge erzeugten Daten zu nutzen.

Die Aufgabe wird für die meisten Unternehmen in den kommenden Jahren also verstärkt darin liegen, überhaupt erst einmal die technische Infrastruktur zu schaffen, mit deren Hilfe Daten aus ihrer Sensorik gesammelt werden können. Zusätzlich ist es notwendig, Auswertungsroutinen, also Regeln und Verfahren, zu verankern, die dabei helfen, Entscheidungsfindungen zu erleichtern.

Der Blick auf einzelne Branchen

Kommen wir zurück auf die eingangs erwähnten Branchen. Für Handel, Logistik, Fertigung, Gesundheitswesen sowie Versicherungen bietet das IoT unterschiedliche Anwendungsmöglichkeiten, die von den Studieninitiatoren hinsichtlich ihrer Potenziale untersucht wurden. Denn wenn in der Produktion, Logistik und im Handel mit physischen Produkten umgegangen wird und messbare Daten direkt im internen Prozess entstehen, so wird das IoT im Gesundheitswesen oder bei Versicherern in der Regel beim Kunden eingesetzt. Die gewonnen Datenströme können dann unmittelbar zur besseren Leistungserstellung genutzt werden.

Versicherungen

Daten für eine bessere Risikobewertung oder für eine individuellere Gestaltung von Versicherungsprodukten und Tarifen: Das IoT eröffnet der Versicherungsbranche etliche Optimierungsmöglichkeiten hinsichtlich der Erweiterung des Produktportfolios um verhaltensbasierte Produkte.

Das IoT-Potenzial wird in dieser Branche insgesamt als recht hoch bewertet. Insbesondere, wenn es um die Auswertung von Daten in stark abgegrenzten Bereichen (wie bei Connected Car, Connected Home) geht, wird das IoT als zukunftsträchtig erachtet. So lassen sich beispielsweise Versicherungstarife unter dem Stichwort „pay as you live“ individuell gestalten. Ähnlich hoch wird auch das Potenzial vom Internet der Dinge in Assistenz- und Präventionsprogrammen in Deutschland eingeschätzt. Interessanterweise haben trotz hoher Potenzialbewertung Versicherer den Initiatoren der Studie keine bereits initiierten Projekte benannt.

Handel

Hier gilt es zwischen Online- und stationärem Handel zu unterscheiden, da das IoT unterschiedliche Einsatzbereiche bereit hält.

Internet der Dinge Im Online-Handel bieten ortsbezogene Anwendungen, automatisierte Bestellungen und Logistikanwendungen „der letzten Meile“, also der letzte Abschnitt vor Auslieferung beim Kunden, das höchste Zukunftspotenzial. Während Payment-Anwendungen kaum auf Interesse stoßen, werden erste Projekte nach Angabe der Befragten bei automatisierten Bestellungen realisiert. Im Bereich Connected Home befinden sich Projekte derzeit in der Planung.

Der stationäre Handel sieht insgesamt ein nicht ganz so großes Potenzial im IoT. Bei der Handhabung des Sortiments stößt es jedoch auf Interesse. Durch die Möglichkeit des Monitorings der Produkteigenschaften und der automatischen Bestandsführung sehen die Befragten ein mittleres bis hohes Potenzial für Effizienzsteigerungen. Ähnlich hoch wird der Nutzen des IoT bei der Verfolgung der Produkteigenschaften (Unversehrtheit, Haltbarkeit) gesehen. So werden erste Projekte mit dem Einsatz vom Internet der Dinge in der automatischen Bestandsführung, bei der Produktindividualisierung und in der Kundenidentifikation in Deutschland vorangetrieben. Wenig Beachtung, weil mit geringem Nutzwert verbunden, schenkt der stationäre Handel Paymentanwendungen.

Fertigung

Mit dem Aufkeimen von Industrie 4.0 ist das Thema Digitalisierung in der Fertigung längst präsent. Das höchste Potenzial wird in der Überwachung der Maschinenzustände und der Planung von Wartungszyklen gesehen und die Implementierung von IoT wird in dieser Branche bereits sehr aktiv betrieben. Denn ein durch Produktionsausfall ungeplantes Wartungsfenster und dadurch bedingte Termin- und Lieferschwierigkeiten haben unmittelbaren Einfluss auf monetäre Einbußen.

Vielversprechend ist auch die flexiblere Produktionsplanung, denn die hierfür notwendigen Daten liefert das Internet der Dinge in Echtzeit: Über Echtzeitregelkreise lassen sich Produktionsaufträge flexibler takten und spontane Veränderungen an den Produktkonfigurationen vornehmen. Das Potenzial der Planung mit Ist-Daten wird daher als hoch bewertet.

Laut Studie werden einzelne Projekte bereits bei der Zustandsermittlung, aber auch im Rahmen der Erhöhung der Energieeffizienz durchgeführt. Zur Vorhersage von Funktionsstörungen und der Planung von Wartungszyklen seien viele neue Projekte in Vorbereitung.

Logistik

Internet der Dinge Große Potenziale bietet das IoT auch für die interne Lagerhaltung, Qualitätsmanagement und Logistik. Insbesondere das Tracking und Tracing von Produkten und Bestellungen sehen die befragten Unternehmen als zentrales zukünftiges Anwendungsfeld. Einsatzfelder von smarten Sensortechnologien sind beispielsweise die Lokalisierung einzelner Produkte im Lager, die intelligente Nutzung von Lagerkapazitäten sowie die autonome Lagerverwaltung.

Es ist also kaum verwunderlich, dass konkrete Projekte in der Lagerhaltung – und hier im Tracking und Tracing sowie der Auffindbarkeit im Lager – aber auch bei der Erhöhung der Energieeffizienz der Lagerung geplant und realisiert sind.

Gesundheitswesen

Der Überwachung von Fitness- und Vitaldaten über Wearables zur Gestaltung von Präventionsprogrammen, zur automatisierten Alarmierung von Hilfs- und Notdiensten oder für die Nutzung als Assistenzsysteme in der Medikamentierung wird von Krankenkassen und der häuslichen Krankenpflege ein sehr hohes Potenzial zugeschrieben. Den größten Nutzen des Internet der Dinge erwarten Branchenkenner in der Entlastung der stationären Infrastruktur und der Verlagerung von Überwachung und Therapie in den ambulanten Bereich. So lassen sich laut Studie über die Erhebung von gesundheitlichen Langzeitdaten und den Abgleich der Vitaldaten mit bekannten Mustern individuelle Behandlungs- und Pflegepläne effizienter gestalten.

Fazit: Potenziale kaum erkennt

Das Potenzial von IoT-Technologien wird nur teilweise erkannt und es gibt große Unterschiede zwischen den verschiedenen Branchen: Als Treiber von IoT-Projekten sind klar die beiden Branchen Fertigung und Logistik erkennbar. Versicherungen, der Handel und das Gesundheitswesen hinken hingegen mit wenig konkreten Aktivitäten hinsichtlich der Nutzung vom Internet der Dinge in Deutschland zum Teil deutlich hinterher.

Sagt der Rasenmäher zur Laterne

Lesetipp Maschinen und Dinge kommunizieren miteinander. Produktion, Produkte und Entwicklung vernetzen sich. Das ist Industrie 4.0. Nur ein strapazierter Begriff oder steht die Arbeitswelt endgültig vor einem dramatischen Umbruch? Mit dieser Frage beschäftigt sich unser Gastautor Prof. Rainer Neumann, Professor für Wirtschaftsinformatik an der Hochschule Karlsruhe, in diesem Artikel.
Umsatzsteigerung durch die Bereitstellung besserer Produkte und Dienstleistungen sowie Effizienzverbesserungen durch eine schnellere interne Datenversorgung sind die beiden Kernziele, die mit dem Einsatz von IoT verfolgt werden. Zwar noch nicht derzeit, jedoch binnen fünf Jahren sehen Unternehmen hier erhebliche Potenziale. Konkrete Projekte zeigen, dass vor allem die Effizienzerhöhung und Prozessüberwachung vorangetrieben werden sollen. Die Bewertung des Nutzens und das Kostenrisiko stellen für Unternehmen aller Branchen das größte Hemmnis dar, das Internet der Dinge zu nutzen. Zudem fürchten viele Unternehmen, nicht das notwendige Know-how zu haben, um IoT effektiv zu nutzen.

Der Beitrag IoT – Sind deutsche Unternehmen bereit? erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

CeBIT – Eine Zeitreise durch die digitale Revolution

2. März 2017 Posted by Corinna Barth

Banner - CeBIT Zeitreise

CeBIT – von der Schreibmaschine zur virtuellen Realität

Bald ist wieder CeBIT-time!

Die CeBIT wird in diesem Jahr 31. Mehr als drei Jahrzehnte voller digitaler Ereignisse, Meilensteine und Höhepunkte liegen hinter der ITK-Leitmesse. Geboren aus der Hannover-Messe, öffnete sie im März 1986 erstmals ihre Pforten. In den nächsten 30 Jahren wurden hier zahlreiche Innovationen und Trends geboren – und sie sollte sogar zum Schauplatz eines waschechten Konsolen-Kriegs werden. Kommen Sie heute mit auf eine Zeitreise durch die CeBIT-Welt.

Die Anfänge

Bevor wir mit den Highlights der CeBIT starten, wollen wir einen Blick zurückwerfen auf das Jahr 1957. Auf der Hannover-Messe wurde damals zum ersten Mal ein Gerät gezeigt, das zwar bewundert wurde, dem man aber dennoch keine Zukunft prophezeite. Die elektrische Schreibmaschine.

Von der Schreibmaschine zur virtuellen Realität In unserer Zeit, in der Maschinen schreiben und sprechen lernen und die Bedeutung von Bildern und Videos erkennen, mag das banal klingen – zumal die Maschine schon längst wieder aus unserem Alltag verschwunden ist. Damals war das neue Gerät aber eine große Sache, denn das Tippen auf mechanischen Schreibmaschinen war eine kräftezehrende Angelegenheit. So wie intelligente, selbstlernende Systeme heute Geschäftsprozesse vereinfachen und automatisieren, war die Erfindung der vollelektrischen Schreibmaschine ein wahrer Paukenschlag, der das Arbeiten in Büros grundlegend veränderte: Wo bis dahin der metallene Lärm der mechanischen Schreibmaschinen eher an Kesselschmieden erinnerte, zog das sanfte Klappern und Schnurren der elektrischen Buchstabendrucker ein.

Innerhalb der kommenden Jahre wandelte sich die als „Büroindustrie“ zusammengefasste Branche von einem Angebotsschwerpunkt der Hannover Messe zur größten Messe der Welt. Im Zuge der fortschreitenden Elektronisierung kam es vor allem in den 60er Jahren zu zahlreichen Highlights. Heinz Nixdorf beispielsweise stellte hier 1965 seinen legendären Universalrechner 820 vor.

Die Besucher- und Ausstellerzahlen sollten in den 70er und 80er Jahren derart anwachsen und die Messe an Bedeutung gewinnen, dass am 12. März 1986 der Bereich für Büro-, Informations- und Telekommunikationstechnik mit der CeBIT seine erste eigene Messe erhielt.

1986: Die erste CeBIT

Das Stichwort der ersten CeBIT lautet „Textverarbeitungssysteme“. Sie erleichtern die täglichen Büroarbeiten ungemein, denn sie vereinen viele Arbeitsgänge: Der von der Sekretärin geschriebene Brief kann beispielsweise jederzeit vom Chef auf dem Bildschirm aufgerufen und ergänzt werden. Außerdem kann die Sekretärin von ihrem Schreibtisch aus jetzt Telex und Telefax absetzen – zeitraubende Wege entfallen somit.

Im Bereich der Heimcomputer feiert der Amiga 1000 sein Deutschland-Debüt. Der Amiga revolutionierte den damaligen Computermarkt mit seinem für die Zeit bereits fantastischem 32-Bit Betriebssystem, einem 256 kB Arbeitsspeicher, einem 7,09 MHz Prozessor, einem 3,5-Zoll Disketten-Laufwerk, 2-Tasten-Maus und 14-Zoll Farbmonitor. Der Grundstein für den Siegeszug der Heimcomputer-Serie von Commodore war gelegt.

1987: Vorläufer von Laptop, Navi kommen auf den Markt

Auf die CeBIT nicht wegen der Computer, sondern mit dem Computer: Ein deutscher Unternehmer stellt 1987 das erste satellitengesteuerte Orientierungssystem für den Autofahrer vor.
Der Computer lieferte dem Fahrer alle relevanten geographischen Daten Europas und der Farbmonitor zeigte die Fahrtstrecke im Kartenausschnitt. Ganz richtig: Es handelt sich hier tatsächlich um den Vorläufer unserer heutigen Navis. In einer Ausgabe des „heute journals“ vom März 1987 hieß es übrigens: „Autofahren via Satellit: Hoffentlich wird da nicht zu kühn geträumt“.

Das war aber längst noch nicht alles an Innovationen: 1987 wurde auch das erste Mobiltelefon vorgestellt. Das ist noch stolze 760 Gramm schwer und ein Produkt der Nokia-Tochter Mobira. Darüber hinaus kommt die CD-Rom auf den Markt und Löwe zeigt das erste Schnurlos-Telefon.

Erste Gehversuche werden bereits beim Thema Smart-Home unternommen. Ingenieure stellen ein Gerät vor, das seinem Besitzer hinterher telefonieren, zwei Stunden lange Nachrichten aufzeichnen und per telefonischem Befehl das Licht oder die Zentralheizung anschalten konnte.

Unser Highlight jedoch ist der Compaq Portable III – der Vorläufer unseres heutigen Laptops. Allerdings muss man wohl eher von „Schlepptop“ sprechen, denn der tragbare Computer wiegt ganze neun Kilogramm. Immerhin: stoßsichere Festplatten mit einer 40 MB Speicherkapazität, eine abnehmbare Tastatur und ein 10-Zoll Plasmabildschirm ermöglichen das Arbeiten auch auf Geschäftsreisen.

Quelle: WhiteWidow16 – Youtube

1988: Deutsche Konkurrenz für Platzhirsch Microsoft

Microsoft bekommt ernsthafte Konkurrenz aus Deutschland. StarDivision stellt eine neue Version des bereits seit 1984 existierenden Textverarbeitungsprogramms StarWriter vor. StarWriter wurde vom deutschen Softwareentwickler Marco Börries entwickelt und zu einer vollständigen Office Suite ausgebaut. Im Jahr 1998 gab Börries StarOffice für den Privatgebrauch kostenlos zur Nutzung frei.

1989: Grundstein der Digitalen Fotografie gelegt

Sony stellt die Kamera ohne Film vor. Mit der SonyMavica haben die Japaner ein Gerät entwickelt, das Fotos direkt auf einer 3,5-Zoll großen Diskette speichert, um diese später auf dem Computer weiter zu verarbeiten.

Apple präsentiert mit dem Macintosh SE/30 seinen kompakten All-in-One Mac. Er gilt damals als bester Mac aller Zeiten – Apple ist da schon 25 Jahre alt.

1990: Die Pleite von Steve Jobs

Von gestern Auf der CeBIT 1990 stellt Steve Jobs, inzwischen hat er Apple verlassen und NeXT Computers gegründet, die NeXTstation vor. Mit Prozessoren von Motorola und einem selbst entwickelten Betriebssystem ist der Rechner technisch wegweisend und setzt auch in Sachen Design Maßstäbe. Die hohen Anschaffungskosten von mindestens 6000 Dollar sind der Hauptgrund, weshalb sich die NeXTstation nicht durchsetzt.

1991: Ein neues Netz für Deutschland

Mobilfunkanbieter D2 Mannesmann etabliert sich als ernstzunehmender Konkurrent zur Telekom. Das Mannesmann Mobilfunk Konsortium hat zuvor die Betreiberlizenz für das D2-Mobilfunknetz vom damaligen Postminister Christian Schwarz-Schilling erhalten. Das Jahr 1991 kann als Durchbruch angesehen werden, da nun das D2-Netz europaweit ausgebaut wird und es allein in Deutschland mehr als zwei Millionen Teilnehmer aufnehmen kann.

1993: Geburt eines Prozessors

Der berühmteste Prozessor der Welt erblickt das Licht der Welt: Intel Pentium. Der Intel Pentium-Prozessor mit 3,1 Millionen Transistoren und einer Taktrate von 60 MHz erscheint und ermöglicht erstmals die ernsthafte Nutzung von Multimedia Inhalten.

1994: Zeit für Apples erstes PDA und VoIP-Telefonie

Das Newton Message Pad, Apples erstes PDA, wird der Öffentlichkeit vorgestellt. Wirtschaftlich ein Desaster, kostete es dem damaligen CEO John Sculley das Amt und wurde von Steve Jobs nach dessen Rückkehr zu Apple eingestellt. Dennoch war das Newton Message Pad seiner Zeit voraus und bereitete den Weg für iPhone und iPad.

Die israelisch-Schweizer Firma Vocaltech führte zudem erstmals die VoIP-Telefonie mit kostenlosen Telefonaten nach Afrika vor.

1995: Deutschland-Premiere von Win95

Bill Gates stellt in Hannover mit viel Tamtam das Betriebssystem Windows 95 vor. Dank der neuartigen Benutzeroberfläche (inklusive Start-Button) schafft Microsoft ein Monopol in Sachen Betriebssysteme.

1996: DVD löst CD-Rom ab

Die DVD wird Nachfolger der CD-Rom. Die DVD ähnelt äußerlich einer Compact Disk, hat aber eine viel größere Speicherkapazität. Die mangelhafte beziehungsweise fehlende Unterstützung von USB durch die damals verbreiteten Betriebssysteme Windows 95 und Windows NT 4.0 führt dazu, dass der USB Stick zunächst nicht weiter auf dem Markt beworben wird. Der große Durchbruch folgt zwei Jahre später.

1998: Ein Stick sorgt für Ordnung

Der USB Standard sorgt ab sofort für Ordnung auf deutschen Schreibtischen: USB eignet sich für viele Geräte wie Massenspeicher (etwa Festplatten, Disketten, DVD-Laufwerke), Drucker, Scanner, Webcams, Mäuse, Tastaturen, aktive Lautsprecher, aber auch Dongles und sogar Grafikkarten und Monitore.

1999: Musik ohne Scheibe

Zur CeBIT 1999 zeigte Prozessor-Marktführer Intel sein neuestes Computer-Gehirn, den Pentium III-Prozessor. Er erreichte Geschwindigkeiten von satten 450 und 500 MHz.

Heute haben sie längst unsere Wohnzimmer erobert, 1999 aber waren Flachbildfernseher eine absolute Weltneuheit: Philips machte den Anfang und zeigte den Flat-TV mit einer Diagonale von über einem Meter. Zur gleichen Zeit wurde auch der erste MP3-Player vorgestellt: Der MPMan F10 war der weltweit erste in Serie gebaute tragbare MP3-Player mit internem Flash-Speicher.

Außerdem neu: Digitalkameras erreichen eine Auflösung von 2 Megapixeln, Bankgeschäfte können jetzt auch online abgewickelt werden und der Medienkonzern AOL kündigt eine Internet-Flatrate für Deutschland an.

2000: Bücher elektronisch lesen

Wer gern liest, aber ungern Bücher mit sich herumträgt, kann sich seine Schmöker nun elektronisch auf sein Lesegerät herunterladen: Nuvomedia stellt den ersten eBook Reader „Rocket E-Book Pro“ vor und ist damit Wegbereiter für Kindle & Co.

Und nicht zu vergessen: Windows 2000 feiert Deutschland Premiere. Bei dem Versions Update ging es vermehrt um Sicherheitsfragen in der drahtlosen Welt.

2001: Das Dotcom-Jahr

CeBIT Zeitreise Im Dotcom Boomjahr wird E-Commerce immer wichtiger. Die neuen PCs knacken mit ihren Prozessoren jetzt die Giga-Hertz Grenze. Außerdem werden Handys und PDAs internetfähig. Breitband wird genutzt, GPRS und UMTS sind die wichtigsten Neuerungen. Pioneer präsentiert die ersten halbwegs bezahlbaren DVD-Brenner. Zwar mit 1800 D-Mark noch immer teuer, liegt er aber deutlich unter dem im Vorjahr vorgestellten ersten Authoring-Brenner zum Preis von 10.000 D-Mark.

Gleichzeitig ist 2001 war das CeBIT Rekordjahr schlechthin: 830.000 Besucher stürmen auf das Messegelände – die Fahrt mit öffentlichen Verkehrsmitteln zum Branchentreff wird zur Qual und die Besucher schieben sich im Schneckentempo über die CeBIT.

2002: Der CeBIT-Eklat zwischen Sony und Microsoft

Das 7650 von Nokia ist das erste Handy mit integrierter Digitalkamera. Für 800 Euro plus Übertragungsgebühren konnten Anwender ihre Urlaubsschnappschüsse via MMS somit gleich an die lieben Daheimgebliebenen schicken.

In Erinnerung bleibt auch der CeBIT-Eklat: Auf Druck von Microsoft muss Sony seine Playstation 2 Geräte vom CeBIT-Stand demontieren, denn am Stand wird „gedaddelt“ was die Konsolen hergeben. Das allerdings ist offiziell nicht erlaubt. Microsoft hat übrigens gerade seine erste eigene Konsole, die Xbox, auf den Markt gebracht – die ausschließlich hinter Glas gezeigt wird.

2003: Sprachbegabte Hermine

Neuigkeiten rund um die kommende UMTS-Handygeneration, Mobilität und Breitbandkommunikation stehen im Vordergrund. Ein weiteres Thema war die Sprachsteuerung, wobei besonders Waschmaschine „Hermine“ Aufsehen erregte: Hermine ließ sich nicht nur per Sprache bedienen, sie assistierte auch mit Tipps zum Sortieren und zur Pflege der Wäsche.

Ebenfalls ein wichtiger Schwerpunkt waren die Bereiche IT-Sicherheit und Open Source. Außerdem wurden viele Lösungen rund um den Einsatz freier Software im privaten und geschäftlichen Bereich vorgestellt.

2006: Origami-PC von Microsoft und Intel

Unter der Bezeichnung Ultra-Mobile PC, der Origami-PC, lancierten Microsoft und Intel eine neue Geräteklasse von tragbaren Computern. Die Geräte der ersten Generation waren bereits vollwertige PCs, deren Betriebssystem Linux oder eine angepasste Windows XP Tablet-Edition war. Ultra-Mobile PCs waren leichter und mobiler als Notebooks, aber funktioneller als ein PDA. Sie wurden als Multimedia-Abspielgeräte oder Navigationssysteme angepriesen.

Dennoch: Anders als noch in den ersten Jahren der CeBIT liegt die Dynamik der Innovation nicht mehr bei der Hardware. Jetzt steht die Software im Vordergrund – und die zieht ins Web. Im Browser werden nicht mehr nur Texte und Bilder dargestellt – er dient als Plattform für immer komplexere Computerprogramme. Kein Wunder also, dass die CeBIT 2006 ganz unter dem Zeichen von Microsoft Office 2007 und Windows Vista stand.

Unter dem Motto „Digital Living“ gab es erstmals einen eigenen Schwerpunkt zur Unterhaltungselektronik. Das Thema hier: Das Zusammenwachsen von TV, PC und Internet sowie das hochauflösende Fernsehen HDTV.

Die CeBIT nach 2009 bis heute

Großer Trend 2016: Virtual Reality Brillen Seit 2002 ging die Zahl der Besucher und die der ausstellenden Unternehmen Jahr für Jahr zurück. 2009 wurde es dann merklich ruhiger – die aufregenden Neuerungen bleiben aus. Die CeBIT ringt immer stärker mit Konkurrenten wie der IFA in Berlin, dem Mobile World Congress in Barcelona und der CES in Las Vegas. Dort wurden inzwischen die ganz großen Weltpremieren gefeiert.

Es folgte 2014 mit der Hinwendung zum Business Kunden schließlich die erfolgreiche Neuausrichtung. Mit neuen Themen wie Smart Living, dem Internet der Dinge, Big Data, Cloud Computing und der fortschreitenden Digitalisierung bietet die CeBIT inzwischen ausschließlich Fachbesuchern eine Plattform. Und so stieg die Besucherzahl 2015 erstmals seit fünf Jahren wieder an. Der Anteil der Besucher aus Unternehmen mit bis zu tausend Mitarbeitern nimmt ebenfalls deutlich zu.

Global Conferences – eine Entdeckungsreise ins „Adventureland – Digital World“

Zufrieden zeigten sich die Veranstalter auch mit der Weiterentwicklung der Global Conferences. Und somit wird der internationale Kongress auf der CeBIT 2017 zum zweiten Mal auf Entdeckungsreise ins „Adventureland – Digital World“ und in virtuelle Realitäten gehen. Humanoide Roboter, künstliche Intelligenz, das Internet der Dinge, ja sogar das Leben auf dem Mars – alle Trendthemen der digitalen Welt werden in Halle 8 vom 20. bis 24. März von „digital people“, IT-Anbietern und -Anwendern, Internetfirmen und Investoren, Kreativen und Vordenkern gemeinsam diskutiert.

Enterprise Digital Arena

Auch bereits zum zweiten Mal findet die „Enterprise Digital Arena“ auf der CeBIT statt. Vom 20.-21. März werden in Halle 5 ausgewählte Experten und Praktiker über aktuelle Trends und Veränderungen für die Zusammenarbeit und Organisation in digitalen Unternehmen debattieren. Besuchen Sie uns, denn GBS diskutiert am Montag, den 20. März um 13:50 Uhr zum Thema: „Die Herausforderungen der neuen digitalen Arbeitswelt“ mit.

Erinnern Sie sich an die GBS-Stände der letzten Jahre?

GBS auf der CeBIT 2017

Lesetipp Sichern Sie sich Ihr kostenloses CeBIT-Ticket! Wir stellen Ihnen neue, spannende Möglichkeiten vor, mit der Sie den Weg in Ihre digitale Zukunft gestalten können. Beginnend bei der Automatisierung von Geschäftsprozessen, über die Absicherung der E-Mail-Kommunikation bis hin zur Integration von Cloud Szenarien: Ein Besuch an unserem Stand A30 in Halle 2 lohnt sich!

Der Beitrag CeBIT – Eine Zeitreise durch die digitale Revolution erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

PDF – Ein Format, viele Möglichkeiten

16. Februar 2017 Posted by Bernd Hesse

Was sind eigentlich PDF bzw. PDF/A?

Langzeitarchivierung kommt ohne PDF/A-Standard nicht aus

Wir sind tagtäglich mit einer Vielzahl unterschiedlicher Inhalte konfrontiert: E-Mails, CAD-Dateien, JPGs und andere Bildformate sowie Office-Dateien in verschiedenen Varianten. Viele von ihnen müssen aus rechtlichen Gründen aufbewahrt werden – Rechnungen und Verträge zum Beispiel. Werden diese Dokumente in ihrem ursprünglichen Format aufbewahrt, so ist die Gefahr groß, dass sie nach Jahren nicht mehr lesbar sind. Und damit ist nicht unbedingt nur die physikalische Haltbarkeit der Datenträger gemeint. Denn es ist fraglich, ob heutige digitale Speichermedien aufgrund regelmäßiger Aktualisierung von Programmen in ein paar Jahren überhaupt noch geöffnet werden können. Denken Sie zum Beispiel einmal daran, dass Sie zwar Dokumente, die mit Microsoft Word Version 1997 erstellt worden sind, noch mit der Programmversionen 2013 öffnen können – andersherum dürften Sie aufgrund fehlender Abwärtskompatibilität deutliche Schwierigkeiten haben.

Die Haltbarkeit der Trägermedien und der schnelle Medien- und Systemwandel sind zwei Probleme, die der Langzeitarchivierung digitaler Inhalte im Wege stehen. Obendrein ist nicht jedes Dateiformat auch für die zukunftssichere Aufbewahrung von Inhalten gleichermaßen geeignet: Können beispielsweise verknüpfte, externe Bilder nicht gefunden werden, wird die Seite nicht wie gewünscht angezeigt. Eine revisionssichere Aufbewahrung wäre damit gescheitert. Aus diesem Grund ist für die Archivierung eine konsequente Konvertierung in ein Format notwendig, welches die langfristige Reproduzierbar- und Lesbarkeit sicherstellt. Der ISO-Standard PDF/A ist hierfür das Format erster Wahl.

Durchbruch bei der Aufbewahrung von Dateien

PDF/A-Standard 1993 entwickelte Adobe Systems das PDF – ein plattformunabhängiges Dateiformat für elektronische Schriftstücke.

Es ermöglicht bis heute ein Schriftstück unabhängig vom ursprünglichen Anwendungsprogramm, vom Betriebssystem oder von der Hardwareplattform originalgetreu wiederzugeben. Nach der Installation von Acrobat Pro stand im Druckdialog in Word die Option PDF zur Verfügung. Mit diesem Format vereinfachte Adobe das Datenmanagement und den Datenaustausch für unterschiedliche Branchen enorm, denn mit dem neuen PDF-Standard ließen sich plötzlich etliche Klippen bei der Dokumentenweitergabe oder der Aufbewahrung von Dateien elegant umschiffen.

Denn während Formate wie Papier, Mikrofilm und das Bildformat TIFF zwar grundsätzlich lange archivier- und reproduzierbar sind und insbesondere TIFF-Dateien im Gegensatz zu Papier schnell und unkompliziert versendet werden kann, ist es nur unter größtem Aufwand möglich, diese klassischen Archivierungsformate nach gezielten Informationen abzusuchen. Ein PDF hingegen ist schnell durchsuchbar und kann neben Text, Bildern und Grafik auch Hilfen enthalten, die die Navigation innerhalb des Schriftstückes erleichtern.

Zahlreiche Vorteile

  • PDF umfasst strukturierte Objekte (Text, Vektorgraphik, gerastertes Bild). Diese ermöglichen eine effiziente Suchabfrage im gesamten Datenarchiv.
  • PDF lässt sich kompakt und effizient komprimieren. Besonders für den elektronischen Datenverkehr, z.B. E-Mail-Anhänge oder via Dateitransfer (FTP), ist die geringere Dateigröße vorteilhaft.
  • Metainformationen (bspw. Verfasser, Thematik, Inhalt, Schlagwörter, Datum der Entstehung) werden direkt in einem standardisierten Format (XMP) in die PDF-Datei eingebettet. Daher lässt sie sich automatisch, systematisch und ohne manuelle Arbeit weiterverarbeiten.
  • Das PDF Format ist in der Regel so konzipiert, dass es nicht an ein bestimmtes Gerät (bzw. Rasterauflösung, Farbsystem) gebunden ist. Dadurch passen sich die PDF Dokumente an die technologische Entwicklung der Ausgabegeräte (Drucker, Bildschirm, Scanner) an und sind auch Jahre nach ihrer Erstellung aktuell.

PDF/A erstellen

Kein Wunder also, dass man begann, das PDF als Standard für Langzeitarchivierung in Betracht zu ziehen. Adobe Systems überarbeitet seit Jahren das PDF immer weiter. Um neue Funktionen zu erweitern und unnötige zu entfernen, war es deshalb unumgänglich, einen dauerhaften, beständigen und international gültigen Standard für die Langzeitarchivierung zu entwickeln. Dieser sollte aufgrund der Vorteile, die das PDF bietet, auf Adobes PDF aufbauen. Das Ergebnis: PDF/A-Standard.

Im September 2005 wurde der PDF/A-Standard für das regelkonforme Archivieren elektronischer Dokumente definiert. Er bewertet und regelt, welche PDF-Funktionen bezüglich der Archivierung sicher sind. Unter Zusammenarbeit von Unternehmen und Organisationen entstand ein plattformunabhängiges Dateiformat für elektronisch archivierte Dokumente. Dieses garantiert eine langfristige Lesbarkeit von Dokumenten – und zwar unabhängig davon, mit welcher Anwendungssoftware und auf welchem Betriebssystem sie ursprünglich erstellt wurden.

Warum PDF/A-Standard und nicht einfach PDF?

Mit seinen Container-Eigenschaften und der Fähigkeit einzelne Bestandteile plattformunabhängig layoutgetreu darzustellen, ist das PDF als Archivdokument ideal geeignet.

Jede PDF/A-Datei ist immer auch eine PDF-Datei

Damit das PDF jedoch eine exakt reproduzierbare Darstellung von Inhalten garantiert, müssen einige bestimmte Vorgaben eingehalten werden. Dazu gehört beispielsweise der vollständige Zugriff auf alle zum Dokument gehörenden Elemente. Schriften beispielsweise müssen eingebettet sein, damit ein Rechner auch in Jahren Sonderzeichen oder Symbole noch richtig darstellt, selbst, wenn die im Dokument vorgesehene Schrift nicht auf dem Rechner installiert ist. Interaktive Elemente oder PDF-Ebenen hingegen sind nicht erlaubt: Interaktive Elemente oder PDF-Ebenen hingegen sind nicht erlaubt: Sie verhindern die Eindeutigkeit, die eine PDF/A-Datei haben muss. Bei einem PDF mit mehreren Ebenen wüsste man beispielsweise bei einer Druckausgabe in 40 Jahren nicht mehr, welche Ebene gelten soll.

Einsatzszenarien: So profitieren wir vom PDF/A-Standard

Da sich ganz unterschiedliche Inhalte als PDF sichern lassen, ist die Norm für alle Branchen geeignet. Ein paar Beispiele sollen die Einsatzmöglichkeiten zeigen – und seien Sie gespannt: Diese gehen über die bloße Archivierung hinaus.

Aufbewahrung von Broschüren, Handbüchern und Bedienungsanleitungen

PDF/A-Standard Mit jedem neu erworbenen Elektrogerät, Möbelstück, Spielzeug oder Sportgerät, kommt mal ein Handzettel, dann ein Booklet und manchmal ein ganzes Pamphlet mit ins Haus. Nun gehört es zum Wesen von papiergebundenen Handbüchern, dass sie immer dann verschwunden sind, wenn sie gebraucht werden. Ein Karton mit allen Anleitungen darin könnte eine Lösung sein. Oder besser noch: Ein Ordner auf der Festplatte. Denn die meisten Hersteller bieten Benutzerhandbücher zum kostenlosen Download auf ihren Webseiten an: Gesichert als PDF und nach Wahl benannt, können sie nicht mehr verlorengehen. Und im Zweifelsfall ist der Computer schneller hochgefahren und das benötigte Stichwort dank Volltextsuche schneller gefunden als die Abstellkammer durchwühlt.

Weitergabe von Druckdaten

Zwar wurde der PDF-Standard häufig zur Archivierung genutzt. Es gibt aber auch Varianten, die im Graphik- und Druckbereich zum Einsatz kommen. Und zwar dann, wenn Sie zum Beispiel Bild- und Druckdaten an Druckereien weitergeben möchten. So garantiert z.B. PDF/X die Konsistenz der Daten. Pannen mit nicht eingebetteten Schriften, die beispielsweise zu „Buchstabensalat“ führen, sind ausgeschlossen. Die vorlagengetreue Übermittlung der Daten bis zum Druck mit farbgetreuer Wiedergabe im CMYK-Farbmodell wird dadurch ermöglicht.

Das Farbmanagement verhindert zu blasse oder zu bunte Farben bzw. Bilder, denn PDF/A sorgt für eine verbindliche Darstellung von Farben. Zudem vermeidet PDF/A viele Verarbeitungsprobleme, die beispielsweise durch passwortgesicherte PDF-Dokumente oder bei der Druckausgabe von Dateien auftreten können.

Umwandlung von E-Mail Anhängen zum Schutz vor Schadcode

PDF/A-Standard Immer häufiger missbrauchen Hacker Office Dokumente, um versteckte Trojaner in Makros zu verbreiten. Die Umwandlung von Office-Dokumenten in PDF kann darin eingebetteten, aktiven Schadcode an seiner Ausführung hindern.

So erlaubt beispielsweise auch unsere Lösung iQ.Suite Convert die Umwandlung von E-Mail-Anhängen ins PDF- oder ZIP-Format. E-Mails mit potentiell gefährlichen Office Dokumenten werden angehalten und mit iQ.Suite Convert in PDF umgewandelt. Der Empfänger erhält den ursprünglichen Anhang als PDF-Datei. Aktiver Schadcode ist nun keine Bedrohung mehr. Eine Antivirus-Lösung, wie beispielsweise unsere iQ.Suite Watchdog, kann anschließend den originalen E-Mail-Anhang einer erneuten Virus-Prüfung unterziehen. Wird die Datei dabei als ungefährlich bewertet, erfolgt die Zustellung an den Empfänger im ursprünglichen Format.

Vereinheitlichung von Dateiformaten

Apropos E-Mail-Anhänge: Es ist nicht immer sinnvoll, E-Mail-Anhänge im Original zu versenden. Insbesondere wenn der Empfänger Historien in Office-Dokumenten nicht sehen soll oder sichergestellt werden soll, dass dem Empfänger der Anhang so dargestellt wird, wie der Autor es vorgesehen hat, ist PDF eine sinnvolle Alternative. Ob Office Dokumente oder Bilder – unzählige Formate lassen sich konvertieren und als PDF versenden. Übrigens übernimmt auch iQ.Suite Convert diese Aufgabe, wobei Sie selbst anhand von Dateityp oder -größe entscheiden, welche Anhänge umgewandelt werden.

PDF-basierte E-Mail-Verschlüsselung

Der sichere Versand von E-Mails an Kunden ohne eigene Verschlüsselungslösung ist für viele Unternehmen eine Herausforderung. Denn entweder sind die verwendeten Lösungen zu komplex und stören durch ihr aufwändiges Schlüsselmanagement einen reibungslosen Ablauf. Oder es ist nicht sichergestellt, dass beide Kommunikationspartner das identische Verfahren bzw. die gleiche Software einsetzen.

PDF/A-Standard Eine Verschlüsselungslösung, die solche Hindernisse überwindet, ist unser iQ.Suite PDFCrypt. Zur Verschlüsselung von E-Mails setzt sie auf den PDF-Standard und kommt deshalb ohne Schlüssel, Zertifikate oder Installation von Software auf Empfängerseite aus. Eine E-Mail wird inklusive ihrer Anhänge automatisiert in eine verschlüsselte PDF-Datei umgewandelt und dem Empfänger zugestellt. Wie es dem Wesen des PDFs entspricht, bleiben dabei alle Anhänge in ihrem ursprünglichen Format erhalten. Der Empfänger öffnet dann einfach mit Hilfe eines PDF-Readers und eines ihm zugesandten Passworts die verschlüsselte PDF-Datei im Mail-Client.

Hochvolumige Herstellung von Archiv-PDF-Dateien

Der PDF- bzw. PDF/A-Standard eignet sich auch zur Archivierung von Inhalten nicht länger benötigter Geschäftsanwendungen. Wir haben uns diese Eigenschaften beispielsweise zunutze gemacht, um ganze Geschäftsanwendungen zu archivieren. Konkret nutzen wir diese Technologien im GBS Retirement Manager, mit dessen Hilfe ungenutzte IBM Notes Datenbanken abgeschaltet und die Inhalte in ein einheitliches PDF-Format überführt werden, wodurch eine zukünftige, plattformübergreifende Nutzung überhaupt erst möglich wird. Denn im PDF-Standard bleiben nicht nur die Inhalte und zusätzliche Metadaten erhalten, sondern auch das originale Erscheinungsbild. Gleichzeitig erfüllt das langlebige PDF/A-Format auch hier höchste Revisionssicherheit. Die erzeugten PDF-Dateien können in Kombination mit dem GBS AppDesigner dann sogar im Browser zugänglich gemacht und Anwendern in Microsoft SharePoint oder IBM Connections zur Verfügung gestellt werden.

Für welche Anwendungsfälle nutzen Sie das PDF-Format? Wir freuen uns über Ihren Kommentar.

Der Beitrag PDF – Ein Format, viele Möglichkeiten erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Top 10 Risiken in Unternehmen

9. Februar 2017 Posted by Andreas Richter

Top 10 Risiken Unternehmen

Angst vor Cyber-Kriminalität bei Deutschlands Unternehmen am größten

Die Folgen von Cybervorfällen sind für Unternehmen in Deutschland erstmals das größte Risiko. Zu diesem Schluss kommt das Allianz Risk Barometer für 2017. Das sechste Jahr in Folge schlüsselt die Allianz auf, welche Geschäftsrisiken Unternehmen aus verschiedenen Regionen, Ländern und Branchen am meisten fürchten.

Allianz Risk Barometer untersucht die wichtigsten Risiken für Unternehmen weltweit

Drohende Verluste aus Betriebsunterbrechungen liegen, wie schon im Vorjahr, auf Rang 2. Marktentwicklungen sind für deutsche Unternehmen nach wie vor ein zentrales Anliegen und nehmen im Ranking des Risk Barometers den dritten Platz ein. Erstmals in den Top 10 Deutschlands finden sich politische Risiken wie Bürgerkriege oder terroristische Akte. Selbst wenn ein Unternehmen kein direktes Opfer ist, können Standorte unzugänglich sein oder Lieferketten beeinträchtigt werden. Ebenfalls neu auf Platz 10 ist die Furcht vor dem Zerfall der Euro-Zone und den Auswirkungen des Brexit.

Cybervorfälle als größtes Risiko

Risikomanagement Während weltweit die Angst vor IT-Ausfällen, Spionage und Datenmissbrauch vergleichsweise nur auf Rang 3 liegt, sind Unternehmen hierzulande insbesondere über Cybervorfälle besorgt. Für 44 Prozent der Befragten ist es das größte Risiko, dem Unternehmen in diesem Jahr gegenüberstehen. Im vergangenen Jahr lag die Angst davor auch in Deutschland noch auf Platz 3. Vor allem in der Kreditwirtschaft, der Telekommunikationsbranche sowie im Automotive-Bereich oder in der Luftfahrt ist die Angst vor Cybervorfällen am größten. Andere Branchen sehen sich stärker durch andere, spezifische Risiken bedroht: Das Baugewerbe fürchtet beispielsweise eher Naturkatastrophen und die Lebensmittelbranche Reputationsverluste aufgrund mangelnder Qualität und Produktrückrufe.

Die Bedrohungen in diesem Bereich gehen weit über Hacking, Datenschutzverletzungen oder Datendiebstähle hinaus, obwohl neue Datenschutzbestimmungen die Folgen solcher Vorfälle für Unternehmen verschärfen werden. Die Gefährdung durch Cyberrisiken geht einher mit dem technologischen Wandel hin zu einer digitalen Wirtschaft, in der Daten, Patente und spezifisches Firmenwissen eine immer größere Rolle spielen und die deshalb zunehmend in das Visier von Cyberkriminellen geraten. Aber auch IT-Ausfälle oder menschliches Versagen können zu Schäden führen: In einer Industrie 4.0-Umgebung können nicht korrekt verarbeitete oder fehlinterpretierte Daten ganze Produktionen zum Stillstand bringen.

Risikomanagement Auch Internetbetrug stellt ein nicht unerhebliches Risiko für Unternehmen dar. Mit immer neuen Maschen versuchen Internetkriminelle gefährliche Schadsoftware auf einzelnen Firmenrechnern und in Unternehmensnetzwerken zu installieren. Trojaner werden nicht mehr nur über Phishing-Mails eingeschleust, sondern finden ihren Weg ins Unternehmen auch über Scareware, Abzocke mit ESTA-Anträgen oder über Branchenbuch-Betrüger. Abgeschottete Mitarbeiterrechner, auf denen sich außer der erlaubten Firmensoftware weder Internetzugang noch E-Mail-Kommunikationstools befinden, mag hier vielleicht die sicherste, aber nicht praktikabelste Lösung sein.

Risikomanagement bei Cybervorfällen

Ein einziger Vorfall, sei es eine technische Störung, menschliches Versagen oder ein böswilliger Angriff, kann zu gravierenden Betriebsunterbrechungen, Verlust von Marktanteilen und Reputationsschäden führen. Darüber hinaus trägt auch die weltweite Verschärfung von Datenschutzregelungen dazu bei, dass die Gefahr „Cybervorfall“ im Risikomanagement an vorderster Stelle steht, denn bei Nichteinhaltung der Vorschriften drohen empfindliche Strafen.

Wie die Allianz in ihrem Risk-Barometer angibt, ist das heutige Risikomanagement schnelllebig und datengestützt geworden. Neue, spezielle Services wie IT-Forensik und Krisenmanagement sind zur Absicherung der zunehmend immateriellen Risiken entstanden und die Nachfrage nach neuen Versicherungsdeckungen gegen Cybervorfälle und Betriebsunterbrechungen durch Nicht-Sachschaden-Ereignisse steigt.

Risikomanagement Die Minimierung des Cyberrisikos stellt eine echte Herausforderung dar. Es ist komplex, denn die Art und Weise der Angriffe verändert sich. Häufig erkennen Unternehmen erst (zu) spät, dass sie Opfer einer Cyberattacke sind oder waren. Wer jedoch weiß, wo seine Angriffsflächen liegen, kann sich besser auf einen Cybervorfall vorbereiten. Denn selbst wenn es keine 100%-ige Sicherheit gibt, helfen Überwachungs- und Frühwarnsysteme, um sich gegen Datenschutzverletzungen abzusichern. Die Protokollierung von Auffälligkeiten erleichtert beispielsweise die spätere forensische Analyse bei Sicherheitsvorfällen. Von zentraler Bedeutung sind ebenfalls Schulungen von Mitarbeiter: Hierbei müssen sie lernen, gefälschte E-Mails zu erkennen und nicht auf mysteriöse Links zu klicken. Ein effektives Zugriffsmanagement auf Daten für Mitarbeiter sowie eine Datensicherung unabhängig vom Unternehmensnetzwerk minimiert das Risiko Cyberbedrohung noch einmal deutlich. Nicht zuletzt sind Fachleute wie ein Chief Information Security Officer (CISO) in der Lage, ein umfassendes Informationssicherheits-Management-System im Unternehmen zu implementieren. Denn Datenschutz, Mitarbeiter-Schulung, Recovery, Schutz vor Schadprogrammen, Verschlüsselung usw. sind nur Grundvoraussetzungen für ein sicheres Firmennetzwerk. Ohne Notfallmanagement im Fall der Fälle drohen hohe Verluste, Ausfallzeiten und rechtliche Einbußen.

Betriebsunterbrechung: Neue Auslöser auf dem Vormarsch

Risikomanagement Betriebsunterbrechung empfinden 40 Prozent der befragten Unternehmen als das größte Risiko für Unternehmen. Damit schafft es dieses Risiko, wie auch im Vorjahr auf Rang 2. Allerdings sind neue Auslöser auf dem Vormarsch. Gefahren wie Naturkatastrophen und Brände sind weiterhin die Ursachen, die Unternehmen am meisten fürchten. Doch sogenannte nicht-physische oder Nicht-Sachschaden-Ursachen nehmen laut Risk-Barometer zu. Die Auswirkungen von Lieferantenausfällen, Cybervorfällen und die weitreichenden Ausfälle infolge eines Terrorakts sind in diesem Zusammenhang nur einige Ereignisse, die Unternehmen großen Schaden zufügen können. Ein wesentlicher Antreiber für die Angst vor Betriebsunterbrechung durch Nicht-Sachschaden-Ereignisse ist die fortsetzende Digitalisierung.

Marktentwicklungen. Einfluss neuer Technologien und Digitalisierung wächst

Risikomanagement Marktentwicklungen sind für Unternehmen in Deutschland nach wie vor zentrales Thema. Im Ranking nimmt das Risiko mit 39 Prozent der Antworten den dritten Rang ein. Besorgt sind Unternehmen vor allem über die potenziellen Auswirkungen von verstärktem Wettbewerb, Fusionen und Übernahmen (M&A) sowie Marktstagnation.

Hinzu kommt die zunehmende Abhängigkeit von Technologien sowie die steigende Automatisierung, die ganze Branchen verändert und über deren Auswirkungen viele Unternehmen besorgt sind: Digitalisierung bringt einerseits zwar eine Fülle von Möglichkeiten, aber eben auch Risiken mit sich. Die Nutzung und Anwendung von maschinellem Lernen, künstlicher Intelligenz und Big Data trägt zu einer immer größeren Wahrscheinlichkeit von Cyberrisiken bei. Unternehmen, die nicht Opfer des technologischen Umbruchs werden wollen, müssen ihr Geschäftsmodell erneuern und anpassen. Die Implementierung eines geeigneten Risikomanagements und eines Verfahrens zur Schadenminderung bei Cybervorfällen gehört dabei genauso zu den Prioritäten wie die Schaffung eines grundlegenden Verständnisses von Cybergefahren.

Mittelstand bewertet Gefahrenlage anders

Risikomanagement Cyberrisiken werden nach Angaben der Allianz von Unternehmen als größte langfristige Gefahr bewertet. Allerdings nehmen sie bei der Gefahrenbewertung durch Unternehmen mit weniger als 250 Mio. Euro Umsatz im Jahr nur Rang 6 ein. Viele Unternehmen unterschätzen die Gefährdung und sind weder vorbereitet, noch können sie wegen fehlender Ressourcen ausreichend auf einen Vorfall reagieren.

Das größte Risiko für kleinere Unternehmen sind laut Risk Barometer die Marktentwicklungen. Das ist verständlich, denn sie sind stark von einer Marktstagnation abhängig, was sich wiederum auf eine Obergrenze der Kreditvergabe für kleine und mittelständische Unternehme niederschlägt. Zudem bleiben staatliche oder staatlich geförderte Zuschüsse oder andere Unterstützung oft aus. Hinzu kommt: Im Umfeld der klein- und mittelständischen Unternehmen dominieren Branchen wie Dienstleistung, Baugewerbe und Gastronomie – allesamt Sektoren mit einer großen Zahl an Wettbewerbern, wie sie größere Unternehmen in diesem Umfang eher nicht kennen.

Was das Risiko der Betriebsunterbrechung betrifft, so bewerten es die Klein- und Mittelständischen ähnlich hoch wie auch die Großen: Während es von kleinen Unternehmen als zweitgrößtes Risiko eingestuft wird, ist es für den Mittelstand (Umsatz zwischen 250 Mio. Euro bis 500 Mio. Euro) sogar das wichtigste Risiko.

Neue Risiken und alte Bekannte auf den Rängen 4 bis 10

Risikomanagement Zusätzlich zu den oben genannten Bedrohungen zeigen die Ergebnisse des Allianz Risk Barometers 2017, dass Unternehmen zunehmend über die anhaltende Unsicherheit und die potenziellen immateriellen Risiken besorgt sind, die sich aus dem weltweit veränderten rechtlichen und politischen Umfeld ergeben. Industrieunternehmen in Deutschland sehen sich zunehmend mit rechtlichen Veränderungen, einschließlich Regierungswechsel und Protektionismus, (Rang 4 mit 33% der Antworten), politischen Risiken und Gewalt, vor allem Krieg und Terrorismus (Rang 6 mit 19% der Antworten), sowie dem drohenden Zerfall der Eurozone sowie dem Brexit (Rang 10 mit 13% der Antworten) konfrontiert. Insbesondere das Terrorismusrisiko wird als größte Bedrohung aller politischen Risiken angesehen. Dauerhafte Sorge für Unternehmen sind die Folgen von Naturkatastrophen, die im diesjährigen Risk Barometer (16% der Antworten) den achten Rang einnehmen.

Wie bewerten Sie die oben genannten Risiken für Unternehmen? Inwiefern ist Ihr Unternehmen für solche Gefahren gewappnet? Ich freue mich auf Ihren Kommentar.

Der Beitrag Top 10 Risiken in Unternehmen erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Top 10 IT-Trends 2017: Prophezeiung führender Analystenhäuser

12. Januar 2017 Posted by Corinna Barth

Die Top 10 IT-Trends 2017

Zunehmende Notwendigkeit der Digitalisierung

Namhafte Analysten und Unternehmensberatungen haben die wichtigsten IT-Trends 2017 identifiziert. Auch die Experten von Forrester Research haben ihre Studie „The top technology trends to watch: 2016 to 2018“ vorgelegt. Wir haben uns das Paper für Sie angesehen und stellen Ihnen die wichtigsten Erkenntnisse im heutigen Blogbeitrag vor.

Jedes fünfte B2B-Unternehmen in IT-Kinderschuhen

Laut Forrester drehen sich die IT-Trends 2017 allesamt um Vernetzung, Kundenorientierung und die wachsende Rolle der IT in der Markenbildung. Der Kunde rückt immer stärker in den Mittelpunkt. Wir finden, dass sich das durchaus gut anhört – beim Blick auf den Digitalisierungsgrad wird uns allerdings Bange: Trotz der zunehmenden Notwendigkeit der Digitalisierung befindet sich laut der US-Analysten noch immer jedes fünfte B2B-Unternehmen in „IT-Kinderschuhen“!

Die Top 10 IT-Trends 2017

1. Konnektivität

Zwar entwickelt sich dieser Trend noch langsam, aber dafür beständig: Vernetzte und smarte Produkte, die Unternehmen neue Kundendaten liefern und Kunden binden sollen, liegen 2017 im Trend.

2. Datenanalyse-Software

Das Sammeln von Kundendaten ist eine große Herausforderung für Unternehmen – aber gleichzeitig auch von höchster Wichtigkeit für sie. Denn diese Daten bilden eine wichtige Entscheidungsgrundlage für die gezielte Weiterentwicklung von Business-Software und der Entwicklung ihrer Marken. Forrester geht davon aus, dass Insel-Lösungen Platz für „Systems of Insight“ machen werden. Ziel wird es nach Meinung der Experten sein, Insight-to-Execution-Prozesse zu etablieren.

Über 60 Prozent derjenigen, die kollaborativ arbeiten, geben in der Digital-Working-Studie zudem an, dass das gemeinsame Erstellen von Dokumenten im Team unter den jetzigen Bedingungen oft umständlich und zeitaufwändig sei. 55 Prozent beklagen eine hohe Fehlerrate und zwei Drittel sind genervt, dass sie die Änderungen der Kollegen nicht nachvollziehen können. Der Einsatz von Bots und kognitiven Systemen kann die Chance sein, Wissensarbeiter zu unterstützen und durch Automation von Routineprozessen zu entlasten.

3. APIs

Die Relevanz von Progammierschnittstellen (APIs) in der IT-Welt ist erkannt. Nach Forrester ist die Saxo Bank aus Dänemark dafür geradezu ein Paradebeispiel: Die Bank hat ihre Trading-Plattform von der Kundenschnittstelle getrennt und es dadurch geschafft, ihren Kunden höhere Benutzerfreundlichkeit zu bieten sowie technologische Änderungen auf der Handels-Plattform umzusetzen, ohne dass der Kunde davon etwas mitbekommt.

4. Customer Experience

Die Generierung von positiven Erfahrungen der Kunden, um eine emotionale Bindung an das Unternehmen zu erreichen, ist bekannt. Die Investitionen dafür in Mobile IT, Social und Analytics sind hoch. Als neuen Trend prophezeit Forrester nun, dass Unternehmen zunehmend das End-to-Prinzip einsetzen, also die genutzte Software aus Nutzerperspektive hin optimieren werden.

Kundenerlebnis im Fokus

5. Sicherheit und Risiko

Mit zunehmender Digitalisierung steigen die Anforderungen an Sicherheit und Risiko. Die Forrester-Analysten gehen davon aus, dass „Zero Trust“ die Richtung vorgeben wird. Damit ist der Ansatz „Never trust, always verify“ gemeint – und zwar nicht nur die technische Sicherheit von IT-Systemen, sondern auch was das Verhalten von Anwendern betrifft.

6. Hypervernetzte Kunden

Der Verbraucher von heute ist bestens informiert und weiß ganz genau, wann welche Produkte in welchen Online-Shops am günstigsten sind – davon sind die Forrester-Analysten überzeugt. Das wiederum bedeutet für Unternehmen, dass sie Kundenwünsche, -wahrnehmungen und -gewohnheiten sehr genau einschätzen müssen. Hierbei hilft ihnen die exakte Analyse der Kundenhistorien.

7. Technologischer Reifegrad

Unternehmen müssen neue Technologien für den Endkunden entwickeln und dabei sowohl mit Cloud Computing als auch mit schnellen Plattformen für den Kunden arbeiten. Parallel dazu dürfen sie die traditionelle IT und deren Ziele nicht vernachlässigen. Forrester nennt diesen Trend „duale Agenda des Tech-Managements“ – Ihnen ist er eventuell eher bekannt unter dem Begriff der „IT der zwei Geschwindigkeiten“.

8. Infrastruktur

Alles dreht sich in diesem Jahr um Modernisierung. Dafür müssen CIOs den Schritt zur Cloud- und Software-definierten Infrastruktur (SDI) für Netzwerk, Server und Speicherplatz gehen. Forrester spricht in diesem Zusammenhang von der „Infrastructure-as-code“-Bewegung.

9. Software und Markenbildung

Everything must be smart“, meinen die Analysten von Forrester. Damit sich Unternehmen bei den Digital Natives – der jungen Generation – positionieren, müssen CIOs die Konnektivität nutzen und ihre Produkte und Services digital verbessern. Dann klappt laut Forrester auch das Zusammenspiel zwischen Digitalisierung und der Marke.

digitale Konnektivität

10. BYOD

„Bring your own Device“ (BYOD) wird sich nach Einschätzung von Forrester im Jahresverlauf etabliert haben. Jetzt geht es darum, die eigenen Geräte der Mitarbeiter am Arbeitsplatz zu integrieren und die Nutzung zu organisieren. Ziel ist es, Zusammenarbeit und Produktivität zu steigern.

Und die anderen?

Nicht nur Forrester, auch die Experten anderer Beratungshäuser, wie beispielsweise Gartner, IDC, PAC und PwC, haben für 2017 bereits umfangreiche Prognosen über die wichtigsten Entwicklungen abgegeben.

Auch wenn wir nicht auf jedes Detail eingehen können – das würde an dieser Stelle den Platz sprengen – so ist doch eines auffällig: Die Themen Agilität, Geschwindigkeit, Kundennähe und Innovation sind in allen Prognosen tonangebend und stehen auf der Agenda der meisten CIOs ganz oben. Unternehmen müssen Plattformen bauen und sich in digitalen Ökosystemen vernetzen.

Das sagen die Analysten von …

… PAC: Verschiebung von IT-Geldern

Nach Einschätzung der Pierre Audoin Consultants (PAC) werden die IT-Budgets in deutschen Großunternehmen im nächsten Jahr durchschnittlich um etwa drei Prozent wachsen. Allerdings kommt es dabei stark auf das Segment an: Während die Ausgaben für den Betrieb von Altsystemen (Legacy IT), die aktuell immer noch rund 70 Prozent des IT-Budgets ausmachen, um fünf Prozent sinken, erwarten die Analysten einen Anstieg der Ausgaben für Fast-IT-Themen, zum Beispiel Digitalisierung, Big Data, Mobility, Analytics, um 25 Prozent.

Kein Wunder, denn schließlich müssen nach Meinung der französischen Unternehmensberatung deutsche Unternehmen ihr gesamtes Fundament erneuern, um in Sachen Customer Experience wettbewerbsfähig zu bleiben: Backend-Prozesse müssen digitalisiert, ein Wandel in der Unternehmenskultur vollzogen und Arbeitsumgebungen modernisiert werden.

… PwC: acht Technologien werden die Welt verändern

Künstliche Intelligenz, Augmented Reality, Virtuelle Realität, Blockchain, Drohnen, das Internet der Dinge, Roboter und der 3D-Druck werden nach Auffassung der PwC-Analysten signifikanten Einfluss auf das Geschäftsmodell von Unternehmen haben. Unternehmen werden in 2017 sowie in den Folgejahren eine Strategie finden müssen, wie sie diese neuen Technologien für sich nutzen.

Während die genannten Technologien bereits heute Einfluss auf die Kundenbeziehung bzw. die Interaktion von Unternehmen mit ihren Kunden haben, so werden im Bereich der Leistungserbringung Künstliche Intelligenz, Roboter, Drohnen und 3D-Druck die operative Effizienz weiter verbessern. Als Technik-Experten müssen CIOs laut der PwC-Consultants die technologischen Entwicklungen identifizieren und hinsichtlich Wert, Reife und Relevanz für das eigene Unternehmen verstehen und bewerten.

… IDC: Der Fokus liegt auf Innovation und Transformation

Die digitale Transformation ist von zunehmender Geschwindigkeit geprägt. Sie wird nach Einschätzung der IDC-Experten Kernerfolgsfaktor sämtlicher Anstrengungen und gehört deshalb auf die Agenda von CIOs. IDC zufolge werden Unternehmen zudem nur wettbewerbsfähig bleiben, wenn sie den End-Kunden in den Mittelpunkt aller Aktivitäten rücken – und das gilt auch für B2B-Unternehmen.

Dabei sollten sich CIOs auf drei Aufgaben konzentrieren: Innovate (Innovationen fördern), Integrate (neue Technologien und Plattformen integrieren) und Incorporate (neue Formen der Zusammenarbeit etablieren). IDC nennt zu diesen Trends auch konkrete Zahlen: So werden bis 2018 45 Prozent der CIOs Plattformen in den Mittelpunkt stellen und 65 Prozent der IT-Abteilungen neue Services einführen, die den Kunden und das geschäftliche Ökosystem adressieren. Bis 2019 werden 75 Prozent der IT-Ausgaben für Technologien und Services der Dritten Plattform aufgewendet und 40 Prozent der IT Projekte werden neue digitale Services und Umsatzströme generieren. Dabei werden 67 Prozent der IT-Aufwendungen cloudbasiert sein.

… Gartner: Intelligence Everywhere

Top 10 Strategic Technology Trends 2017 Die wichtigsten strategischen Technologie-Trends für 2017 sind laut Gartner: Künstliche Intelligenz und erweitertes maschinelles Lernen, intelligente Applikationen, Virtual Reality & Augmented Reality, Digitale Zwillinge, Blockchain und Distributed Ledgers, Konversationssysteme, Mesh-Apps und Service-Architektur, Digitale Technologieplattformen sowie Adaptive Sicherheitsarchitektur.

David Cearley, Vice President und Gartner Fellow, erläutert diese Trends laut dem Online-Magazin manage-it.de so: „Die ersten drei Top-Trends umfassen das Thema ›Intelligence Everywhere‹ und zeigen auf, wie sich die Technologien sowie Vorgehensweisen für wissenschaftliche Daten immer weiterentwickeln, um Technologien wie Advanced Machine Learning und künstliche Intelligenz zu integrieren. So ist es ihnen möglich, intelligente physische und auf Software basierende Systeme zu erstellen, die darauf programmiert sind, zu lernen und sich anzupassen. Die darauffolgenden drei Top-Trends konzentrieren sich auf die digitale Welt und darauf, wie die physischen sowie digitalen Welten immer weiter miteinander verknüpft werden. Die letzten vier Trends fokussieren sich auf ein Netz aus Plattformen und Services, die für die Versorgung des Intelligent Digital Meshs benötigt werden.“

Fazit der IT-Trends 2017

Die digitale Transformation findet sich in 2017 endgültig auf der To-Do-Liste. Optimierung und Kostensenkung hingehen treten zurück. Dafür werden sich nach Experten-Meinung dann auch die Budgets verschieben: Unternehmen sparen beim Betrieb von Altsystemen und investieren stattdessen in Themen wie dem Internet der Dinge, Big Data, Customer Experience und Analytics.

Geschwindigkeit wird zudem zum Erfolgsfaktor von Unternehmen: CIOs müssen in eine IT der zwei Geschwindigkeiten investieren, damit die digitale Transformation das Tagesgeschäft unterstützen kann.

Der Beitrag Top 10 IT-Trends 2017: Prophezeiung führender Analystenhäuser erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Verschlafen Unternehmen den digitalen Wandel?

8. Dezember 2016 Posted by Diana Jensen

Digitalisierung Banner

Digitalisierung der Arbeit als Chance

Die Digitalisierung verändert unsere Arbeitswelt enorm: Immer mehr Bereiche unseres Arbeitslebens werden automatisiert. Es wird immer schneller und effektiver. Das ist Vorteil und Herausforderung zugleich – sowohl für Arbeitgeber als auch Arbeitnehmer.

Digitalisierung der Arbeit Werfen wir einen Blick auf den Status Quo: Fast die Hälfte der Büroangestellten will einige Aufgaben einfach nicht digital erledigen. Somit wird kaum eine Bürotätigkeit derzeit voll digital ausgeführt – und das, obwohl die Tools dafür bereitstehen! Ein Blick auf die technische Ausstattung unserer Arbeitsplätze zeigt gleichzeitig, dass viele Unternehmen der Realität schlicht und ergreifend hinterherhinken. So ist es kaum verwunderlich, dass kollaboratives Arbeiten in 60 Prozent der Fälle als umständlich und zeitaufwändig empfunden wird.

Das sind einige Ergebnisse der von Host Europe gemeinsam mit dem Forschungsinstitut YouGov durchgeführten Digital-Working-Studie.

Sie greift die Sicht von 1000 Büroangestellten auf den Ist-Zustand ihres Arbeitsplatzes auf und vergleicht ihn mit den Ideen und Visionen von 13 Experten, wie Digitalisierung gelingen kann.

Im heutigen Blogartikel stellen wir Ihnen einige Erkenntnisse dieser neuen, äußerst interessanten Studie vor. Nicht zuletzt auch deshalb, weil wir uns – aufmerksame Leser werden es wissen – immer wieder mit dem Arbeitsplatz der Zukunft in unserem Blog beschäftigen. Übrigens: Die neue Studie stützt die von uns bereits im vergangenen Jahr herausgearbeiteten Trends, die den Arbeitsplatz von morgen prägen: Crowd Sourcing, Vorrang des Arbeitsergebnisses vor der Arbeitszeit, steigender Einsatz mobiler Endgeräte, Generationenkonflikt, Werte- statt Regelorientierung sowie die Integration privater IT-Systeme in den Arbeitsalltag.

Moderner Arbeitsplatz: Sechs Prämissen prägen ihn

1. Flexibilität: Arbeiten von 9 bis 5 hat ausgedient

Der durchschnittliche Büroarbeitsplatz ist antiquiert. Während das Faxgerät, Festnetztelefon und Schreibutensilien hier noch immer den Ton angeben, sind Homeoffice-Arbeitsplätze mit WLAN, Zugang zu Cloud-Speicher, Tablet und Equipment für Videokonferenzen deutlich moderner ausgestattet. Mit solch veralteten Standardausstattung in Unternehmen ist flexibles Arbeiten eben nicht wirklich möglich. Ganz besonders dann, wenn die Lebenskonzepte der jungen Generation mit ihrem Wunsch nach flexiblen Erwerbsmodellen so gar nicht mehr in das feste Arbeitszeitmodell passen: Die Generation der Digital Natives kann sich mit 9-to-5-Bürojobs nicht mehr anfreunden. Arbeitsplatzkonzepte und Arbeitszeitmodelle müssen neu gedacht werden, damit sie den individuellen Lebenskonzepten junger Generationen Rechnung tragen.

2. Digital: Bots und Kognitive Systeme halten Einzug

Kaum eine Bürotätigkeit wird derzeit voll digital ausgeführt – obwohl vielfältige Software und Tools dafür bereitstehen. Die Terminfindung bei großen Gruppen, Suche nach älteren Dateien, E-Mail-Bearbeitung, Meetings und Dokumentenablage gehören dabei zu den mühseligsten Bürotätigkeiten.

Digitalisierung der Arbeit Über 60 Prozent derjenigen, die kollaborativ arbeiten, geben in der Digital-Working-Studie zudem an, dass das gemeinsame Erstellen von Dokumenten im Team unter den jetzigen Bedingungen oft umständlich und zeitaufwändig sei. 55 Prozent beklagen eine hohe Fehlerrate und zwei Drittel sind genervt, dass sie die Änderungen der Kollegen nicht nachvollziehen können. Der Einsatz von Bots und kognitiven Systemen kann die Chance sein, Wissensarbeiter zu unterstützen und durch Automatisierung von Routineprozessen zu entlasten.

3. Motivation: „Digital Convenience“ für alle Mitarbeiter

Laut Digital-Working-Studie gibt die Hälfte der Befragten an, dass sie einige Aufgaben nicht digital erledigen will. Dass auch die Rahmenbedingungen vielfach nicht stimmen, macht es nicht einfacher: Ist für einige die digitale Zusammenarbeit mit Kunden nicht möglich, ist es für andere die mit Kollegen. So oder so: Die Gründe sind zu suchen in fehlenden technischen Möglichkeiten, der (vermeintlichen) Notwendigkeit der Papierform und in gesetzlichen Vorschriften. Für einige stellt auch die IT-Sicherheit ein Hindernisgrund dar, Aufgaben auf digitalen Wegen zu erledigen.

Digitalisierung der Arbeit Priorität für Führungskräfte sollte es deshalb sein, Digitalisierung so voranzutreiben, dass Mitarbeiter gerne digital arbeiten. Mit-Initiator der Studie, Dr. Claus Boyens, Geschäftsführer von Host Europe, nennt das Konzept „Digital Convenience“. Grundlage dafür sei eine klar definierte Digitalisierungsstrategie mit durchdachter Auswahl der eingesetzten Technologien. Nach Ansicht Boyens brauche es klare Regeln, wie die Digitalisierung von Prozessen in Teams zu gestalten sei, aber auch Spielraum, um auf individuelle Präferenzen einzugehen.

Daneben ist auch die Arbeitsplatzgestaltung ein wesentlicher Motivationsfaktor: Eine schnelle Internetverbindung (69%) und eine gute technische Ausstattung des Arbeitsplatzes (66%) ist für die meisten Beschäftigten dabei wichtiger als weiche Faktoren wie der Austausch mit Kollegen (39%) oder persönliche Gegenstände am Arbeitsplatz (30%).

4. IT-Sicherheit: Ein Knackpunkt bei der Digitalisierung

Digitalisierung der Arbeit IT-Sicherheit ist und bleibt der Knackpunkt bei der Digitalisierung: Wie die Digital-Working-Studie offenbart, ergreifen 30 Prozent der Büromitarbeiter keine entsprechenden Maßnahmen am Arbeitsplatz. Dass die Sicherheit von Geräten und Dokumenten im Privaten mehr Beachtung findet, zeigt sich auch daran, dass die Sicherheitsausstattung zuhause mit einem Schutzniveau von 75 Prozent leicht vor den Büroarbeitsplätzen liegt. Vor allem im mobilen Büro wird Sicherheit noch immer vernachlässigt: So gibt aktuell nur eine Minderheit an, riskantes Verhalten zu vermeiden, indem sie den persönlichen Hotspot und die Bluetooth-Verbindung ausschaltet, wenn diese nicht benötigt werden, und das automatische Wiederverbinden mit öffentlichen WLANs deaktiviert.

Wenn aber Mitarbeiter zunehmend mobile Arbeitsplätze einfordern und mobile Geräte zum Einsatz kommen, steigt auch das Risiko für Schatten-IT. Es ist ein schmaler Grat zwischen Mobilität und Sicherheit!

5. Vernetzt: Innovationen und Wissenstransfer mit Coworking und Diversität fördern

Eine große Rolle im Zusammenhang mit der Digitalisierung spielen Collaboration Systeme. Mit dem Einsatz von Technologien und Tools für die vernetzte Zusammenarbeit in Teams können Unternehmen Wissenstransfer, Innovationen und Entscheidungsfreude fördern und beschleunigen. Laut der Digital-Working-Studie haben Startups hier einen deutlichen Vorsprung gegenüber alteingesessenen Branchengrößen, denn sie adaptieren neue Technologien schneller und agieren flexibler. Insbesondere Banken und Versicherungen hinken beim Grad der vernetzten Zusammenarbeit noch hinterher. Partnerschaften, so genanntes Corporate Coworking, der Alteingesessenen mit Startups können für erstere die Chance sein, schneller auf digitale Veränderungen zu reagieren. Und auch Diversität vernetzt Ideen: Altersgemischte Teams sind ein Ansatz, mit dem Unternehmen Erfolge bei der Digitalisierung der Arbeitswelt erzielen können.

6. Selbstbestimmt: Digitalisierung als Chance, nicht als Bedrohung begreifen

Die Digitalisierung der Arbeit macht vor keiner Branche halt, sie verändert ganze Geschäftsmodelle: Angebote werden angepasst, neue Produkte und Dienstleistungen auf den Markt gebracht. Gleichzeitig stellt diese Digitalisierung auch neue Anforderungen an die Unternehmensführung und fordert mehr Eigenverantwortung von jedem Mitarbeiter. Denn wer flexibel und selbstbestimmter arbeitet, muss die Balance zwischen Arbeit und Freizeit auch selbst finden.

Digitalisierung der Arbeit bedeutet auch, dass Maschinen und Software mittlerweile so weit entwickelt sind, dass sie durchaus komplexe Arbeiten übernehmen können. Wir alle sollten Automatisierung jedoch als Chance, nicht als Bedrohung begreifen. Fakt ist, dass sich mit ziemlich hoher Sicherheit Berufsbilder in den nächsten Jahrzehnten ändern, einige Berufe werden wohl wegfallen, dafür aber ganz neue, anspruchsvolle Arbeitsplätze entstehen. Das gilt beispielsweise für Bereiche wie Robotik, künstliche Intelligenz und Data Science. Die Herausforderung besteht darin, einen Weg zu finden, wie Arbeitsteilung zwischen Mensch und Maschinen aussehen kann, so dass viele Menschen davon profitieren.

Fazit: Deutschland hat Nachholbedarf an Digitalisierung der Arbeit

Es kommt noch ein hartes Stück Arbeit auf Unternehmen wie Beschäftigte zu. Zwar sprechen alle von Digitalisierung, doch ist vielerorts noch Luft nach oben. Die Digital-Working-Studie zeigt ganz deutlich, dass fast die Hälfte der Büroangestellten einige Aufgaben schlichtweg nicht digital erledigen möchte. Die fehlende Motivation ist im Übrigen keine Frage des Alters: Die Zustimmung zu dieser Aussage liegt in allen Altersgruppen zwischen 43 und 49 Prozent nah beieinander. Die Gruppe der 18- bis 24-Jährigen hat hier sogar die höchste Quote! Begründet werden Bedenken zum größten Teil mit der mangelhaften Arbeitsplatzgestaltung: Erst wenige Arbeitsplätze sind tatsächlich so ausgestattet, dass Mitarbeiter rundum digital und mobil arbeiten können.

Der moderne Arbeitsplatz der Zukunft

LesetippDigitalisierung und Mobilität verändern die Arbeitswelt von heute und damit auch die Strategien und Konzepte des modernen Arbeitsplatzes. Innovative Unternehmen müssen den Anforderungen ihrer motivierten Mitarbeiter gerecht werden und ihre IT-Landschaft fit für die Arbeitsweisen der Zukunft machen. Sieben Trends lassen sich erkennen, die wir Ihnen in diesem Blogbeitrag vorstellen.

Der Beitrag Verschlafen Unternehmen den digitalen Wandel? erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Neue DSGVO: Kein Datenschutz nach Pi mal Daumen

17. November 2016 Posted by Dr. Bettina Kähler

datenschutz2-banner

Die richtigen Prozesse in Gang setzen

Wie sieht ein DSGVO-konformes Datenschutzmanagement aus?

Die EU-Datenschutz-Grundverordnung oder auch DSGVO mehr ist am 14. April 2016 durch das EU-Parlament beschlossen worden. Sie gilt ohne Wenn und Aber und grundsätzlich ab dem 25. Mai 2018 für jedes Unternehmen aus jeder erdenklichen Branche, das selbst oder im Auftrag von anderen personenbezogene Daten verarbeitet. Bereits im letzten GBS Blogartikel gab ich einen kurzen Überblick über die Ziele der neuen Verordnung, deren veränderten Spielregeln und umfangreichen Informationspflichten für den Umgang mit den Daten anderer. Nun gilt es noch andere wichtige Aspekte der DSGVO zu beleuchten.

DSGVO und der Datenschutz durch Technik

Unternehmen müssen sicherstellen, dass die von ihnen zur Verarbeitung personenbezogener Daten eingesetzten Systeme und Prozesse, von Beginn an datenschutzfreundlich ausgestaltet sind („privacy by design“). Vorgeschrieben ist nunmehr, bei der Auswahl von Sicherheitsmaßnahmen den „Stand der Technik“ ebenso zu berücksichtigen wie die mit der Datenverarbeitung verbundenen Risiken für die betroffenen Personen. Unternehmen, die in großem Umfang zum Beispiel Gesundheitsdaten verarbeiten, müssen mittels einer Datenschutz-Folgenabschätzung im Vorfeld der Datenverarbeitung die Risiken abwägen und die Sicherheitsmaßnahmen dokumentieren.

Information und Transparenz

Abgesehen von den deutlich ausgeweiteten Verpflichtungen im Bereich der technischen und organisatorischen Sicherheitsmaßnahmen bestehen nunmehr recht umfangreiche Informationspflichten gegenüber denjenigen, deren Daten das Unternehmen verarbeitet. Bisher müssen Unternehmen denjenigen, deren Daten sie verarbeiten, nur auf Anfrage Auskunft geben, um welche Daten es sich handelt und an wen Sie übermittelt werden. Zukünftig müssen beispielsweise schon bei der ersten Erhebung von Daten („wie heißen Sie? Wo wohnen Sie? Was ist Ihre Telefonnummer? …“) den betroffenen Personen zahlreiche Informationen über den weiteren Umgang des Unternehmens mit diesen Daten zur Verfügung gestellt werden, so. u.a. die Zwecke der Datenverarbeitung, die Löschungsfristen, die getroffenen Datensicherheitsmaßnahmen und die mögliche Übermittlung der Daten an Dritte oder ins Ausland. Auch müssen die Unternehmen – anders als nach dem noch gültigen BDSG – die von ihrer Datenverarbeitung betroffenen Personen im Fall von Datenpannen nicht nur benachrichtigen, wenn besonders sensible Daten betroffen sind, sondern immer sofern ein hohes Risiko für die Beeinträchtigung der Rechte der betroffenen Person besteht.

DSGVO

Haftung

Für Unternehmen, die als Auftragsdatenverarbeiter für andere Unternehmen tätig sind, verschärft die DSGVO die Haftung. Neben generell strengen Anforderungen an den Einsatz von Auftragsdatenverarbeitern, haftet mit der Datenschutz-Grundverordnung nicht nur das auftraggebende Unternehmen sondern auch grundsätzlich auch der Auftragnehmer gegenüber den Betroffenen auf Schadensersatz, sollte es zu Datenverlusten und zur Verletzung von Rechten kommen. Ein Unternehmen entgeht der Haftung nur, wenn es nachweisen kann für die Ursache des Schadens in keinerlei Hinsicht verantwortlich zu sein. Für beide, Auftraggeber wie Auftragnehmer, ergibt sich daraus die Notwendigkeit sich viel detaillierter als bisher mit der Regelung der gegenseitigen Pflichten zu beschäftigen und vor allem deren Einhaltung zu kontrollieren.

Womit ist bei Datenschutzverstößen zu rechnen?

Die derzeit noch gültigen Bußgelder für Verstöße gegen Datenschutzgesetze sind gerade für große Unternehmen Kleingeld. Auch das ändert sich mit der DSGVO. Die Aufsichtsbehörden müssen sicherstellen, dass die Verhängung von Geldbußen „in jedem Einzelfall wirksam, verhältnismäßig und abschreckend ist“. Je nach Art des Verstoßes gegen Datenschutzvorschriften und Sicherheitsmaßnahmen können nach der DSGVO Geldbußen bis zu 20 Millionen Euro oder 4% des „gesamten weltweit erzielten Jahresumsatzes des vorangegangenen Geschäftsjahres“ eines Unternehmens verhängt werden, „je nachdem, welcher Betrag höher ist“.

Was Unternehmen jetzt schon tun können

Im Herbst 2016 scheint die Umsetzungsfrist des 25. Mai 2018 noch in weiter Ferne. Unternehmen tun allerdings gut daran, jetzt mit den Arbeiten für die Umsetzung der DSGVO zu beginnen, denn die Tücke steckt wie immer im Detail. Der erste Schritt muss dabei eine Aufnahme der aktuellen Situation des Unternehmens in puncto Datenschutz und Informationssicherheit sein. Dabei steht die Frage im Mittelpunkt, welche personenbezogenen Daten sich wo befinden und wie sie technisch-organisatorisch gesichert sind. Letztlich ist die IST-Analyse also eine Prozessanalyse aller Prozesse im Unternehmen, die personenbezogene Daten beinhalten. Sobald dieser IST-Stand erfasst ist, wird deutlich wo Nachbesserungen erforderlich sind und es lässt sich von dort aus der SOLL-Zustand entwerfen und aufbauen. In Bezug auf die Umsetzung der DSGVO geht es dabei nicht nur um die Anpassung der alten Prozesse an das neue Recht, sondern auch um die Schaffung gänzlich neuer Abläufe. Dies gilt insbesondere für die neuen Transparenz- und Informationspflichten der DSGVO gegenüber den Personen, die von der Datenverarbeitung des Unternehmens betroffen sind, aber auch für die gestiegenen Anforderungen an die Dokumentation von IT-Prozessen.

DSGVO

Prozesse weisen den Weg

Das Stichwort „unternehmensinterne Prozesse“ weist dabei den Weg: der Aufbau eines Datenschutzmanagementsystems, das den Anforderungen der neuen DSGVO standhält, ist am einfachsten, wenn er sich an den unternehmensinternen Prozessen entlang arbeitet und diese verändert und anpasst.

Die Mühe wird belohnt

Die Vorbereitung auf die Veränderungen im Datenschutzrecht hat viele Vorteile. Unternehmen, die umgehend starten, verbessern schon jetzt ihre Compliance in puncto Datenschutz und Informationssicherheit, müssen nicht später der neuen Rechtslage hinterherhinken und weder Bußgelder noch Diskussionen mit den Datenschutzaufsichtsbehörden riskieren. Darüber hinaus kann eine gute Vorbereitung auf die DSGVO als Nebeneffekt auch die Grundlage für eine ISO-Zertifizierung oder die Erlangung einer anderen technischen oder datenschutzrechtlichen Zertifizierung sein – diese wiederum können als einfacher Nachweis für die Einhaltung der Vorgaben der DSGVO im Hinblick auf die technischen Sicherheitsmaßnahmen dienen.

Neue DSGVO – Fazit

Sie meinen, nun müssen Sie sich auch noch mit neuen Gesetzen beschäftigen, weil Brüsseler Bürokraten so gerne Unternehmen mit Vorschriften belästigen? Versuchen Sie einmal einen anderen Blick: Datenschutzmaßnahmen und gute Standards in der IT-Sicherheit sind eine Investition in das Vertrauen Ihrer Kunden und in die wirtschaftliche Zukunft Ihres Unternehmens. Firmen konnten in der Vergangenheit Datenschutzmaßnahmen und deren Dokumentation ungestraft im „einmal-über-den-Daumen-gepeilt-Verfahren“ bearbeiten. Diese Zeiten gehen definitiv zu Ende. Es gilt daher, unternehmensinterne Prozesse sorgfältig zu analysieren und zu ordnen und Stück für Stück tragfähigen Datenschutz im Unternehmen zu etablieren.

Neue EU-Datenschutz-Grundverordnung: Unternehmen im Zugzwang

LesetippDie jahrelangen, kontroversen Verhandlungen zur EU-Datenschutz-Grundverordnung sind abgeschlossen. Ab Mai 2018 werden die datenschutzrechtlichen Vorgaben ausschließlich durch die DSGVO geregelt. Zu welchen Ergebnissen ist das Europäische Parlament gekommen? Welche Ziele werden verfolgt? Welche veränderten Spielregeln und umfangreichen Informationspflichten für den Umgang mit den Daten anderer müssen beachtet werden? Dies erfahren Sie im ersten Beitrag unserer zweiteiligen Artikelreihe von Gastautorin Dr. Bettina Kähler, Unternehmensberaterin und Anwältin mit Schwerpunkt auf Datenschutz und Datensicherheit.

Der Beitrag Neue DSGVO: Kein Datenschutz nach Pi mal Daumen erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Neue EU-Datenschutz-Grundverordnung: Unternehmen im Zugzwang

10. November 2016 Posted by Dr. Bettina Kähler

Datenschutz1 Banner

Beschlossene Sache – Neue DSGVO

Jahrelange Verhandlungen sind beendet

Mit Blick auf die technische Entwicklung liegt das Jahr 1995 gefühlte 100 Jahre zurück. Handys existierten als klobige Fernsprechanlagen, und die grenzenlosen Möglichkeiten des Internets wie wir es heute kennen, steckten in den Anfängen. Ganz zu schweigen von Facebook und den zahlreichen anderen, unbegrenzten Möglichkeiten der virtuellen Welten, die ebenso unbegrenzt unsere persönlichen Daten verschlingen.

EU-Datenschutz-Grundverordnung

1995 war auch das Jahr, aus dem die letzte Reform des europäischen Datenschutzrechts datiert. Je weiter sich 1995 entfernte und die technische Entwicklung in unsere Gegenwart hinein rückte, desto weniger konnten die Möglichkeiten der Gesetze dieser standhalten. Es wurde höchste Zeit für eine grundlegende Reform, um europaweit für einen angemessenen Schutz von personenbezogenen Daten und Rechtssicherheit für Unternehmen zu sorgen. Nach einem über vierjährigen, intensiven und in weiten Teilen hochkontroversen Verhandlungsprozess verabschiedete das Europäische Parlament im April dieses Jahres schließlich die neue EU-Datenschutz-Grundverordnung, kurz DSGVO. (mehr)

Die Rechtsform der Verordnung bedeutet in diesem Zusammenhang, dass die EU-Verordnung das jeweilige nationale Datenschutzrecht ersetzt und in jedem Mitgliedsstaat direkt und unmittelbar geltendes Recht wird. Das Bundesdatenschutzgesetz (BDSG) und alle anderen Vorschriften zum Datenschutz sind ab Mai 2018 – von wenigen Ausnahmen abgesehen – Geschichte. Die datenschutzrechtlichen Vorgaben werden dann ausschließlich durch die DSGVO geregelt.

Das Ziel

EU-Datenschutz-Grundverordnung Die Verordnung vereint mehrere und durchaus unterschiedliche Ziele: Sie soll die Datenschutzrechte von EU-Bürgern stärken, das Vertrauen der Öffentlichkeit in die digitale Wirtschaft wiederherstellen und unsere persönlichen Daten durch Einführung neuer Datenschutzprozesse und -kontrollen in Unternehmen besser schützen. Die DSGVO wurde zwar in diesem Jahr vom Europäischen Parlament verabschiedet, doch die Umsetzungsfrist läuft bis zum 25. Mai 2018. Bis dahin müssen Unternehmen ihre Datenschutzprozesse auf das neue Recht angepasst haben. Eine weitere Frist gibt es nicht!

Stichtag 25. Mai 2018

Eine so grundlegend neue gesetzliche Regelung wirft viele Fragen auf, zumal die DSGVO zwar an altbekannten Grundsätzen des Datenschutzes festhält, aber daneben auch zahlreiche bisher unbekannte Anforderungen festschreibt, die Unternehmen künftig zu beachten haben. Wir möchten Ihnen mit diesem Beitrag die zentralen Änderungen vorstellen und der Frage nachgehen, was diese für die Unternehmen bedeuten.

Für wen gilt die Verordnung?

Die DSGVO erfasst alle Unternehmen und Behörden, die in irgendeiner Form, sei es off- oder online, automatisiert oder teilautomatisiert, mit personenbezogenen Daten arbeiten. Grundsätzlich gilt sie also für jedes Unternehmen aus jeder erdenklichen Branche, das selbst oder im Auftrag von anderen personenbezogene Daten verarbeitet. Dabei geht es nicht nur um die Merkmale, die eine Person direkt identifizieren (Name, Anschrift oder Name, Geburtsdatum), sondern auch die Angaben, die sie mittelbar identifizierbar machen, wie z.B. IP-Adressen, Cookies, RFID-Tags, Standortdaten.

Der physische Unternehmenssitz verliert seine Bedeutung

Spielregeln sind klar

Ausschlaggebend für die Anwendung der EU-Datenschutz-Grundverordnung ist ferner, dass ein datenverarbeitendes Unternehmen eine Niederlassung in der EU hat. Neu ist insoweit jedoch, dass zusätzlich auch Unternehmen mit Sitz außerhalb der EU die Vorgaben der Verordnung beachten müssen, wenn sie sich mit ihrem – kommerziellen oder nicht-kommerziellen – Angebot an EU-Bürger richten oder, z.B. im Rahmen des Webtracking, deren Verhalten überwachen.

Was bleibt …

Etwas vereinfacht ausgedrückt kann man sagen, die DSGVO behält die grundlegenden Spielregeln für den Umgang mit den Daten anderer bei, die bisher auch galten.
Zusammengefasst lauten diese wie folgt:

    • Du darfst die persönlichen Daten anderer nur für deine Zwecke nutzen, wenn es dir der Eigentümer der Daten erlaubt oder du die Erlaubnis eines Gesetzes dafür hast
    • Du darfst nur so viele Daten nehmen, wie du für einen bestimmten (Geschäfts-) Zweck brauchst
    • Du darfst die Daten nur solange aufbewahren, wie du sie für den erlaubten Zweck brauchst. Ausnahmen gelten beispielsweise, wenn du mit den Daten nachweisen musst, dass du genug Steuern bezahlst
    • Du musst technische und organisatorische Maßnahmen treffen, um die Daten, die du von anderen benutzt, gegen Missbrauch und Verlust zu sichern.

… und was ist neu?

EU-Datenschutz-Grundverordnung Verglichen mit dem in Deutschland derzeit noch geltenden Datenschutzrecht beinhaltet die DSGVO erheblich ausgeweitete Anforderungen an Unternehmen, personenbezogene Daten technisch und organisatorisch gegen Verlust, Veränderung und Manipulation zu schützen. Neu ist dabei auch, dass die Sicherheitsmaßnahmen nicht nur unternehmensintern umgesetzt, sondern auch dokumentiert und regelmäßig überprüft werden müssen. Unternehmen werden daher ab jetzt deutlich mehr Überlegung und Aufwand in die nunmehr vorgeschriebenen Risikoanalysen, Verfahrensdokumentationen, Datenschutzrisiko-Folgeabschätzungen und datenschutzfreundlichen Techniken investieren müssen.

EU-Datenschutz-Grundverordnung: Antwort auf Missstände

Die in der DSGVO formulierten Anforderungen an die technische Absicherung personenbezogener Daten und an die Dokumentationspflicht lesen sich in Teilen wie eine Antwort auf die Missstände und Regelungslücken der vergangenen Jahre. Zwei Beispiele machen dies deutlich:

Schutzziele

Die nach der DSGVO zu implementierenden technischen und organisatorischen Sicherheitsmaßnahmen orientieren sich an den klassischen Schutzzielen der IT-Sicherheit, der Vertraulichkeit, der Integrität und Authentizität (der personenbezogenen Daten). Die Unternehmen müssen eine Sicherheitspolitik etablieren, die auf der Grundlage einer Risikoanalyse u.a. die nachfolgend genannten Punkte umfasst:

    • die Fähigkeit, die Vertraulichkeit, Vollständigkeit, Verfügbarkeit und Belastbarkeit der Systeme und Dienste im Zusammenhang mit der Verarbeitung personenbezogener Daten „auf Dauer sicherzustellen“,
    • die Fähigkeit, die Verfügbarkeit und den Zugang zu Daten rasch im Falle eines physischen oder technischen Vorfalls, der sich auf die Verfügbarkeit, Vollständigkeit und Vertraulichkeit der Informationssysteme und -dienste auswirkt, wiederherzustellen,
    • zusätzliche Sicherheitsmaßnahmen im Falle der Verarbeitung sensibler personenbezogener Daten, um ein situationsbezogenes Risikobewusstsein sicherzustellen, und die Fähigkeit, Präventiv- und Abhilfemaßnahmen sowie abmildernde Maßnahmen zeitnah gegen festgestellte Schwachstellen oder Vorfälle zu ergreifen, die ein Risiko für die Daten darstellen könnten,
    • ein Verfahren zur regelmäßigen Überprüfung, Bewertung und Evaluierung der Wirksamkeit der Sicherheitsmaßnahmen, -verfahren und -pläne, die aufgestellt werden, um die Wirksamkeit auf Dauer sicherzustellen.

Ausblick

Lesen Sie in der nächsten Woche im GBS Blog über die vielen Vorteile, sich rechtzeitig auf die Veränderungen im Datenschutzrecht vorzubereiten. Unternehmen, die umgehend starten, verbessern schon jetzt ihre Compliance in puncto Datenschutz und Informationssicherheit, müssen nicht später der neuen Rechtslage hinterherhinken und weder Bußgelder noch Diskussionen mit den Datenschutzaufsichtsbehörden riskieren. Denn bald werden verschärfte Haftungregeln greifen und die Sanktionen bei Datenschutzverstößen werden erheblich sein.

Unternehmensberatung für Datenschutz und Informationssicherheit

LesetippDie PrivCom Datenschutz GmbH Hamburg, wurde Ende 2002 gegründet. Das Unternehmen berät unter der Leitung von Dr. Bettina Kähler, große, mittlere und kleine Firmen sowie Organisationen der öffentlichen Verwaltung, Verbände u. ä. zu allen Fragen des Datenschutzes. Dabei steht die Verbindung von rechtlichen und technischen Lösungen – ohne die Datenschutz nicht effizient realisierbar ist – im Fokus.

Der Beitrag Neue EU-Datenschutz-Grundverordnung: Unternehmen im Zugzwang erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Raffinierter Chefbetrug: Digitaler Enkeltrick

20. Oktober 2016 Posted by Diana Jensen

Enkeltrick Banner

Digitaler Enkeltrick ergaunert Millionen

Abzocke mit Unternehmen

Der so genannte Enkeltrick geht in die nächste Runde. Die Opfer sind längst nicht mehr nur Senioren, die um ihr Erspartes gebracht werden. Die Täter rufen auch nicht mehr an. Jetzt kommen sie aus dem World Wide Web. Cyberkriminelle haben eine neue, lukrative „Zielgruppe“ entdeckt: Unternehmen. Die Betrüger geben sich als Führungsperson oder gar als Geschäftsführer aus und ergaunern Geld – zu überweisen auf falsche Bankkonten.

Per E-Mail und mit Hilfe gefälschter Dokumente und Identitäten fordern Trickbetrüger Mitarbeiter auf, Geld auf Konten im Ausland zu überweisen. Ein Trick, der offenbar gut funktioniert: Die Verluste, die CEOs weltweit seit Januar 2015 durch die neue Betrugsmasche einstecken mussten, schätzt das IC3, eine amerikanische Arbeitsgruppe, die sich im Auftrag des FBI mit Cyberkriminalität beschäftigt und Beschwerden über Internetkriminialität erfasst, auf stolze 3.1 Milliarden US-Dollar. 22.143 Unternehmen aus 100 Ländern seien betroffen. Die Beute floss in der Mehrzahl der Fälle auf Bankkonten in China und Hong Kong. Wie geschickt die Täter arbeiten, wie schnell Mitarbeiter zu Opfern werden und auf die Betrüger hereinfallen können und wie Sie sich schützen können, erfahren Sie in unserem heutigen Beitrag.

Spear Phishing als digitale Grundlage

Digitaler Enkeltrick ähnelt Spear-Phishing Die Methode, mit gefälschten Identitäten und E-Mails Geld zu ergaunern, kommt Ihnen bekannt vor? Tatsächlich bedienen sich die Trickbetrüger bei der Chef-Masche einer Angriffsmethodik, die dem Spear-Phishing ähnelt. Mit Hilfe einer erzeugten Textnachricht erwecken sie den Anschein von Vertrauens- und Glaubwürdigkeit und fordern zu einer Handlung auf, deren dringende Ausführung mit einer glaubhaften Argumentation begründet wird.

Wie beim normalen Phishing auch, versuchen Cyberkriminelle beim Spear Phishing über E-Mails an vertrauliche Daten zu kommen. Der Unterschied liegt jedoch an der besonders heimtückischen Art der Angriffsmethode: Die E-Mails erwecken den Anschein, von einem Mitarbeiter aus dem eigenen Unternehmen, in der Regel sogar von einer besonders vertrauenswürdigen Person, zu stammen. Aus Sicht der Betrüger ist diese Strategie logisch: Wer den Absender einer Mail nicht kennt, gibt in der Regel auch keine Informationen an diesen heraus oder klickt Anhänge und Links. Wenn aber der (vermeintliche) Vorgesetzte zu einer Handlung auffordert, ist das schon etwas anderes. Der Unterschied zum Spear Phishing liegt beim Cheftrick nun lediglich darin, dass es hier nicht um Datenklau, sondern um Geld geht.

Digitaler Enkeltrick: So funktioniert er

Der angebliche Finanzchef schreibt eine dringende E-Mail an den zuständigen Buchhalter des Unternehmens: Für einen bedeutenden Geschäftsabschluss muss schnellstens Geld angewiesen werden. Die Zeit ist knapp, denn Mitbewerber schlafen nicht und könnten jederzeit Wind von dem Geschäft bekommen und ihrerseits zum Gegenschlag ansetzen. Unbedingte Geheimhaltung ist deshalb immens wichtig. Zuvor haben die Betrüger, unter falschem Namen versteht sich, ein Konto eingerichtet – irgendwo in Osteuropa oder Hongkong. Auslandskonten, gerade bei international tätigen Unternehmen, sind keine Seltenheit, warum also sollte unser Buchhalter Verdacht schöpfen? Zumal die Anweisung unmittelbar aus der Chefetage kommt. Sobald das Geld überwiesen ist, leiten die Betrüger es sofort weiter, immer wieder, bis sich die Spur in der Karibik oder sonst wo verliert. Bis unser Buchhalter den Fehler bemerkt, sind die Täter längst über alle Berge, die gefälschte E-Mail Adresse deaktiviert und die angegebene Handynummer führt ins Leere.

Ein digitaler Enkeltrick in Unternehmen könnte sich auch wie folgt abspielen: Der (vermeitliche) CEO eines deutschen Unternehmens meldet sich beim CEO oder CFO der ausländischen Tochtergesellschaft. Angeblich sei er gerade im Ausland unterwegs, momentan zwar nur Mobil oder per Mail erreichbar, und benötige für einen wichtigen Geschäftsabschluss, beispielsweise eine Akquisition, Geld. Dieses soll schnell, beispielsweise in ein osteuropäisches Land, überwiesen werden. Seine Argumente klingen logisch und diverse Tricks des Betrügers tun ihr Übriges, jegliche Zweifel an der Glaubwürdigkeit seines Anliegens im Keim zu ersticken. War der Betrüger erfolgreich, versucht er weitere Zahlungen anzufordern – nicht zwangsweise bei der gleichen Tochtergesellschaft, denn existieren mehrere Tochterfirmen, werden auch die um dringende Überweisung „gebeten“.

Digitaler Enkeltrick - Landeskriminalämter warnen

250 Betrugsversuche in Deutschland

Dass unsere beiden Beispiele keinesfalls Einzelfälle oder lediglich unserer Phantasie entsprungen sind, beweisen die Zahlen: Das Landeskriminalamt NRW warnte vor Kurzem ausdrücklich vor der Chef-Masche. Nach Angabe der Behörde haben die Betrugsversuche seit Ende 2015 stark zugenommen, der Schaden beläuft sich auf mehrere Millionen Euro. Immerhin gelang es den Ermittlern gemeinsam mit verschiedenen Banken, seit 2015 20 Millionen Euro zurück zu gewinnen.

Wie die „Welt“ im August unter Berufung auf Holger Kriegeskorte, Leiter des Sachgebietes Wirtschaftskriminalität beim Bundeskriminalamt, berichtet, wurden seit 2013 250 Betrugsversuche mit der Chef-Masche bekannt. Davon waren 68 erfolgreich, die ergaunerte Beute belief sich auf 110 Millionen Euro. Unrühmliche Bekanntheit erlangte in diesem Zusammenhang beispielsweise erst kürzlich der Nürnberger Kabelspezialist Leoni. Betrüger erleichterten das Unternehmen um satte 40 Millionen Euro. Beim prominentesten österreichischen Opfer, dem Luftfahrtzulieferer FACC, belief sich der Schaden durch Überweisungen an Betrüger sogar auf 50 Millionen Euro.

Zu Insiderwissen durch digitale Spuren

Nur durch Insiderwissen können die Trickbetrüger das erforderliche Vertrauen gewinnen und ihre Opfer erfolgreich täuschen. Zugegeben: Es braucht schon lange Vorbereitungszeiten, in denen die Täter ganz genau Unternehmensstrukturen und -abläufe recherchieren und der Erwerb detaillierter Kenntnisse über Personen, beispielsweise durch Beobachtung der Social Media Profile von Führungskräften und CEOs. Aber genau so gelangen die Trickbetrüger letztlich an die Informationen, um sich ihre falsche Identitäten zusammenzubasteln.

Der Name des CEOs lässt sich einfach herausbekommen – ein Blick in das Impressum genügt. Seine Unterschrift? Da hilft der Geschäftsbericht beispielsweise weiter. LinkedIn und Xing verraten eine Menge über Position, Werdegang und Titel von Entscheidern und Verantwortlichen eines Unternehmens. Und nicht zuletzt liefern private Social Media Accounts die notwendige Informationen darüber, wann es sich lohnt zuzuschlagen: Das bedenkenlos gepostete Urlaubsfoto ist doch der beste Zeitpunkt, die Abwesenheit des Chefs auszunutzen…

Der Erfinder des Enkeltricks

Digitaler Enkeltrick hat Vorbild Als Erfinder des Enkeltricks gilt Arkadiusz Lakatosz. Am Telefon gab er sich bei seinen Opfern, hauptsächlich Senioren, als ein in Not geratener Verwandter aus, der dringend Bargeld benötige. Sobald ein Opfer einwilligte, das Geld zu besorgen, schickte er Komplizen, die die Beute bei den älteren Herrschaften abholten. Die Masche machte ihn und seine Komplizen reich: Im Laufe der vergangenen zwei Jahrzehnte wurde der Roma mit geringer Schulbildung zum Multimillionär. Lakatosz und seine Mittäter wurden 2014 verhaftet, derzeit läuft der Prozess in Polen.

Mix aus Aufklärung, organisatorischen und technischen Maßnahmen schützt

Aber kommen wir zurück zum digitalen Enkeltrick. „98 Prozent der Fälle beginnen mit einer E-Mail, in der ein Mitarbeiter angeblich von seinem Chef unter strengster Vertraulichkeit angewiesen wird, eine große Summe – meist knapp unter einer Million Euro – an ein bestimmtes Konto zu transferieren“, sagte Uwe Jacob, Direktor des Landeskriminalamtes NRW, bei einer Pressekonferenz im Juli dieses Jahres zum Thema Millionenschäden durch „Enkeltrick 4.0“.

Und genau hier liegt das Problem: Es ist Gang und Gäbe, Aufgaben bzw. Aufträge auch innerhalb des Unternehmens per E-Mail zu erteilen. Was können Sie also tun, um sich vor einer solchen Betrugsmasche zu schützen? Das Wichtigste ist natürlich Aufklärung und Sensibilisierung im Unternehmen. Jeder Mitarbeiter, insbesondere Entscheider, sollten wissen, dass es derartige Betrugsmaschen gibt. Wer aufmerksam ist und auch einmal kritisch hinterfragt, ob es denn überhaupt sein kann, dass der Chef per E-Mail fordert, eine größere Summe Geld zu überweisen – gerade wenn das Konto sich im Ausland befindet – macht alles richtig. Im Zweifelsfalle: Rufen Sie Ihren Finanzvorstand oder Chef an, und klären Sie die Kontodaten ab.

Klassisches Indiz: Rechtschreib- und Grammatikfehler

Aufmerksamkeit fängt aber auch schon direkt bei der E-Mail an. Betrügerische E-Mails lassen sich oftmals an Fehlern erkennen: Kennen Sie die E-Mail Adresse des Absenders und ist es die gleiche, die Ihr Chef oder Finanzvorstand sonst auch immer benutzt? Ein klassisches Indiz für gefälschte Mails sind zudem Rechtschreib- oder Grammatikfehler. Und selbst wenn ein Chef vielleicht nicht jeden Mitarbeiter seines Unternehmens persönlich kennen kann: Den Namen seines Buchhalters oder Chefs der Finanzabteilung kennt er garantiert – und wird ihn in seiner E-Mail auch persönlich ansprechen! Und grundsätzlich gilt: Werden Sie aufgefordert dringend zu handeln, Ihnen eine Frist gesetzt – womöglich mit persönlicher Konsequenz gedroht – werden Sie stutzig!

Auch technische Maßnahmen können verhindern, auf Betrüger-Mails hereinzufallen: Mit E-Mail Signaturen und Zertifikaten können Sie beispielsweise sicherstellen, dass eine Mail echt ist – also auch sicherstellen, dass der Absender derjenige ist, für den er sich ausgibt! Ergreifen Sie obendrein organisatorische Maßnahmen und regeln Sie ganz genau, wer welche Befugnisse hat: Wer im Unternehmen darf Überweisungen ausführen, wer darf überhaupt Transaktionen genehmigen? Regeln Sie auch ganz klar Vertretungen bei Abwesenheiten. Interne Kontrollmechanismen, wie ein Vier-Augen-Prinzip, insbesondere bei Überweisungen ab einer bestimmten Größenordnung, können ein zusätzliches Mittel der Wahl sein.

Fazit

Digitaler Enkeltrick oder auch Cheftrick kostet Unternehmen Millionen und die Masche hat zugenommen. Die Größe der Firma spielt keine Rolle: Nicht nur Mittelständler, auch große Unternehmen mit ausländischen Tochtergesellschaften sind beliebte Opfer organisierter Verbrecherbanden. Prävention, gleich ob technischer oder organisatorischer Art gepaart mit Menschenverstand, ist für Unternehmen die einzige Möglichkeit, um sich vor den Kriminellen zu schützen. Hat der Cheftrick dann doch funktioniert, hilft nur noch Schnelligkeit. Informieren Sie umgehend Ihre Hausbank, so dass die Transaktion eingefroren werden kann, und benachrichtigen Sie die Polizei.

Phishing-Mails: Wenn Daten ins Betrügernetz gehen

LesetippMit professionellen Phishing-Mails finden Betrüger immer öfter einen Weg, um an vertrauliche Daten wie Passwörter, Zugangsdaten oder Kreditkartennummern zu kommen. Dabei sind diese Mails kaum noch von echten E-Mails zu unterscheiden. In unserem Beitrag verraten wir Ihnen 10 wichtige Tipps, wie Sie dennoch Phishing-Mails erkennen können.

Der Beitrag Raffinierter Chefbetrug: Digitaler Enkeltrick erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Phishing-Mails: Wenn Daten ins Betrügernetz gehen

13. Oktober 2016 Posted by Robert Becker

Phishing Banner

Krimineller Einfallsreichtum mit Phishing-Mails

10 Top Tipps: Erkennen Sie Phishing-Mails und schützen Sie Ihre Daten

Abholbenachrichtigungen für ein Paket in einer fremden Packstation, das Sie eigentlich gar nicht bestellt haben, eine E-Mail der Hausbank, die über eine Kontosperrung informiert und zur Freischaltung Ihre Bankdaten einfordert, der Gutschein des Online-Händlers, den Sie sich nur über dessen Webseite herunterladen können, wenn Sie sich im Shop einloggen: Sicher würden Sie misstrauisch werden, wenn sich E-Mails mit derartigen Betreffs oder Inhalten in Ihrem Postfach befinden. Denn natürlich haben auch Sie schon einmal von Phishing-Mails gehört.

Was aber, wenn die E-Mail eines vermeintlichen Bewerbers – zwar allgemein formuliert aber dennoch grammatikalisch korrekt – in Ihrem Postfach landet, noch dazu mit einem Verweis auf Bewerbungsunterlagen, die sich in dem Cloud-Speicherdienst Dropbox befinden. Würden Sie auch dahinter eine Phishing-Attacke vermuten? Sie sehen: Phishing-Attacken werden immer ausgeklügelter!

In diesem Blogartikel beleuchten wir das Thema Phishing einmal genauer, wie es funktioniert, welche Motive hinter Phishing stecken und wie Sie sich schützen können.

Was ist Phishing

Phishing ist ein Kunstwort, das sich aus den Worten „Passwort“ und „fishing“ zusammensetzt. Wie beim echten Fischen gibt es einen Angler (Angreifer), einen Köder (Nachricht) und einen Fisch (Opfer). Beim Phishing versuchen Hacker auf betrügerische Art persönliche Daten abzufischen. Bevorzugt sind Benutzernamen und Passwort von Online-Diensten. Besonders haben Hacker es aber auch auf Bankzugänge abgesehen.

Phishing-Mails Ein Phishing-Angriff beginnt meist mit einer gefälschten E-Mail. Durch Vortäuschen eines vertrauenswürdigen Absenders oder legitimen Anliegens werden Mitarbeiter dazu verleitet, schadhafte E-Mail-Anhänge zu öffnen oder Links von gefälschten bzw. präparierten Internetseiten anzuklicken. Diese enthalten meist sogenannte Skripte, mit denen Sicherheitslücken im Internetbrowser ausgenutzt werden. Auf diese Weise kann dann Malware auf dem eigenen Rechner oder im gesamten Firmennetzwerk installiert werden, über die sich ein Computer aus der Ferne steuern lässt.

Um an die persönlichen Daten ihrer Opfer zu gelangen, versuchen die Angreifer, entweder Kunden von Geldinstituten und Online-Diensten auf gefälschte Internetseiten zu locken, oder sie verschicken E-Mails mit gefährlichen „zip“- oder „cab“-Dateien. Wer diese Anhänge öffnet, riskiert, dass sein Computer ausgespäht wird und die Daten an die Betrüger übermittelt werden.

Phishing ist nicht gleich Phishing

Unterschieden wird beim Phishing nach Vorgehensweise und Zielgruppe. Spear Phishing bezeichnet das gezielte Phishing, das sich an einen ganz bestimmten Personenkreis wendet: Fachverantwortliche, leitende Angestellte, Geschäftsführer. Die Angreifer tarnen ihre Mails dabei sehr gut, beispielsweise als Nachricht vom Administrator, und versuchen sich auf diese Art persönliche oder unternehmensrelevante Daten zu ergaunern. Da diese Art des Phishings eine lange Vorbereitungszeit bedarf, handelt es sich bei den Tätern meist um Industriespione. Landen Opfer, obwohl sie die korrekte Internetadresse im Browser eingegeben haben, auf einer gefälschten Homepage, sind sie Opfer von so genanntem Pharming, bei dem DNS-Anfragen von Internetseiten gefälscht werden. Eine weitere Form des Phishing ist Vishing (Voice Phishing), also Phishing per Telefon.

Gezieltes Phishing mit künstlicher ID

Und gerade erst haben Sicherheitsforscher ein Maschinenlern-System programmiert, das in der Lage ist, echt wirkende Twitter-Nachrichten zu verfassen und damit auf Beiträge mit dem Hashtag #Pokemon zu reagieren. Auf diese Weise wollten die Forscher zeigen, wie einfach sich Nutzer sozialer Medien von Software, die natürliche Sprache versteht, täuschen lassen. Ungefähr ein Drittel der angesprochenen Personen klickte auf einen von der Software verschickten Link, der in diesem Fall glücklicherweise harmlos war.

Nach Informationen von John Seymour, leitendem Datenwissenschaftler bei der Sicherheitsfirma ZeroFOX, die für das Experiment verantwortlich zeigte, war die Erfolgsquote deutlich höher als die üblichen 5 bis 10 Prozent bei normalen „Phishing“-Nachrichten, die Nutzer dazu bringen sollen, auf Links zu klicken, hinter denen sich Malware verbirgt.

Die Motive und Täter

Finanzielle Motive stehen meist im Vordergrund der Täter. Angreifer können aber auch die persönlichen Daten von Nutzern oder ausgewählten Personen in Unternehmen in ihren Besitz bringen, um dem gesamten Unternehmen erheblich zu schaden. In diesen Fällen werden Phishing-Attacken eingesetzt, um Betriebsgeheimnisse, Forschungsergebnisse oder geschäftskritische Informationen zu stehlen. Ganze Branchen könnten durch die Bekanntgabe von gefährlichen Informationen einen Imageschaden und Produktionsausfälle erleiden.

Entsprechend der Zielgruppe – Verbraucher oder Unternehmen – lassen sich somit Rückschlüsse auf die Täter ziehen: Handelt es sich um gewöhnliche Kriminelle oder um andere Firmen, die sich Wettbewerbsvorteile verschaffen wollen. Manchmal sind die Drahtzieher auch andere Staaten, so wie beispielsweise 2013, als der britische Geheimdienst mit manipulierten Kopien von Seiten auf LinkedIn versuchte, sich Zugang zu den Rechnern von Mitarbeitern des belgischen Telekommunikationskonzerns Belgacom zu verschaffen.

Mails unter falschem Namen: Media Markt, Sparkassen, Dropbox und Amazon betroffen

Dass Phishing-Angriffe an der Tagesordnung sind, zeigen die jüngst in Umlauf gebrachten gefälschten Media Markt E-Mails: Kriminelle haben unter dem Namen der Elektronik-Fachmarktkette mit Schadsoftware präparierte Rechnungen versendet. Wer sie öffnet, fängt sich einen Erpresser-Trojaner ein. Sein Unwesen treibt auch ein neuer Banking-Trojaner: Kriminelle tarnen ihre Attacke auf Konten von Sparkassen-Kunden als vermeintliche Fehlüberweisung vom Finanzamt. Sie werden per Mail aufgefordert, eine Rückbuchung durchzuführen – nur landet das Geld statt bei der Steuerbehörde auf dem Konto der Betrüger.

Phishing-Mails im Finanzbereich

Und wenn eine E-Mail eines vermeintlichen Bewerbers in Ihrem Postfach landet, die zwar allgemein formuliert aber grammatikalisch korrekt ist und dazu noch einen Verweis auf Bewerbungsunterlagen enthält, die sich vermeintlich in dem Cloud-Speicherdienst Dropbox befinden, könnten Sie Opfer einer neuen Masche von Cyberkriminellen werden. Diese verteilen ihre „Schöpfungen“ via Dropbox-Link.

Im Visier sind aktuell auch wieder Kunden des Online-Vesandhändlers Amazon: Gefälschte E-Mails mit Links zu Webseiten, welche der Empfänger aufgrund ‚merkwürdiger Aktivitäten‘ aufrufen soll, sind im Umlauf. Nach Bestätigung der Nutzerdaten, könne das Konto wieder wie gewohnt verwendet werden. Bei den verlinkten Seiten handelt es sich jedoch um Fälschungen, mit deren Hilfe sensible Nutzerdaten abgegriffen werden sollen. Sobald Nutzer ihre Daten dort eintragen, werden sie direkt und unverschlüsselt an die Datendiebe versendet.

Dass Phishing-Attacken längst nicht nur auf E-Mails beschränkt sind, zeigt die Entdeckung von GBS Technologiepartner Kaspersky Lab im Juli: Der Antivirus-Softwarehersteller entdeckte Phishing-Angriffe auf Facebook, von dem binnen zwei Tagen rund 10.000 Facebook-User weltweit betroffen waren. Der Angriff erfolgte über die Benachrichtigung, von einem Facebook-Freund in einem Kommentar erwähnt worden zu sein. Die User sollten auf die Facebook-Benachrichtung klicken, wodurch ein Trojaner auf den Computer des Benutzers geladen wurde, der eine bösartige Google Chrome-Erweiterung installierte. Durch den Aufruf des Facebook-Accounts über den kompromittierten Browser übernahmen die Angreifer in einem zweiten Schritt das Facebook-Konto und konnten unter anderem Datenschutzeinstellungen ändern, Daten entwenden und den Virus weiter verbreiten.

Erkennen Sie Phishing-Angriffe

Auch wenn Phishing-Mails inzwischen deutlich professioneller geworden und nicht mehr so schnell als solche zu enttarnen sind, gibt es doch eindeutige Indizien. Wir geben Ihnen 10 Top Tipps, wie Sie Phishing-Mails erkennen können.

1. Die Betreffzeile

Häufig zielen schon die Betreffs von Phishing Mails darauf ab, dem Empfänger Angst zu machen – die Betreffzeilen lauten dann zum Beispiel „Ihre Rechtsanwalt Aufforderung“ oder „Inkasso Aufforderung“. Kunden von Online-Shops, die gefälschte Mails erhalten, lesen oft „Ihr Benutzerkonto wurde eingefroren“ oder „Betrugsversuch: Ihre Beihilfe ist erforderlich“. Schwieriger wird es, wenn im Betreff Bezug auf offene Rechnungen genommen werden – dann soll der Empfänger dazu bewegt werden, einen Anhang zu öffnen. Überlegen Sie bitte ganz genau, ob Sie eine Geschäftsbeziehung zum Absender haben, fragen Sie notfalls Ihre Kollegen. Immer wieder tauchen auch Betrüger-Mails auf, die versuchen, Opfer zu Tätern zu machen: Unter einer echten E-Mail-Adresse eines Unbescholtenen werden fingierte Rechnungen und Mahnungen an Dritte verschickt!

2. Fehlender Name

Von einer verallgemeinernden Anrede gleich auf eine Phishing-Mail zu schließen, ist zwar Unfug. Wenn aber Ihre vermeintliche Bank oder Ihr angeblicher Geschäftspartner Sie in E-Mails mit „Sehr geehrter Kunde“ oder „sehr geehrter Nutzer“ anredet, sollten Sie Vorsicht walten lassen. Beide werden Sie stets mit Ihrem Namen ansprechen! Leider werden Phishing-Täter aber immer raffinierter und finden inzwischen schon den Namen ihrer Opfer heraus.

Paypal-Phishing: E-Mails ohne Anrede

3. Dringender Handlungsbedarf

Werden Sie per E-Mail dazu aufgefordert, ganz dringend und innerhalb einer bestimmten (kurzen) Frist zu handeln, werden Sie misstrauisch! Vor allem, wenn damit auch noch eine Drohung verbunden ist, beispielsweise die Sperrung eines Online-Zugangs oder der Kreditkarte, handelt es sich höchstwahrscheinlich um einen Phishing-Versuch.

4. Aufforderung zur Dateneingabe

Geschäftspartner, Banken oder seriöse Online-Shops werden Sie nie dazu auffordern Passwörter, Kreditkartennummer, PIN oder TAN preiszugeben, beispielsweise innerhalb eines Formulars der E-Mail oder am Telefon. Werden solche Daten abgefragt, handelt es sich höchstwahrscheinlich um einen Betrugsversuch.

5. Aufforderung zur Öffnung einer Datei

Seien Sie bei E-Mails mit Dateianhängen grundsätzlich skeptisch – erst Recht, wenn Sie unangekündigt von Ihnen unbekannten Absendern kommen und mit der Aufforderung zum Öffnen (gegebenenfalls unter Androhung von Konsequenzen bei Unterlassen) verbunden sind. In den Anhängen können sich Schadprogramme verbergen, die ausgeführt werden, sobald die beigefügte Datei geöffnet wird.

6. Verdächtige Dateianhang-Formate

Doch auch wenn Sie nicht explizit zum Öffnen eines Anhangs aufgefordert werden, so genügt oft der bloße Blick auf das Dateiformat, um die Spreu vom Weizen zu trennen. Vermeiden Sie tunlichst das Öffnen von ausführbaren Dateien, wie zum Beispiel .exe Dateien und machen Sie einen Bogen um Office Dokumente, da diese in Zeiten von Kryptotrojanern und Co. verstärkt als Träger von Schadcode eingesetzt werden.

7. Grammatik- und Orthografie-Fehler

Phishing E-Mails sind häufig in fehlerhaftem Deutsch geschrieben, weil sie nicht von einem Muttersprachler verfasst wurden, sondern mit einem Übersetzungsdienst automatisiert aus einer anderen Sprache übersetzt worden sind. Zeichensatzfehler, wie kyrillische Buchstaben oder fehlende Umlaute sind weitere Hinweise, dass es sich um eine Phishing-Mail handeln kann.

Phishing-Mails bei Amazon-Kunden

8. Gesunder Menschenverstand

So schützen Sie sich: Gesundes Misstrauen ist eine Sache. Das Problem beim Phishing: Auch die Angreifer machen ihre Hausaufgaben, entwickeln beständig neue Köder, um doch erfolgreich an sensible Daten zu gelangen. Man kann die Bedrohung mit einer Grippe vergleichen: Auch sie entwickelt sich laufend weiter und ändert ihre Angriffsarten.

9. Prüfen Sie Links

Enthält der Link einen Schreibfehler, handelt es sich mit hoher Wahrscheinlichkeit um einen Angriffsversuch. Am besten rufen Sie Webseiten ohnehin nur über manuelle Eingabe der URL in einem separaten Browser-Fenster auf, niemals über Links in E-Mails. Passwörter und Nutzernamen sollten Sie in eigenem Interesse nur über verschlüsselte Webseiten eingeben. Loggen Sie sich niemals bei Online-Diensten über öffentliche WLAN-Netze ein, beispielsweise am Flughafen oder im Café. Diese können von Betrügern aufgebaut worden sein, um auf falsche Webseiten umzuleiten.

10. Blick in Mail-Header

Zugegeben, Phishing-Mails werden immer professioneller und sind sehr gut gemacht: Eine vertrauenswürdige Absenderadresse – vielleicht sogar vom eigenen Arbeitgeber oder einem guten Freund – fließendes Deutsch und auch der Link im Test lässt keine Zweifel an der Echtheit aufkommen. Aber dennoch muss die Mail nicht echt sein, denn insbesondere die Absenderangaben lassen sich fälschen. Welche Person die E-Mail also tatsächlich verschickt hat, lässt sich, sofern sie nicht digital signiert wurde, fast nie feststellen. Ein Blick in den Mail-Header räumt zumindest sämtliche Zweifel über die Herkunft der Mail aus: Hier befindet sich die IP-Adresse des Absenders – und die ist fälschungssicher. Den genauen Standort des Endgeräts kann zwar nur der Provider ermitteln, Sie können aber immerhin feststellen, ob die E-Mail Ihres Geschäftspartners aus Karlsruhe tatsächlich dort abgeschickt wurde oder von einem Rechner aus Nigeria stammt.

Schutz der E-Mail-Kommunikation

Bei aller Vorsicht: Ein wichtiger Schritt ist auch die Ergreifung gezielter technischer Abwehrmaßnahmen, wie beispielsweise das Erkennen und Entfernen verdächtiger Office-Inhalte, so genannter Makros, aus E-Mails. In Kombination mit spezieller Phishing-Erkennungstechnologie und einem mehrstufigen Spamschutz ergibt sich ein gutes Sicherheitsniveau. Unsere Lösung iQ.Suite bietet umfassende Sicherheit durch den parallelen Einsatz mehrerer marktführender Anti-Virus Scan-Engines. Eine neue Anti-Phishing-Technologie erlaubt es sogar, verdächtige URLs in E-Mails zu erkennen und zu blockieren. Dabei kommt eine fortschrittliche Cloud-Technologie zum Einsatz, welche die Reputation von Webseiten bewertet. Auf diese Weise können schädliche Webseiten-Adressen in E-Mails zuverlässig erkannt und entsprechende E-Mails geblockt werden.

Fazit

Phishing E-Mails sind bei Cyberkriminellen sehr beliebt, um an Informationen zu kommen und werden aus diesem Grund auch häufig versendet. Dass Schutz vor Phishing-Attacken wichtig ist, zeigt nicht erst der im Juni veröffentlichte Quartalsbericht der Anti-Phishing Working Group (APWG), nach dem allein im ersten Quartal 2016 die Zahl der Phishing-Webseiten um 250 Prozent im Vergleich zum Ende letzten Jahres gestiegen ist. Da Phishing-Mails obendrein immer professioneller werden und häufig gar nicht mehr so leicht als solche zu erkennen sind, reichen Mitarbeiter-Schulungen und ein wacher Geist allein kaum noch aus. Vielmehr muss ein leistungsfähiger Schutz sensibler Unternehmensdaten in der E-Mail-Kommunikation gewährleistet sein.

Lesen Sie zum Thema Phishing auch in der nächsten Woche im GBS Blog. Dann berichten wir über den Enkeltrick im digitalen Zeitalter: Trickbetrüger geben sich als Geschäftsführer aus und fordern per E-Mail und mit Hilfe gefälschter Dokumente und Identitäten Mitarbeiter auf, Geld auf Konten im Ausland zu überweisen. Ein Trick, der offenbar gut funktioniert.

Sicherheit im Internet: Gefährdungslage ändert sich

LesetippDie aktuelle IT-Sicherheitslage gibt Grund zur Sorge. Cyberattacken, allen voran Phishing Angriffe, sind auf dem Vormarsch. Denn Hacker haben erkannt, dass sich mit digitalen Daten gutes Geld machen lässt. Unsere Einschätzung zur Bedrohungslage und worauf Sie achten sollten, lesen Sie in diesem Artikel.

Der Beitrag Phishing-Mails: Wenn Daten ins Betrügernetz gehen erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Die Evolution der Virtualisierung: Container-Technologie

6. Oktober 2016 Posted by Heiko Brenn

Windows Server 2016 Banner

Der Beginn der Virtualisierung

Ursprünglich in der Mainframewelt zuhause, revolutionierten virtuelle Maschinen (VMs) auf Basis von Lösungen wie VMWare, VirtualBox und Hyper-V auch in der Windows Welt den IT-Betrieb. Das Erstellen und Verwalten einzelner Server und ganzer Serverfarmen vereinfachte und beschleunigte sich durch die Einführung der Virtualisierung immens. Ein Rechenzentrumsbetrieb ohne VMs ist heute undenkbar. Der limitierende Faktor bei der Verwendung virtueller Maschinen war hier lange Zeit ausschließlich die zugrundeliegende Hardware. Der Ruf nach immer schnellerer Bereitstellung neuer Maschinen, besserer Skalierbarkeit und optimierter Ressourcen-Nutzung, führte mit der Zeit zur Notwendigkeit, die Virtualisierung weiterzuentwickeln. Eine treibende Kraft ist hier nicht zuletzt die steigende Akzeptanz Cloud-basierter Lösungen. Dadurch ergeben sich zusätzliche Anforderungen bezüglich Hochverfügbarkeit, Multi-Mandantenfähigkeit und Portabilität.

Container-Technologie hält Einzug

Container-Technologie hat enorme Vorteile Im Cloud-Zeitalter stehen Software-Dienste im Mittelpunkt. Diese müssen schnell und einfach entwickelt, getestet und bereitgestellt werden können. Dabei verschwimmen die Grenzen zwischen On-Premise und Cloud. Um all die genannten Anforderungen zu erfüllen, entstand die Idee virtuelle Maschinen um standardisierte Container zu ergänzen.

Aus dem Transportwesen kennen wir Container als eine Möglichkeit in genormten Behältern alle denkbaren Güter von A nach B zu verfrachten. Dabei können diese Container auf Schiffen, Zügen oder LKWs transportiert werden. Was sich innerhalb des Containers befindet, ist für den Transport völlig unerheblich. Der Schlüssel ist also die Entkopplung des Container-Inneren von der Außenwelt.

Wenn wir diese Idee nun in die Softwarewelt verlagern, ergibt sich daraus die Möglichkeit, Software zuverlässig laufen zu lassen, nachdem sie von einer Umgebung in eine andere transportiert wurde. Das heißt, eine Software funktioniert in einem Container exakt gleich, egal ob sich dieser auf dem Rechner des Entwicklers, in einer lokalen Testumgebung, einem physikalischen Computer oder innerhalb einer virtuellen Maschine On-Premise bzw. in der Cloud befindet.

Wie unterscheiden sich Container von virtuellen Maschinen?

Bildquelle: https://www.docker.com/whatisdocker Eine virtuelle Maschine besteht aus einem vollständigen Betriebssystem (OS) mit eigener Speicherverwaltung, Treibern, Massenspeicher und den erforderlichen Software-Komponenten, um Applikationen verwenden zu können. Ein Container dagegen beinhaltet kein Betriebssystem. Damit ist der Overhead eines Containers im Vergleich zu einer VM wesentlich geringer. Das Betriebssystem läuft bei diesem außerhalb des Containers. Dieses kann natürlich wiederum virtualisiert betrieben werden. Durch den Wegfall des Betriebssystems ist es möglich, Container in einem Bruchteil der Zeit zu starten. Darüber hinaus sind für den Betrieb der Container-Technologie wesentlich weniger Ressourcen nötig. Ein Container ist kleiner als eine VM, somit können auf einem Server sehr viel mehr Container als VMs betrieben werden.

Ein weiterer Vorteil besteht darin, dass alle erforderlichen Komponenten um eine Applikation zu nutzen, Bestandteil des Containers sind. D.h. die benötigten Bibliotheken und andere Binär- und Konfigurationsdateien werden mit dem Container bereitgestellt. Damit können keine Probleme mit unterschiedlichen Versionsständen und Patch-Levels auftreten, egal auf welcher Plattform der Container betrieben wird. Für den Betrieb von Software-Lösungen, egal ob On-Premise oder in der Cloud, ergeben sich durch Container ganz neue Möglichkeiten der Skalierbarkeit. Denn zusätzliche Container können schnell und einfach gestartet und in Betrieb genommen oder auch wieder gestoppt werden.

Aus der Tatsache, dass sich mehrere Container dasselbe Betriebssystem teilen, ergeben sich allerdings auch Nachteile. Gibt es beispielsweise Sicherheitslücken im Betriebssystem, können diese ggf. alle darauf betriebenen Container in Mitleidenschaft ziehen. Umgekehrt könnte mit privilegierten Berechtigungen innerhalb eines Containers, das darunterliegende OS angegriffen werden. Daher ist es zum einen wichtig, die Berechtigungen in Containern mit Bedacht zu setzen, und zum anderen das Betriebssystem stets mit den aktuellsten Updates zu versehen.

Docker und Windows Server 2016

GBS - Server-Manager Eine Möglichkeit Container-Technologien zu verwenden, stellt u.a. Docker zur Verfügung. Daneben existieren auch andere Lösungen, wie beispielsweise Rocket für CoreOS oder auch Kubernetes.

Die erste Docker Version wurde 2013 noch als „dotCloud“ veröffentlicht. 2014 konnte Docker in der Linux-Welt dann schnell an Bekanntheit und Popularität gewinnen. Durch die Partnerschaft mit Microsoft stand bisher Docker im Rahmen von Azure unter Linux zur Verfügung. Mit Windows Server 2016 sind diese Möglichkeiten jetzt auch im Microsoft Betriebssystem verfügbar. Dabei können Container auf zwei Arten verwendet werden, als Windows Server Container und Hyper-V Container. Beide Arten werden auf die gleiche Weise erstellt bzw. verwaltet und funktionieren identisch. Der Unterschied besteht im Isolationsgrad zwischen Container, Hostbetriebssystem und anderen Containern, die auf dem Host ausgeführt werden.

Bei der Verwendung von Windows Server Containern können mehrere Containerinstanzen auf einem Host gleichzeitig isoliert ausgeführt werden. Dies gilt u.a. für Ressourcen, Prozesse, Dateisystem und Namespaces. Der OS Kernel wird dabei zwischen Container und Host geteilt. Im Gegensatz zu Windows Server Container werden Hyper-V Container jeweils auf einem speziellen virtuellen Computer ausgeführt. Damit wird eine Isolation auf OS Kernel Ebene zwischen Hyper-V Container und Host erreicht. Über den Server-Manager kann das Windows-Container-Feature installiert werden. Zusätzlich sind dabei das Docker-Modul und der Docker-Client erforderlich. Sobald der Docker-Service gestartet ist, können über die Powershell Container erstellt werden.

Resümee

Mit der Bereitstellung von Windows Server Container-Technologie bieten sich für die oben genannten Prozesse der Software-Entwicklung sehr interessante Möglichkeiten. Diese waren bisher nur unter Linux realisierbar. Auch für den Software-Betrieb unter Windows stehen nun neue Skalierungsoptionen zur Verfügung.

Kennen Sie Docker? Hat die Container-Technologie auch bereits in Ihrem Unternehmen Einzug gehalten? Ich freue mich über Ihre Kommentare, weitere Tipps und Anregungen.

Der Beitrag Die Evolution der Virtualisierung: Container-Technologie erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.