Posts Tagged: ‘technologie’

Kurz notiert: Technische Inkompatibiliät wo man hinschaut, im Großen, wie im Kleinen: #LTE #Mesh

8. Mai 2020 Posted by Stefan Pfeiffer

So von wegen kompatible Technologien. Manche Dinge ändern sich nicht. Telekom-Deutschland-Chef Dork Wössner im Interview mit der FAZ:

Aber für die insgesamt rund 2000 LTE-Standorte, die wir bis Ende dieses Jahres neu bauen wollen, brauchen wir auch Huawei. Leider können Technologien unterschiedlicher Hersteller heute noch nicht miteinander kombiniert werden. Konkret: In einem Gebiet mit Huawei-Antennen kann man keine Ericsson-Technologie dazwischenbauen und umgekehrt auch nicht. Ohne Huawei können wir Funklöcher nicht schnell schließen.

Telekom: „Ohne Huawei bleiben Funklöcher“

Und ich muss an meine kürzlichen Erfahrungen mit den kompatiblen Mesh-Technologien von AVM und der Telekom denken. Die Telekom Magenta TV-Box habe ich zurück geschickt, da sie instabil lief und mir keine wahrnehmbaren Vorteile gegenüber meiner Kombination von AVM Fritzbox 7590, AVM Fritz Repeater 3000 und dem Telekom Media Receiver 401 Typ B bringt. War nix mit dem Maschendrahtzaun.

Irgendwie warte ich noch auf das Telekom-Erweckungserlebnis, das wohl Volker Weber vor einigen Wochen hatte. Da gab es wohl schnellere Leitung und günstigere Verträge. Wenn ich gerade die Mobilfunkkosten jeden Monat sehe … Die Hoffnung stirbt zuletzt.

Die Telekom kann, wie fast alle anderen Mitbewerber, was lernen: Behandelt Eure Bestandskunden nicht schlechter als Eure Neukunden. Das ist hier ausnahmsweise gelungen, mit massiver Einflussnahme. Sowas muss automatisch funktionieren.

vowe dot net :: Frau Stengert von der Telekom hat einen Kunden gerettet

Sind DSGVO-Prozesse im Unternehmen integriert?

20. Januar 2020 Posted by Dr. Rolf Kremer

DSGVO-Prozesse sicher und transparent umsetzen

Professionelle Data Leakage Prevention Lösung im Fokus!

Mit der Europäischen Datenschutzgrundverordnung (kurz „DSGVO“) haben wir uns in diesem Blog bereits beschäftigt. Im damaligen Beitrag: „DSGVO umsetzen – Unternehmen sind nicht ausreichend vorbereitet“, lag der Fokus auf der Einbeziehung der E-Mail-Sicherheit (siehe den Artikel „DSGVO umsetzen – Unternehmen sind nicht ausreichend vorbereitet“. Ein weiteres wichtiges Thema ist, wie die durch hinzugekommenen DSGVO-Prozesse im Unternehmen eingeführt und umgesetzt werden können. Diese werden daher in diesem Beitrag etwas näher betrachtet.

Von nichts gewusst?!


LesetippKeiner kann so tun, als hätte er von nichts gewusst, dennoch gehen deutsche Unternehmen die Umsetzung für die DSGVO offenbar nicht mit der erforderlichen Ernsthaftigkeit an. Mehr dazu in diesem Blogartikel: DSGVO umsetzen – Unternehmen sind nicht ausreichend vorbereitet

Anwendungspflicht für alle Unternehmen

Die Anwendungspflicht der DSGVO besteht seit dem 25. Mai 2018 und gilt für alle Unternehmen innerhalb der Europäischen Union (EU) und für alle internationalen Unternehmen, welche Daten von EU-Bürgern speichern oder verarbeiten. Die DSGVO definiert dabei einen einheitlichen Rechtsrahmen für den Datenschutz in der EU und innerhalb des Europäischen Wirtschaftsraums, also für den nicht öffentlichen Bereich. Das Ziel ist es, alle EU-Bürger vor Datenschutzverletzungen zu schützen. Betrachtet wird dabei die Verarbeitung personenbezogener, strukturierter oder unstrukturierter Daten, soweit diese im Rahmen von Aktivitäten in der EU durchgeführt werden und zwar unabhängig davon, ob die Verarbeitung in der EU erfolgt.

Beispiele für persönliche Daten sind Mitarbeiter- und Kundendaten oder auch Einzelinterviews bei Vorstellungsgesprächen. Diese Daten werden vornehmlich in der Personalabteilung, im Vertrieb, im Rechnungswesen oder in der IT-Abteilung eines Unternehmens verarbeitet. Die Verarbeitung erfolgt beispielsweise durch die Anwendungsverwaltung, Fakturierung, einem Newsletter-Versand oder Wartungstätigkeiten.

Durch die DSGVO sind auf jedes Unternehmen einige Pflichten zugekommen. Dazu gehören der Nachweis und die Rechenschaftspflicht (geregelt im §5 der DSGVO). Ebenso besteht eine Meldepflicht bei Verletzung eines Rechts gegenüber der zuständigen Datenschutzbehörde. Dazu gibt es verschiedene einzuhaltende Fristen: So muss die Erledigung von Auskunftsersuchen innerhalb eines Monats erfolgen (§12) und innerhalb von 72 Stunden muss bei Verletzungen gegen die Datenschutzbestimmungen reagiert werden (§33). Des Weiteren muss ein Datenschutzbeauftragter (§37) in größeren Unternehmen bestellt werden. Wichtig ist auch die Dokumentation. So muss eine Liste der Verarbeitungsaktivitäten, eine Risikobewertung und gegebenenfalls auch Datenschutz-Folgenabschätzungen dokumentiert werden.

Bei Nichteinhaltung drohen Geldbußen von bis zu 20 Mio. EUR oder im Falle eines Unternehmens bis zu 4 Prozent seines weltweiten Gesamtjahresumsatzes im vorangegangenen Geschäftsjahr (§83). In Ausnahmefällen kann auch ein Verbot der Verarbeitung personenbezogener Daten ausgesprochen werden (§58).

Integrierte DSGVO-Prozesse

DSGVO-Prozesse Es gibt einige wichtige unternehmensinterne DSGVO-Prozesse, wozu das Auskunftsrecht über die Verwendung personenbezogener Daten , das Recht auf Berichtigung, das Löschrecht, das Widerrufsrecht, das Recht auf Datenübertragbarkeit, das Widerspruchsrecht und das Beschwerderecht gehören. Ferner gibt es das Datenschutzverletzungsmanagement und die Datenschutzfolgenabschätzungen.

Verzeichnis der Verarbeitungstätigkeiten

DSGVO-Prozesse Zunächst schreibt die DSGVO vor, ein Verzeichnis über die ausgeführten Verarbeitungsvorgänge zu führen. Es gibt dabei zwei Arten von Verzeichnissen: Eines für interne Verarbeitungsvorgänge und eines für alle Verarbeitungsvorgänge, welche im Rahmen einer Auftragsdatenverarbeitung stattfinden. Dieses ist nur für Unternehmen erforderlich, welche Daten für andere Unternehmen verarbeiten. Das Anlegen eines internen Registers gilt nicht für Unternehmen mit weniger als 250 Mitarbeitern, es sei denn, die Verarbeitung ist aus Datenschutzsicht riskant oder die Verarbeitung findet nicht zufällig statt oder betrifft spezielle Kategorien personenbezogener Daten beziehungsweise krimineller Daten.

Datenschutz-Folgenabschätzung

DSGVO-Prozesse Für neue interne Verarbeitungsvorgänge kann eine Datenschutz-Folgenabschätzung erforderlich sein (§35), wenn die Verarbeitung zu einem hohen Risiko für die Rechte und Freiheiten von Personen führen kann. Insbesondere wenn eine systematische und umfassende Bewertung der persönlichen Daten einer Person, einschließlich Profilerstellung, vorliegt oder wenn eine Verarbeitung sensibler Daten beziehungsweise eine systematische Überwachung öffentlicher Bereiche in großem Umfang stattfindet. In diesen Fällen muss im Vorfeld einer Datenverarbeitung eine Gefährdung des Datenschutzes überprüft und Risiken identifiziert und dokumentiert werden. Die Beteiligten in diesem Prozess können die Verantwortlichen für den Verarbeitungsvorgang, der Datenschutzbeauftragte im Unternehmen, betroffene Personen oder deren Vertreter (z.B. Betriebsrat) und eventuell beratend auch die Datenschutzaufsichtsbehörde sein.

Software Unterstützung für wichtigste Prozesse

Für die Durchführung dieser Prozesse eignen sich professionelle Software-Systeme mit einer Prozessunterstützung. Ein Beispiel ist die auf einer Low-Code Entwicklungsumgebung basierende Lösung GDPR Compliance Manager. Diese beinhaltet für die zuvor genannten vier Bereiche jeweils die Unterstützung der wichtigsten Prozesse. Dabei liegen die jeweiligen Prozessmodelle auf Basis der weit verbreiteten Modellierungssprache BPMN 2.0 vor. Damit ist eine schnelle Einarbeitung gewährleistet. Da jedes Unternehmen eigene Anforderungen an seine Prozesse hat, ist es wichtig, dass die Prozesse und auch die dazugehörigen Formulare mit einfachen Mitteln angepasst werden können. Dazu stehen im GDPR Compliance Manager grafische Werkzeuge zur Prozessmodellierung und dem Formular-Design zur Verfügung. Des Weiteren können viele Parameter aus den Prozessen mit individuellen Werten belegt werden.

Professionelle Data Leakage Prevention Lösung gegen Datenverlust

DSGVO-Prozesse Neben der Datenschutz-Folgenabschätzung werden auch mögliche Datenschutzverletzungen im Rahmen der DSGVO behandelt. Eine solche Datenschutzverletzung kann auftreten, wenn beispielsweise unerlaubte Personen Zugang zu zweckgebundenen personenbezogenen Daten erhalten. Um einen solchen möglichen Datenverlust festzustellen, bietet sich der Einsatz einer professionellen Data Leakage Prevention-Lösung (DLP) an. Mit einer solchen Lösung kann beispielsweise festgestellt werden, wenn Mitarbeiter die zu schützenden Daten per E-Mail an externe E-Mail-Adressen versenden möchten. Die DLP-Software kann diesen Versand erkennen und verhindern, dass die E-Mail mit den vertraulichen Informationen versendet wird. Die DLP-Software kann zudem zusätzlich einen internen Untersuchungsprozess initiieren, sodass eine weitere Überprüfung erfolgt, ob das Versenden zu einer Datenpanne geführt hätte. Mit diesem Prozess kann versucht werden, im Vorfeld mögliche Datenpannen zu verhindern. Dies kann beispielsweise mit der Software iQ.Suite DLP Advanced in Kombination mit dem GDPR Compliance Manager der GBS realisiert werden. Entdeckt die iQ.Suite DLP eine verdächtige E-Mail, initiiert sie im GDPR Compliance Manager einen Untersuchungsprozess. Anschließend folgt eine automatische Weiterleitung zum Datenschutzbeauftragten, der die Überprüfung durchführen und die weitere Durchführung des Prozesses steuern kann. Durch dieses Zusammenspiel kann ein optimaler Schutz mit einer Prozessunterstützung, ohne einen zu hohen manuellen Aufwand, erreicht werden.

Für einen weiteren Überblick zur GDPR hat die GBS einen juristischen Überblick und wichtige Handlungsempfehlungen in einem kostenlosen Whitepaper veröffentlicht. Zudem findet einmal pro Monat ein Webinar zum Thema dieses Beitrags statt.

Weitergehende Informationen sind im Internet von vielen Herausgebern zu finden, beispielsweise eine Praxishilfe für die Anwendung der DSGVO im Gesundheitswesen oder einen Leitfaden der Bitkom.

Der Beitrag Sind DSGVO-Prozesse im Unternehmen integriert? erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

M2M – Wenn Maschinen miteinander kommunizieren

31. Oktober 2019 Posted by Denis Petkau

Moderne Kommunikationsformen mit REST API

Machine-to-Machine-Kommunikation rationalisiert Arbeitsabläufe und steigert die Produktivität

Die Kommunikation im beruflichen Alltag läuft immer häufiger über moderne Social Media-Systeme. Dazu gehören Instant Messaging, Chats, Mikroblogging mit Werkzeugen wie Skype for Business, IBM Sametime, Cisco Jabber, WhatsApp, Slack, Microsoft Teams und viele weitere. Neben diesen Kommunikationsformen zwischen Menschen, haben sich auch die Kommunikationsformen zwischen den Softwaresystemen gewandelt (Maschine-zu-Maschine Kommunikation). Lief dies in der Vergangenheit hauptsächlich über Webservices, so benutzen moderne Software-Systeme immer häufiger RESTful-Schnittstellen, um Daten zwischen Software-Systemen auszutauschen und Funktionalitäten in anderen Systemen anzustoßen. Ein Beispiel ist die Anzeige von Bildern anhand der Längen- und Breitengrad-Angaben auf Instagram.

Im technischen Bereich werden RESTful-Schnittstellen auch als „REST API“ bezeichnet. REST APis haben seit 2005 immer mehr an Bedeutung gegenüber anderen Varianten wie SOAP gewonnen, wie dies in einem Blogbeitrag von Guy Levin beschrieben ist.

Was ist REST API und wozu wird sie verwendet?

REST API bedeutet „Representational State Transfer“– „Application Programming Interface“.
Eine REST API kann man sich so ähnlich wie eine Webseite vorstellen. Von einem Nutzer „Client“ wird ein Aufruf „Call“ getätigt und die Webseite „Server“ gibt dem Nutzer anschließend eine Rückantwort. Die REST API wird also dafür gebraucht, um eine Kommunikation zwischen einem „Server“ und einem „Client“ zu ermöglichen. Besteht Bedarf, so können die Schritte einer REST API auch manuell nachgestellt werden. Eine REST API ist jedoch generell dazu ausgelegt, mehrere tausende Aufgaben der gleichen Art, z.B. den Versuch sich auf einer Seite einzuloggen, in sehr kurzer Zeit abzuarbeiten. Dementsprechend ist auch eine REST API effizienter als eine manuelle Vorgehensweise.

REST API Anhand des Bildes, soll nun der typische Aufbau und die Zusammensetzung eines typischen REST API-Aufrufs erklärt werden. Das Bild zeigt uns hierbei, wie ein solcher Aufruf aufgebaut ist. Zugegeben wirkt das Ganze für das ungeschulte Auge erst einmal suspekt. Der visuelle Aufbau kann sich von Schnittstelle zu Schnittstelle ändern, aber das Prinzip dahinter bleibt dasselbe.

Wichtige Parameter

Beim Aufbau eines REST API-Aufrufs wird zwischen bestimmten Parametern unterschieden. Die Parameter können Kopfdaten „Headers“, Rumpfdaten „Body“, Aufruftyp „POST oder GET“ oder Formatierungstypen „fullres oder minres“ sein.

Bei einem REST API-Aufruf wird je nach Aufruftyp unterschieden, welche Daten später zurückgeliefert werden. Mit einem „POST“ Aufruftyp möchte man bezwecken, dass auf dem Server, der über die URL angegeben wird, bestimmte Inhalte übertragen werden sollen. Das Bild zeigt z.B. einen Aufruf, der einen Server kontaktiert und sich versucht, sich auf ihm einzuloggen. Das kann daran erkannt werden, dass nach der URL-Angabe zum Server „https://server.gbs.com“ und der Angabe zur RESTful-Schnittstelle „/api/workflowmanager/“, die REST API-Methode „/common/login“ aufgerufen wird. In welchem Format die Daten zurückkommen, wird im „resultformat=“ Teil beschrieben.

Zusätzlich zu den oben beschriebenen Aspekten sollte noch beachtet werden, ob für den REST API-Aufruf bestimmte Kopfdaten benötigt werden. Häufiger werden bestimmte Kopfdaten benötigt, welche dann über die „Headers“ Sektion angegeben werden müssen. Wird z.B. mit einem „POST“ Aufruftyp versucht, eine andere Maschine zu kontaktieren, kann es notwendig sein, zusätzliche Informationen im Rumpf „Body“ anzugeben. Hier wird versucht, sich auf einem Server einzuloggen. Das Einloggen erfordert Benutzerdaten, um den Benutzer verifizieren zu können. Dies trifft sowohl beim manuellen Einloggen als auch beim Einloggen über einen REST API-Aufruf zu. Deswegen werden im Rumpf zusätzliche Informationen wie der Benutzername und das Benutzerkennwort benötigt. Je nachdem wie die RESTful-Schnittstelle des Servers eingestellt ist, könnten weitere Informationen benötigt werden.

Zusammengefasst braucht ein REST API-Aufruf also einen Aufruftyp (POST, GET, PUT, PATCH), eine Zieladresse (URL mit bestimmten Parametern) und bestimmte Informationen, die in Kopf- („Headers“) und Rumpfdaten („Body“) unterteilt sind.

Swagger

Genauso wie sich die Kommunikation zwischen Menschen verändert hat, so hat sich diese auch zwischen Maschinen verändert. Für die zwischenmenschliche Kommunikation sind mit der Zeit Werkzeuge dazugekommen, durch deren Hilfe es möglich ist, auf größere Distanzen mit anderen Menschen in Kontakt zu bleiben. Swagger ist ein ebenso hilfreiches Werkzeug, welches der Kommunikation zwischen Maschinen und Menschen dient. Swagger lässt sich in einer Webseite einpflegen und besitzt eine relativ einfache Oberfläche, die es dem Anwender der REST API-Methoden ermöglicht, diese schnell und einfach zu verwenden. Die URLs zu Swagger variieren von Unternehmen zu Unternehmen. Ein Beispiel einer möglichen URL zu Swagger kann wie folgt aussehen: „href=“https://server.gbs.com/api/workflowmanager/“

Popularität, Erweiterungsmöglichkeit, Dokumentierbarkeit und die einfache Handhabung von Swagger optimiert die Verwendung im Alltag bei der Entwicklung von Schnittstellen zwischen Software-Systemen. Durch die einfache Struktur und die meist gut dokumentierten REST API-Methoden, ermöglicht Swagger Anwendern mit geringen bis gar keinen Erfahrungen in der Programmierung, erfolgreich einen REST API-Aufruf zu verwenden.

Diana Maltseva, eine Bloggerin aus Minsk, schreibt in ihrem Blogbeitrag, dass die Benutzung von Swagger der beste Weg sei, Entwicklungen und wertvolle Informationen mit anderen Softwareentwicklern zu teilen.

Auch aus einer Statistik in der Präsentation der Swagger-Entwickler geht hervor, dass Swagger gegenüber anderen Hilfswerkzeugen mehr Ansehen genießt. Die Präsentation kann hier angesehen werden.

Swagger in GBS-Lösungen integriert

REST API Bei GBS nutzen wir Swagger und haben es in unseren Produkten wie die iQ.Suite, GBS Workflow Manager oder dem GBS Retirement Manager eingebunden. Dort können schnell neue REST API-Methoden hinzugefügt, dokumentiert oder genutzt werden. Durch die oben bereits erwähnte Oberfläche, lässt es sich leicht durch die einzelnen Abschnitte navigieren und bei Bedarf auch schnell bestimmte REST API-Methoden ausführen. Durch die gute Struktur und der Möglichkeit Swagger an die eigenen Bedürfnisse anzupassen, kann sich Swagger bestens in die GBS-Produkte integrieren lassen. Das Aussehen der Oberfläche sieht beim GBS Workflow Manager aus, wie im linken Bild veranschaulicht ist.

REST API Sollen REST API-Methoden über Swagger getestet werden, so sollte sich auf die Swagger-Webseite eingewählt und anschließend die gewünschten Methoden aufgeklappt werden. Zum Testen werden bestimmte Informationen in den einzelnen REST API-Methoden benötigt, die aber auch in Swagger angezeigt werden. Das Aussehen einer aufgeklappten REST API-Methode kann beispielhaft dem beistehenden Bild entnommen werden.

REST API Um die Methode zu testen, sollten die oben geforderten Informationen übergeben und anschließend auf den unten stehenden Knopf „try it out!“ geklickt werden. Wurde der Knopf gedrückt, so wird sofort eine Statusmeldung angezeigt, ob die Methode erfolgreich ausgeführt werden konnte oder nicht. Außerdem kann eine Legende der einzelnen Statuscodes angezeigt werden, dies hängt jedoch davon ab wie die Oberfläche von Swagger angepasst wurde. Bei einer Methode des GBS Workflow Manager kann dies so wie in nebenstehender Abbildung aussehen.


Übersicht über Prozessinstanzen

REST API Als Anwendungsfall kann z.B. eine Excel-Tabelle fungieren, mit der Daten aus dem GBS Workflow Manager geholt und mit den Excel-typischen Funktionen als Pivot-Tabelle oder Diagramm veranschaulicht werden können.

Damit der Anwender keine programmatischen Änderungen vornehmen muss, bietet es sich an, in der Excel-Tabelle einen Konfigurationsbereich zu integrieren. In diesem Anwendungsfall (Dashboard) sollen Daten aus bestehenden Systemen, z.B. einem Cloud-System abgeholt werden. Hierfür werden vom Dashboard bestimmte Informationen benötigt, welche in einem Konfigurationsbereich eingetragen werden. In der beistehenden Abbildung wird der Konfigurationsbereich gezeigt, der in zwei Abschnitte unterteilt ist. Der rechte Abschnitt besteht aus mehreren Zeilen, die bestimmte Informationen verlangen. Wurden alle Informationen übergeben, so kann im linken Abschnitt des Konfigurationsbereichs durch den Knopf „Importiere Daten“ der REST API Aufruf gestartet werden.

Wird der REST API-Aufruf gestartet, überprüft dieser zuerst, ob alle benötigten Informationen übergeben wurden. Fehlt eine der Informationen, wird der Anwender dazu aufgefordert diese nachzutragen. Sind bestimmte Informationen, wie beispielsweise die URL fehlerhaft, so kommt es zu einer Fehlermeldung, die anschließend dem Anwender angezeigt wird.

Die geholten Daten werden unterhalb des Abschnitts „Daten“ spezifiziert. Um diese passend einzustellen, wird jedoch Erfahrung in der Programmierung oder Hintergrundwissen benötigt, weswegen dies genauer in einem GBS Knowledge Base-Beitrag zum Thema erklärt wird.

Wurden alle Einstellungen getroffen und der REST API-Aufruf ausgeführt, werden als Resultat die gewünschten Daten unterhalb des Bereichs „Daten“ eingetragen. Falls es vom Anwender gewünscht ist, können diese Daten nun in Pivot-Tabellen und -Diagrammen visualisiert werden. Die Diagramme können in den Pivot-Tabellen nach bestimmten Kriterien gefiltert werden, um bestimmte Sachverhalte abzubilden. Nach einmaligem Ausführen des REST API-Aufrufs, werden die Daten aus den Pivot-Tabellen und -Diagrammen automatisch aktuell gehalten.

Alle Informationen auf einen Blick

REST API In der Abbildung ist eine mögliche Visualisierung zu sehen.

Man erhält mit einem Blick alle Informationen grafisch visualisiert angezeigt. Durch die Visualisierung in Microsoft Excel wird auch gewährleistet, dass die Diagramme schnell in Präsentationen eingefügt werden können und damit eine aussagekräftige Übersicht ihre Präsentation unterstützt. Unternehmen, die sich z.B. mit Kalkulationen beschäftigen, können mit solch einer Excel-Tabelle mit Leichtigkeit bestimmte Posten einer Kalkulation herausholen und anschließend als Grafik darstellen.

Unternehmen oder Abteilungen, die prozessorientiert am selben Dokument arbeiten, können so z.B. durch die Angabe eines Status eine einfache grafische Übersicht erhalten, die anzeigt, welche Dokumente sich in welchem Status befinden und wie viele Dokumente einen bestimmten Status besitzen.

Fazit

Zusammenfassend lässt sich also sagen, dass die Verwendung einer RESTful-Schnittstelle mithilfe von Swagger eine gute Lösung für verschiedenste prozessorientierte Verarbeitungen darstellt. Auf dieser Basis kann der Anwender relativ schnell und einfach eine grafische und aussagekräftige Lösung erstellen.

Der Beitrag M2M – Wenn Maschinen miteinander kommunizieren erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Oracles Ankündigung: Ab Java 11 ändern sich Release-Zyklen, Support- und Lizenzmodelle

7. Februar 2019 Posted by Dr. Rolf Kremer

Was kommt auf Java-Anwender zu?

Oracle Java Die Java-Technologie mit der Programmiersprache Java erfreut sich seit sehr vielen Jahren großer Beliebtheit. Viele im produktiven Einsatz befindlichen Software-Systeme wurden mit einer Java Entwicklungsumgebung (Java Development Kit, JDK) entwickelt und werden auf einer Java Laufzeitumgebung (Java Runtime Environment, JRE) ausgeführt. Java wurde ursprünglich von Sun Microsystems entwickelt. Seit dem Verkauf von Sun Microsystems an Oracle im Jahr 2010 wird die Java Technologie von Oracle weiterentwickelt. Im Juni 2018 kündigte Oracle an, dass die Updates zu den Java-Versionen nach einer kurzen kostenlosen Supportzeit nur noch mit einem kostenpflichtigen Support für die kommerzielle Nutzung erhältlich sind. Lesen Sie hier Oracles Ankündigung. Damit einher geht auch eine Änderung des Releasezyklus von Java.

Oracle Java Durch die bisherigen langjährigen Release- und Supportzyklen konnten die mit Java entwickelten Anwendungen für eine bestimmte Java-Version entwickelt und lange Zeit mit der gleichen Java-Version betrieben werden. Dieses Vorgehen ersparte viel Aufwand, da eine Anpassung auf eine neue Version oftmals nicht erforderlich war. Die neueren kürzeren Release- und Supportzyklen erlauben dieses Vorgehen nicht mehr. Wie von anderen Anwendungen bekannt, beispielsweise den Web-Browsern (wie Firefox oder Google Chrome), sollen neue Java-Versionen nun innerhalb von sechs Monaten veröffentlicht werden. Der Support der Versionen wird auf sechs Monate beschränkt. Ausgenommen davon sind die sogenannten Long Term Support-Versionen (LTS-Versionen), bei denen der Support weiterhin für mehrere Jahre übernommen wird. Die Version 8 ist eine solche LTS-Version. Kostenlose Updates für kommerzielle Anwender waren  jedoch nur bis Ende Januar 2019 verfügbar. Ab der Version 9 sind Updates nur noch bis zum Release der Nachfolgeversion erhältlich. Die nachfolgende LTS-Version ist die Version 11. Die von Oracle bereitgestellten JDK- und JRE-Versionen sind ab Java 11 kostenfrei nur noch in Entwicklungs- und Testumgebungen nutzbar. Für die Nutzung der JRE in einer produktiven Umgebung ist der Abschluss eines kommerziellen Support-Vertrags bei Oracle notwendig.

Update-Strategien

Oracle Java Ein Hauptvorteil des schnelleren Release-Zyklus ist auch die schnellere Bereitstellung neuer Funktionen. Dieser Vorteil ist für die Java-Anwender gültig. Daneben hat Oracle selbst einen Vorteil, denn der Support muss nicht mehrere Versionen parallel anbieten. Wird Java zum Betrieb einer Anwendung verwendet, sollte frühzeitig eingeplant werden, wie und wann eine Umstellung auf eine neuere Java-Version durchgeführt wird. Strategien können sein:

  • Die erste Strategie ist, alle sechs Monate auf die jeweils neueste Java-Version umzusteigen. Dies hat den Vorteil, dass dadurch alle neuen Funktionen und Sicherheitsupdates genutzt werden können. Zudem ist der Aufwand für ein Updates von einer Version zur direkt nächsten Version oftmals geringer, als wenn ein oder mehrere Versionen ausgelassen werden. Ferner ist so sichergestellt, dass alle veröffentlichten Bugfixes und Sicherheitsupdates auch ohne kommerziellen Support-Vertrag erhalten werden. Nachteilig wirkt sich jedoch der regelmäßige Aufwand aus, insbesondere bei der Qualitätssicherung, um sicherzustellen, dass die Anwendung auch mit der neuesten Java-Version fehlerfrei funktioniert.
  • Eine zweite Strategie ist die Aktualisierung von einer LTS-Version zur nächsten. Dies hat den Vorteil, dass eine Anwendung relativ viele Jahre mit einer einzigen Version betrieben werden kann. Um Sicherheitsupdates zu erhalten, ist jedoch der Erwerb eines kommerziellen Supports notwendig. Zudem kann der Migrations-Aufwand von einer LTS-Version zur nächsten höher ausfallen, als wenn immer auf die direkt nächste Version gewechselt wird.
  • Eine dritte Strategie ist, unabhängig von den Java-Versionszyklus zu bleiben. Es wird nur dann ein Update durchgeführt, wenn dieses erforderlich ist. Dies kann der Fall sein, wenn neue Java-Funktionalitäten verwendet werden sollen oder abhängige Systemkomponenten aktualisiert werden müssen und diese eine neuere Java-Version voraussetzen. Bei der Verwendung der Oracle JRE/JDK-Version muss in diesem Fall auf Updates oder Bugfixes verzichtet werden, falls kein kommerzieller Support-Vertrag existiert.

Subskriptions

Oracle Java Oracle bietet zwei Subskriptions an, die sich bezüglich der Art der Anwendung unterscheiden lassen:

  • Beim „Java SE Subscription“-Modell erfolgt die Abrechnung pro Prozessor und ist deshalb für Java-Anwendungen konzipiert, welches auf einem Server eingesetzt werden.
  • Falls noch Java-Client-Anwendungen eingesetzt werden, kann das „Java SE Desktop Subscription“-Modell verwendet werden, bei dem die Lizensierung pro Anwender erfolgt.

Zu berücksichtigen ist, dass es neben Oracle noch andere (große) Softwareanbieter gibt, die Java unter einer eigenen Lizenz anbieten, da sie spezielle Abkommen mit Oracle haben. So weist IBM daraufhin, dass für die Nutzung von Java in ihren eigenen Produkten, wie IBM Notes und IBM Domino, eigene Lizenzbestellungen gelten. Aus diesem Grund können IBM Notes und IBM Domino weiter betrieben werden, ohne dass die Änderung von Oracle eine Auswirkung hat. Ebenfalls sollte berücksichtigt werden, dass es neben Oracle noch andere Unternehmen gibt, die einen kostenpflichtigen Support von Java anbieten.

OpenJDK

Oracle Java Neben diesen beiden Versionen stellt Oracle eine Community-Version namens OpenJDK kostenlos zur Verfügung, welche sich auch in einer produktiven Umgebung kostenlos nutzen lässt. Das OpenJDK enthält alle Bestandteile des Oracle JDKs, um eine Laufzeitumgebung für Java bereitzustellen. Deshalb wird das OpenJDK in vielen anderen Open Source-Projekten wie beispielsweise Linux verwendet. Die Releases vom OpenJDK stehen kostenlos zum Download parat.

Beim Support hat das OpenJDK den Vorteil, dass der kostenlose Support für LTE-Versionen länger verfügbar ist als der von Oracle. Beispielsweise wird der Support beim OpenJDK für die Version 11 bis Ende September 2022 angeboten. Oracle bietet für ihre JDK-/JRE-Versionen lediglich einen kostenpflichtigen Support bis September 2026 an. Weitere Informationen zu den geplanten Releases und deren Support sind auf der Webseite von OpenJDK zu finden.
Neben Oracle gibt es jedoch auch andere Anbieter, welche ebenfalls eine Java-Laufzeitumgebung zur Verfügung stellen. Diese Produkte basieren meistens ebenso auf dem OpenJDK. Auch gibt es weitere Unternehmen, die einen kostenpflichtigen Support für Java anbieten.

GBS-Produkte

Die GBS verwendet Java schon seit sehr vielen Jahren als eine der Hauptprogrammiersprachen für die eigen-entwickelten Produkte. Hierzu gehören die E-Mail-Security-Lösung iQ.Suite CryptPro und Teile der Workflow-Management-Lösung GBS Workflow Manager. Diese Produkte werden wir in Zukunft auch auf die Lauffähigkeit unter dem OpenJDK überprüfen.

Bei Fragen wenden Sie sich bitte an unseren Support.

Der Beitrag Oracles Ankündigung: Ab Java 11 ändern sich Release-Zyklen, Support- und Lizenzmodelle erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Domino V10 ist da – flexibler und moderner

17. Januar 2019 Posted by Dr. Rolf Kremer

Langersehnte Domino-Version

Mit Spannung erwartet: Erwartung erfüllt!

Im Herbst 2018 fanden in der Domino-Welt zwei Veränderungen statt. Zum einen wurde Anfang Oktober erstmals seit fünf Jahren wieder ein Major-Release von Domino veröffentlicht. Diese langersehnte Version 10 wurde mit Spannung erwartet, da es auch die erste Version war, die von der neuen Entwicklungsmannschaft von HCL entwickelt wurde. IBM hatte im Jahr 2017 die gesamte Verantwortung für die Domino-Entwicklung und den -Support an HCL übertragen.

IBM Domino V10 verfügbar Die zweite Neuerung war Anfang Dezember die Ankündigung, dass IBM einen Großteil ihrer Software-Kollaborationssparte an HCL veräußern wird. Dazu gehören die Produkte Connections, Verse und auch Domino, welches IBM vor über 20 Jahren von der damaligen Lotus Software Corporation übernommen hatte.
Auch wenn aufgrund der fehlenden Investitionen von Seiten des Herstellers, die Anzahl an Installationen des Notes Client und des Domino-Servers in den letzten Jahren immer weiter zurückgingen, gibt es immer noch eine Vielzahl an Unternehmen, bei denen viele – teilweise auch geschäftskritische – Anwendungen auf der Domino-Plattform laufen.

Forrester-Studie konstatiert Einsparungen

IBM Domino V10 verfügbar Dass der Einsatz von Domino immer noch einen Mehrwert für ein Unternehmen haben kann, ist ein Ergebnis einer aktuellen Studie von Forrester aus dem Jahr 2019, welche allerdings auch von IBM in Auftrag gegeben wurde. Darin bescheinigt Forrester, dass der Einsatz von Domino zu Einsparungen an Software-Lizenzkosten gegenüber der Verwendung von alternativen Produkten führen kann.

Ebenfalls kann der Einsatz von Domino zu Einsparungen bei Infrastruktur- und Mitarbeiterkosten führen, da mit Domino Geschäftsprozesse kostengünstiger als mit anderen Plattformen umgesetzt werden können und auch die Ressourcen-Anforderungen an einen Domino-Server im Vergleich zu alternativen Systemen günstiger sein können.

Details zur Version 10

In der neuen Version 10 wurden Erweiterungen unter anderem für die E-Mail-, Kalender- und Workspace-Funktionalitäten vorgenommen:

  • So kann nun zu jeder E-Mail eine Auslieferungszeit definiert werden, sofern sich das Empfänger-E-Mail-Konto auf einem Domino-Server in der Version 10 befindet. Dies kann bei der täglichen Arbeit den Vorteil haben, dass beispielsweise am Freitagnachmittag fertig gestellte Unterlagen erst am Montagmorgen beim Empfänger zugestellt werden. Dadurch wird der Empfänger nicht unnötig am Wochenende mit Arbeitsaufgaben belastet. Diese zeitgesteuerte E-Mail-Auslieferung funktioniert auch, wenn der E-Mail-Client beim Versender nicht zur Auslieferungszeit läuft.
  • Ferner können E-Mails nun als Anhang weitergeleitet werden und es können mehrere E-Mail-Signaturen angelegt werden. Dazu kann eine Standard-Signatur definiert werden und die anderen Signaturen können je nach Bedarf durch eine manuelle Aktion zu einer E-Mail hinzugefügt werden. Desweiteren versucht der E-Mail-Router nun periodisch eine E-Mail an einen Empfänger zu transferieren, wenn das Versenden einer E-Mail aufgrund eines Infrastruktur-Problems gescheitert war. Dazu kann der Administrator die Anzahl der Versuche des Routers konfigurieren.
  • Im Bereich des Kalenders können erhaltene Einladungen zu Besprechungen nun auch an andere Personen weitergeleitet werden ohne den Besprechungs-Eigentümer einzuschalten. Dieser kann diese zusätzlichen Einladungen jedoch zuvor verbieten.
  • Weitere Verbesserungen hinsichtlich der Benutzerfreundlichkeit betreffen die Volltextsuche, bei der die Indizierung der Dateianhänge optimiert wurde. Zudem wird der Index nun automatisch neu erstellt, nachdem eine Datenbank korrupt gegangen ist.
  • Auch das Erscheinungsbild des Notes Clients wurde optimiert. So kann ein Farbschema oder für bestimmte Komponenten eine individuelle Farbe definiert werden. Desweiteren kann ein individuelles Hintergrundbild für den Workspace definiert werden.
  • In den vergangenen Versionen gab es keine ausreichende Unterstützung von mobilen Geräten. Das soll mit den IBM Domino Mobile Apps geändert werden. Diese stellen einen Notes Client bereit, mit dem alle Domino-Anwendungen unverändert auf einem Apple iPad genutzt werden können. Ein paar Ausnahmen gibt es, wie beispielsweise Erweiterungen, die in Java programmiert sind, da Java auf einem iOS-Betriebssystem generell nicht zur Verfügung steht. Hier existiert eine Q&A-Seite. Die IBM Domino Mobile Apps sind zurzeit in einer Beta-Version verfügbar. Zur Teilnahme an dem Beta-Programm hat IBM eine Registrierungsseite eingerichtet.
  • Neben den genannten Erweiterungen gibt es auch eine neue ODS-Version. Diese unterstützt nun Datenbanken bis zu einer maximalen Dateigröße von 256 GByte gegenüber der bisherigen Beschränkung auf 64 GByte. Daneben können Folder-Namen nun 50-mal so lang sein wie zuvor und Feldnamen können eine Länge von 32 Bytes pro Namen haben.
  • Weitere wesentliche Neuerungen in der neuen Version sind für die Entwicklung von Anwendungen hinzugefügt worden. Setzte IBM bisher auf die selbst entwickelte XPages-Technologie werden durch HCL nun etablierte Tools bei der Web-Entwicklung wie Node.js oder React unterstützt. Mit dem neuen Node.js-Modul können eine Vielzahl an Operationen auf Dokumenten durchgeführt werden, welche sich in einer Datenbank auf einem Domino Server befinden. Die Domino Datenbank verhält sich bei Node.js wie eine NoSQL-Datenbank. Dazu steht als zusätzliche Erweiterung ein Domino AppDev Package zur Verfügung.
  • Dieses enthält zudem eine Server-Komponente namens Proton. Mit Proton können Remote Anfragen von Anwendungen vorgenommen werden, die auf Dokumente in einer auf einem Domino-Server befindlichen Datenbank ausgeführt werden. Mit Hilfe eines neuen Identity- und Access Management-Services können auf Basis von OAuth 2.0 andere Systeme, auf die auf einen Domino Server befindlichen Ressourcen sicher zugreifen.
  • Weiterhin wurde dem Domino AppDev Package mit der Domino Query Language, eine an SQL angelehnte, Sprache zur Verfügung gestellt. Mit dieser Sprache können große Dokumentenbestände schnell abgefragt werden. Das Domino AppDev Package wurde in der Version 1.0 vor kurzem veröffentlicht.
  • Auf Infrastruktur-Ebene sind ebenfalls Änderungen vorgenommen worden. So unterstützt Domino 10 nun die Linux Distribution CentOS, womit Docker Container erstellt werden können. Damit ergeben sich wesentliche Verbesserungen in einer einfacheren Bereitstellung von Domino-Servern. Aktuell stellt IBM jedoch noch kein vorkonfiguriertes Docker-Image von Domino 10 zur Verfügung.

#dominoforever

IBM Domino V10 verfügbar Wie zuvor erwähnt haben IBM/HCL einige Beta-Programme aufgelegt, um die Kunden frühzeitig in die Entwicklung einzubinden. So hatte die GBS im Sommer an dem Beta-Programm für Domino 10 teilgenommen. Dadurch konnten wir unsere Produkte bereits frühzeitig auf dem neuen System testen und die neuen Funktionserweiterungen auswerten, inwiefern diese Auswirkungen auf die Funktionalität der GBS Produkte haben.

Ideenforum und Webinare

IBM Domino V10 verfügbar Für alle, die sich an der Weiterentwicklung von Domino beteiligen möchten, wurde vom IBM & HCL Produktmanagement- und Entwicklungsteam zusätzlich ein Ideenforum einrichtet. Desweiteren gibt es neue Webinare unter dem Namen „Domino Tech School“. In den Social Media-Plattformen hat sich ferner das Hashtag #dominoforever für Themen rund um die Domino-Weiterentwicklung etabliert.

GBS unterstützt weiterhin Domino

Die GBS – langjähriger ISV für Domino-Lösungen – unterstützt mit ihren Lösungen auch Domino V10. Die GBS-Lösungen für die Domino-Plattform wurden nach dem Release 10 von Domino bei IBM zertifiziert. Auch in diesem Jahr stehen wieder umfangreiche Erweiterungen bei den GBS-Produkten für die Domino-Plattform auf den jeweiligen Produkt-Roadmaps an. Zu diesen GBS-Produkten gehören neben der E-Mail-Security-Lösung iQ.Suite auch die Workflow-Management-Lösung GBS Workflow Manager und die Migrationslösung GBS Retirement Manager Und sicherlich werden wir auch das bereits für dieses Jahr angekündigte Release 11 von Domino frühzeitig betrachten, um die Lauffähigkeit unserer Produkte entsprechend zu überprüfen.


Weitere Infos zum GBS Badge Profil

Der Beitrag Domino V10 ist da – flexibler und moderner erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

IT-Sicherheit im Mittelstand ist unzureichend

2. August 2018 Posted by Diana Jensen

VdS-Studie liefert Schwachstellen zu Tage

Ergebnisse sind ernüchternd

Rund 3,7 Millionen kleine und mittelständische Unternehmen (KMU) gibt es in Deutschland. Viele von ihnen sind hoch innovativ und in ihren Branchen Marktführer. Nicht umsonst propagiert die Deutsche Bundesregierung sie als „Rückgrat der Deutschen Wirtschaft“. Ihr Erfolg begründet sich einerseits aus hervorragenden Produkten und Dienstleistungen. Aber nicht nur. Denn um heute im internationalen Wettbewerb bestehen und Geschäftsprozesse bewältigen zu können, ist auch die Nutzung moderner IT-Infrastruktur sowie der Anschluss an das Internet notwendig.

Vernetzung: Chance und Risiko

IT-Sicherheit im Mittelstand Die rasant zunehmende Digitalisierung hilft KMU schneller, effizienter und damit erfolgreich und konkurrenzfähig zu agieren. Dieselbe Technologie wird aber zur Herausforderung, wenn es um deren Sicherheit geht. Denn in dieser neuen, digitalen Arbeitswelt wächst auch die Angriffsfläche für Cyber-Kriminelle. Mit gefälschten E-Mails, Ransomware Attacken, DoS-/DDoS-Angriffen, Botnets oder Schadcode gehen Cyberkriminelle deshalb auch im Mittelstand auf Beutezug. Abgesehen haben sie es auf personenbezogene Daten, Geld und Know-how aus den Unternehmen. Und sind Kundendaten, Daten zu Patenten und Innovationen oder Source Code erst einmal weg, steht der Unternehmens- oder Produktionsbetrieb häufig still. Das wissen auch Hacker – und finden so im Mittelstand ein lukratives „Betätigungsfeld“.

Schadenfreude und finanzielle Forderungen

Die Motive der Hacker sind dabei grundverschieden: Während die einen aus Schadenfreude oder zu Spionagezwecken (politisch oder wirtschaftlich motiviert) handeln, geht es anderen nur darum „zu zeigen, was sie können“ oder bei Unternehmen oder Organisationen einen Imageschaden zu verursachen. Und wieder anderen geht es einfach nur um Geld. Denn dass dieses nicht mehr nur bei Großkonzernen zu holen ist, hat sich längst auch unter Cyber-Kriminellen herumgesprochen. Immerhin erwirtschaften KMU mehr als jeden zweiten Euro und stellen deutlich über die Hälfte aller Arbeitsplätze in Deutschland. Damit tragen sie deutlich zur Wirtschaftskraft bei.

Schäden von 55 Milliarden Euro

IT-Sicherheit im Mittelstand Doch nicht immer kommen Angriffe nur von außen: Im digitalen Arbeitsalltag werden tausende E-Mails von Mitarbeitern ungeprüft von A nach B geleitet oder USB-Sticks für den Transport von Daten genutzt. Wir wollen gar nicht wissen, wie hoch die Dunkelziffer verschwundener und fehlgeleiteter Daten aufgrund solcher Sicherheitslücken ist.

Hinzu kommt, dass Cyber-Attacken nicht immer sofort entdeckt werden. Das Bundesamt für Verfassungsschutz machte erst im vergangenen Jahr darauf aufmerksam, dass Angriffe auf die IT häufig erst mit einer Verzögerung von sechs Monaten bis zu einem Dreivierteljahr von Firmen entdeckt werden. Einer Schätzung des IT-Branchenverbands Bitkom zufolge liegt der jährliche Schaden durch Cyberattacken in Deutschland bei 55 Milliarden Euro.

IT-Sicherheit bei KMU umfangreich analysiert

Vor diesem Hintergrund hat die VdS, eine der weltweit renommiertesten Institute für Unternehmenssicherheit, eine Studie zur Informationssicherheit im Mittelstand aufgesetzt. Dazu hat das Institut die Angaben von 3000 Unternehmen aus ihrem „Web-Quick-Check“ zur schnellen Ermittlung des individuellen digitalen Schutzgrades ausgewertet. Das Ergebnis ist eine der deutschlandweit umfangreichsten Analysen zum Thema IT-Sicherheit, welches wir Ihnen im heutigen Blogbeitrag vorstellen möchten. Die gesamte Studie sehen Sie hier.

IT-Sicherheit im Mittelstand: Ernüchterung auf breiter Flur

IT-Sicherheit im Mittelstand Das Endergebnis ist ernüchternd: KMU sind hierzulande immer noch unzureichend gegen Cyber-Angriffe abgesichert. Den größten Verbesserungsbedarf gibt es beim „Management der IT-Sicherheit“. Nur 32 % sind hier gut aufgestellt. Vor allem Themen wie Cloud Computing und IT-Outsourcing werden nur unzureichend bearbeitet. Gerade hier aber könnten Mittelständler durch einfachste Optimierungsmaßnahmen eine hohe Schutzwirkung erzielen.

Auf Rot stehen die Zeichen auch in Sachen Sicherheitstechnik und Präventionsmaßnahmen, wenngleich der Nachholbedarf hier nicht ganz so groß ausfällt. Beide Bereiche sind zwar mit immerhin 57 % abgedeckt; dennoch bedeutet dieses Ergebnis auch, dass 43 % der KMU hier schlecht aufgestellt sind. Damit sind die Schutzmaßnahmen von KMU für Netzwerke, Software und Mobilen Geräten immer noch unzureichend. Ähnlich schlecht sieht es demzufolge auch bei Präventionsmaßnahmen wie Daten- und Umgebungssicherung oder Wiederanlaufpläne aus.

Mobile Geräte sind schlecht abgesichert

IT-Sicherheit im Mittelstand Schauen wir uns den Bereich Technik mal genauer an: Die erste alarmierende Erkenntnis kommt beim Blick auf die Absicherung mobiler Geräte: Gerade einmal 59 % der Firmen schützen die Daten auf ihren mobilen Geräten zuverlässig vor unberechtigten Zugriffen. Das ist zwar im Vergleich zu 2017 (57%) eine leichte Steigerung – aber immer noch zwei Prozentpunkte weniger als 2016, dem Jahr, in dem die Verschlüsselungstrojaner Locky, TeslaCrypt und Cryptowall ihr Unwesen trieben. Nun ist es in den letzten Monaten in Sachen großangelegter Cyber-Attacken verhältnismäßig ruhig geblieben – wiegen sich Unternehmen hier vielleicht in falscher Sicherheit? Denn gerade das mobile Arbeiten mit Smartphone, Tablet, Laptop und Co. öffnet Tür und Tor für Cyber-Attacken: Sie werden aufgrund der mobilen Zugriffsmöglichkeiten auf das Unternehmensnetzwerk und damit auf sensible Daten gern und viel von Angestellten genutzt und sind damit interessante Angriffsziele.

Technische Sicherheitsmaßnahmen nicht konsequent genug umgesetzt

Große Unterschiede gibt es bei den einzelnen Maßnahmen. Während 88 % der Mittelständler ihren Internetzugriff absichern und immerhin auch 86 % öffentlichen und drahtlosen Netzen nur verschlüsselt Zugriff auf ihre interne IT-Infrastruktur gewähren, führen nur 27 % der Firmen für ihre besonders relevanten IT-Netzwerke regelmäßige Risikoanalysen durch. Das ist angesichts der ständig weiterentwickelten neue Angriffsmethoden und -programme ein problematisches Ergebnis. Auch dass offenbar immer noch 12 % der Mittelständler keine Schutzmaßnahmen gegen Bedrohungen aus dem Internet umgesetzt haben, stimmt bedenklich – zumal heutzutage selbst für jeden Privatnutzer mindestens einen Basisschutz auf Firewall und Anti-Virensoftware selbstverständlich ist.

Prävention: Datensicherung top, im Ernstfall flop

IT-Sicherheit im Mittelstand Es gibt auch gute Neuigkeiten: Sicherungsmaßnahmen gegen Datenverlust werden von 96 % der KMU gut oder sehr gut umgesetzt. Das ist in dieser Größenordnung das beste Ergebnis der gesamten Studie. Das Motto vieler IT-Experten „Kein Backup = kein Mitleid“ scheint sich also herumgesprochen zu haben. Und immerhin noch gute 86 % der KMU schützen auch ihre Server vor physischen Attacken.

Was allerdings im Falle einer Cyber-Attacke zu tun ist, welche internen und externen Stellen informiert werden müssen, darüber scheint weitgehend Ratlosigkeit unter KMU zu herrschen: Nur 41 % der Unternehmen haben überhaupt Vorgaben zum Umgang mit Sicherheitsvorfällen oder gar Anlaufpläne für kritische Systeme im Falle eines Hacks. Besonders unzureichend sind Vorkehrungen wie eine Risikoanalyse für IT-Systeme – die führen nur 28 % der teilnehmenden Unternehmen durch. Und gerade einmal 24 % der KMU haben verbindlich definiert, was überhaupt als „IT-Sicherheitsvorfall“ zu verstehen ist. Trotz genauester gesetzlicher Vorgaben darüber, was im Ernstfall zu tun ist, sind die Zahlen im Vergleich zu 2017 damit gleich geblieben und zu 2016 sogar leicht rückläufig: In 2017/2016 verfügten 41% bzw. 38 % der KMU über Vorgaben für Sicherheitsvorfälle und 42% bzw. 46 % über Wiederanlaufpläne.

KMU brauchen strukturiertere Zugangsvergabe

Auch hier die gute Nachricht zuerst: Die Vergabe von Zugriffsrechten, beispielsweise Lesen, Schreiben und Ausführen, auf IT-Anwendungen und Daten an Personen oder Personengruppen ist offenbar geregelt und die Verwaltung von Zugängen zu IT-Systemen klappt bei deutschen KMU: 84 % behalten administrativen Zugriff ausschließlich den Administratoren vor (2017: 83 %, 2016: 81 %), 82 % gewähren Zugänge zum jeweiligen Netzwerk nur dann, wenn sie für die Aufgabenerfüllung notwendig sind (2017: 78 %, 2016: 80 %). Dass dann allerdings nur 49 % der Unternehmen diese Zugänge nach einem festgelegten Turnus auf ihre weitere Notwendigkeit prüfen, relativiert die ganze Sache schon wieder. Denken Sie einfach nur einmal daran, wie rasch sich Zuständigkeiten ändern oder Mitarbeiter aus Unternehmen ausscheiden und Sie verstehen die Problematik. Dabei ist die strukturierte Zugangsvergabe ein kleiner Schritt mit großer Wirkung für die Unternehmenssicherheit, denn sie blockt etliche Möglichkeiten, einem Betrieb und seinen Angestellten Schaden zuzufügen.

Privatnutzung von Endgeräten besser regeln

IT-Sicherheit im Mittelstand Egal ob Firmencomputer, das zur Verfügung gestellte Smartphone oder Laptop: Immer wieder gern werden diese Endgeräte auch für private Internetrecherchen, Kommunikation oder zum Ablegen privater Daten genutzt. Aber genau dieses Verhalten ist viel geliebtes Einfallstor für Angreifer. Der private USB-Stick, der angeschlossen, das fremde Programm, das installiert oder der Anhang einer privaten E-Mail, der geöffnet wird: In Sekundenbruchteilen ist der Arbeitgeber-Rechner mit einem Virus oder sonstiger Schadsoftware verseucht. Die Privatnutzung also ganz verbieten? Was ist dann aber mit Außendienstmitarbeitern oder Home Office? Arbeitgeber kommen also um eine Regelung der private Nutzung von Firmenlaptop und Co. nicht herum. Und genau hier herrscht Nachholbedarf bei KMU: Gerade einmal 66 % regeln diesen wichtigen Sicherheitspunkt für ihre Mitarbeiter. Noch schlimmer sieht es bei Zugängen für externe Dienstleister aus: Nur 45 % der KMU haben klare Regeln für ihre IT-Dienstleister aufgestellt.

Management der Informationssicherheit ist alarmierend

Nur 32 % der Mittelständler legen ein gutes oder sehr gutes Management ihrer IT-Absicherung an den Tag. Das sind zwar 3 % mehr als noch 2017, aber trotzdem viel zu wenig. Denn obwohl gerade die Risiken des Cloud Computings inzwischen bekannt sein dürften, schützen sich nur 27 % der KMU mit notwendigen Sicherheitsanforderungen wie beispielsweise Datenverschlüsselung, sicheren Zugängen oder der Sicherung von Daten vor Verlust oder technischem Ausfall. Auch für Outsourcing-Projekte, oft ein besonders schwaches Glied der IT-Schutzkette und damit natürlich bevorzugter Angriffspunkt der Cyber-Kriminellen, verfügen nur 33 % über konkrete Sicherheitsvorgaben.

Manifest IT-Sicherheit identifiziert sechs Problemfelder

Lesetipp Der Bundesverband der IT-Anwender „VOICE“ und der Bundesverband IT-Sicherheit e.V. – TeleTrusT deckten in ihrem Manifest zur IT-Sicherheit sechs Problemfelder auf und stellten konkrete Forderungen an die Politik: Ausbau der E-Government-Aktivitäten und Sicherheitsregeln für den internationalen Datenverkehr sowie eine bessere Koordination der Digitalisierung auf Bundesebene. In unserem Blogartikel erfahren Sie Details.

Fazit: Digitalisierung zu Lasten der IT-Sicherheit?

Die Lage der IT-Sicherheit in KMU hat sich trotz fortschreitender Digitalisierung in den letzten drei Jahren kaum gebessert. So innovativ viele von ihnen im Bereich Internet of Things, Industrie 4.0, Smart Cars oder Smart Home agieren, so verfügen sie im Gegensatz zu großen Unternehmen meist über nur eingeschränkte Ressourcen für IT-Sicherheit. Vielen von ihnen fehlt das nötige Know-how oder das nötige Budget, um Sicherheitslücken in ihrem Betrieb zu erkennen und sicher zu schließen. Erkennbar immerhin ist das vorhandene Bewusstsein für IT-Sicherheit, jedoch fehlt es an Konsequenz bei der Umsetzung. Dieser Lückenschluss muss gelingen.

Der Beitrag IT-Sicherheit im Mittelstand ist unzureichend erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Mission möglich: Anwendungs-Modernisierung für einen modernen Arbeitsplatz

5. Juli 2018 Posted by Krasimir Atanasov

Verändern Sie noch? Oder transformieren Sie schon?

Transformieren oder Chancen verpassen?

Was würden Sie für Ihr Unternehmen wählen? Neue Technologien verändern maßgeblich die Art und Weise, wie wir leben und Geschäfte machen. Die Veränderungsgeschwindigkeit ist viel höher als jemals zuvor und Unternehmen stehen vor der Herausforderung, einen Weg zu finden, um von den neuen Gelegenheiten zu profitieren. Fast 93% der Unternehmen gaben in einer KPMG Studie an, dass sie sich schon in einer Phase ihrer digitalen Transformation befinden und einige der wichtigsten Erfolgsfaktoren hierfür sind die Optimierung und die technologische Umwandlung von Geschäftsprozessen. Ein positiver Begleitumstand: Mitarbeiterengagement- und –Produktivität werden gesteigert, was letztendlich einen positiven Einfluss auf die Unternehmensperformance hat.

Wie der klassische Büroarbeitsplatz aussah

digitalen Transformation profitieren Erinnern Sie sich, wie die Büroarbeitsplätze vor 20 Jahren aussahеn? Die Kommunikation erfolgte meistens über Festnetztelefon oder E-Mail und die Schreibtische waren voll mit Papierstapeln. Man konnte auf Kopierer, Fax oder Scanner kaum verzichten und diese drei Geräte wurden gemeinsam von allen Mitarbeitern im Büro genutzt. Eine Sekretärin zu haben, die ans Telefon geht und Termine vereinbart, war damals ein Privileg, das nur den Managern vorbehalten war. Die Genehmigung von Zeiterfassungen und Urlaubsanträgen erfolgte immer auf Papier und sämtliche Dokumentation musste auf physischen Trägern archiviert werden. Mit dem Begriff “Zusammenarbeit” war gemeint, ein persönliches Gespräch mit Kollegen zu führen, mit Kunden zu telefonieren, oder Papierpost zu verschicken. Die IT-Abteilung war hauptsächlich für die Betreuung der stationären Geräte zuständig.

Wie der Arbeitsplatz transformiert wurde

digitalen Transformation profitieren Moderne Arbeitsplatzkonzepte sind geprägt von verschiedenen Trends. Im Mittelpunkt der Veränderungen stehen die Menschen. Die wirtschaftliche Entwicklung auf globaler Ebene wird in Zukunft von Mitarbeitern abhängen, die mobil sein wollen, um zeit- und ortsunabhängig von überall und auf jedem Gerät arbeiten zu können. Die technologische Entwicklung verwischt die Grenzen zwischen Offline und Online, Zeit und Ort, und bietet zugleich neue Möglichkeiten für Unternehmen und deren Mitarbeiter. Die Entwicklung der Künstlichen Intelligenz (KI) und des Internets der Dinge (IoT) wird das Konzept für einen modernen Arbeitsplatz stark beeinflussen.

digitalen Transformation profitieren Nach einer Umfrage von Fujitsu wurde geschätzt, dass es bis zum Jahr 2020 weltweit fast 21 Milliarden vernetzte Geräte geben wird. Die digitale Vernetzung und die intelligenten Geräte werden den Alltag der Menschen stark beeinflussen. Stellen Sie sich vor: Das Telefon weckt Sie je nach Verkehrslage auf – Sie haben ein selbstfahrendes Auto, das Sie zu Ihren Meetings bringt und Ihnen somit mehr freie Zeit zur Verfügung stellt. Sie können sich mit Ihren Kunden über verschiedene Geräte und von überall auf der Welt (sogar vom Strand aus) direkt verbinden. Sie haben einen virtuellen persönlichen Assistenten, der Termine in Ihrem Auftrag vereinbart und verschiedene Aufgaben für Sie erledigt.

Die hohe Geschwindigkeit dieser technologischen Veränderungen ist eine große Herausforderung für Unternehmen, aber auch eine Chance, mit innovativen Lösungen neue Möglichkeiten zu ergreifen.

Wie Sie von der digitalen Transformation profitieren können

Das Konzept für einen modernen Arbeitsplatz ist technologiegetrieben und bedeutet, dass die Bereitstellung innovativer Anwendungen und Instrumente, die Unternehmensproduktivität und das Mitarbeiterengagement erhöhen kann. Darüber hinaus lassen sich dadurch Arbeitsprozesse und die tägliche Arbeit optimieren, wodurch wiederum Kosten gesenkt werden und sich Möglichkeiten für neue Investitionen eröffnen. Abhängig von ihren individuellen Zielen und Anforderungen können Unternehmen verschiedene Szenarien wählen, wie sie von den Möglichkeiten der digitalen Transformation profitieren können. Kurz gesagt: Durch die Modernisierung von Anwendungen können Sie Lösungen der nächsten Generation in Unternehmen einführen.

Beispiele

Lassen Sie mich zwei Beispiele nennen, wie Organisationen ganz einfach viel effizienter werden können: Sie erhalten eine E-Mail mit einer klassischen Rechnung – gedruckt, unterschrieben, gescannt und per E-Mail zurückgeschickt. Die Künstliche Intelligenz ist nun in der Lage, die Informationen im E-Mail-Anhang zu analysieren und automatisch nur die wichtigsten Informationen wie etwa Kunden, Dienstleistungen, Betrag und Fälligkeitsdatum herauszufiltern.

Darüber hinaus können Sie die Rechnung einfach und problemlos bearbeiten, indem Sie Ihren virtuellen Assistenten bitten, dies in Ihrem Auftrag zu erledigen – sogar auch, während Sie beispielsweise Ski fahren. Sie sehen: Künstliche Intelligenz transformiert bereits die Art und Weise, wie wir Geschäfte machen und wird zukünftig eine wichtige Rolle auch am Arbeitsplatz spielen.

Anwendungs-Modernisierung: Der Weg zum Erfolg

digitalen Transformation profitieren Die Transformation und Modernisierung von Anwendungen ist eine Möglichkeit, effiziente und innovative Arbeitsumgebungen zu gestalten. Da jedes Unternehmen unterschiedliche Anwendungen hat, kann es praktisch seine Effizienz erhöhen, indem es die Anwendungen modernisiert oder neue Anwendungen implementiert.

Mit unserem Anwendungs-Modernisierungs-Angebot unterstützen wir Unternehmen mit innovativen Lösungen zur Automatisierung und Digitalisierung, mit denen sich veraltete Anwendungen ersetzen lassen, um einen Arbeitsplatz der nächsten Generation zu gestalten. Die einzelnen Komponenten (Analyse, Migration, Entwicklung, Cloud-Transformation und Betreuung) lassen sich sowohl alle zusammen integrieren, als auch als eigenständige Lösungen implementieren.

Eine gute Referenz

Einer unserer Kunden musste mehrere interne Systeme modernisieren. In der ersten Phase haben wir die vorhandenen Systeme durch die Einführung sicherer Integrationskanäle verstärkt. In der nächsten Phase haben wir Künstliche Intelligenz eingeführt, indem wir einen künstlichen Bot entwickelten, der Informationen aus verschiedenen Quellen (einschließlich der schon modernisierten Quellen) integrieren und anschließend die zusammengefassten Informationen sofort zurückliefern konnte. Das Ergebnis war die Optimierung von Geschäftsprozessen und die Verbesserung der Mitarbeitererfahrung: Die Mitarbeiter konnten schon direkt den Bot fragen, anstatt mit drei verschiedenen Systemen zu arbeiten.

Ich könnte Ihnen noch von mehr Erfolgsgeschichten berichten, aber wichtig ist, dass alle diese Geschichten eines gemeinsam haben: Sie fokussieren sich auf die wichtigsten geschäftlichen Herausforderungen des Unternehmens, verschaffen dem Unternehmen einen Mehrwert und verbessern die Arbeit seiner Mitarbeiter, indem sie ihnen viel Zeit und Mühe ersparen.

Ich verrate Ihnen ein Geheimnis: Wir haben nie eine bestehende Anwendung neu implementiert, ohne sie mit neuen Funktionen auszustatten! Beim Neuaufbau der Anwendungen beginnen wir mit einer eingehenden Analyse der Geschäftsbedürfnisse und -Prozesse des Unternehmens, was sehr oft in ein besseres Verständnis seitens des Kunden resultiert und somit Mehrwert für ihn schafft. Während der Datenmigration und der Entwicklung der neuen Systeme, die auf der Lücken-Analyse basieren, identifizieren wir neue Funktionen, die der Kunde benötigt. Als Ergebnis bieten wir ihm eine moderne Lösung, die seinen Zielen und Anforderungen am besten entspricht.

Wichtigste Mission

Die Mission eines jeden Unternehmens ist es, erfolgreich und profitabel zu sein. Dies ist dank der Anwendungs-Modernisierungs-Angebote von BULPROS möglich und geschieht durch den Einsatz moderner Lösungen der nächsten Generation, die die Anforderungen an einem modernen Arbeitsplatz erfüllen.
Falls Sie an einer maßgeschneiderten Lösung interessiert sind, kontaktieren Sie mich bitte per E-Mail: Krasimir.atanasov@bulpros.com

Der Beitrag Mission möglich: Anwendungs-Modernisierung für einen modernen Arbeitsplatz erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

New Work – Mit effizientem E-Mail-Management

19. April 2018 Posted by Diana Jensen

Arbeitsplatz der Zukunft mit intelligentem Abwesenheitsmanagement

mobil – digital – global

Über den Arbeitsplatz der Zukunft wird viel geredet – was versteht man darunter, wie sieht er aus bzw. wie ist er ausgestattet? Wo der Digital Workplace für den einen bereits mit einem mobilen Betriebssystem beginnt, ist der Arbeitsplatz der Zukunft für den anderen eine ganze Vision mit vielen kleinen Bausteinen.

Wie also sieht er aus, der Arbeitsplatz der Zukunft und wie weit ist es noch bis dahin? Das wollte die IDG wissen und hat in ihrer aktuellen Studie „Arbeitsplatz der Zukunft” die Ansichten von Entscheidern und Mitarbeitern aus Unternehmen der DACH-Region untersucht. Einige der spannenden Ergebnisse und Aussagen stellen wir Ihnen heute vor. Im Anschluss daran zeigen wir auch eine unserer Lösungen auf – ein Tool, das mobiles, effizientes und zukunftssicheres E-Mail-Management unterstützt.

Nach Meinung von Unternehmen und Mitarbeitern ist der Digital Workplace vor allem mit Mobilität, Technologie und neuen Arbeitszeitmodellen verbunden: Während 57 Prozent der befragten Unternehmen mit dem Wandel der Arbeitswelt insbesondere Mobilität und Technologie verbinden, assoziieren 79 Prozent der Mitarbeiter damit in erster Linie das Überdenken von Arbeitszeitmodellen.

Herausforderung erkannt

Arbeitsplatz der Zukunft Der Arbeitsplatz der Zukunft wird von Unternehmen als eine der wichtigsten Herausforderungen wahrgenommen. 52 Prozent der befragten Firmen sind der Ansicht, dass mit der IT-Infrastruktur der Arbeitsplatz der Zukunft steht oder fällt. Entsprechend wollen 80 Prozent in den kommenden zwölf Monaten in die IT-Infrastruktur investieren, um flexibleres und mobileres Arbeiten zu ermöglichen. Ein Drittel der Firmen plant dies für die gesamte Organisation, knapp die Hälfte für einige Unternehmensbereiche.

Status Quo: Viel Raum zwischen Wunsch und Wirklichkeit

Wo stehen Unternehmen aktuell, wo wollen sie hin und wie sehen ihre Angestellten die Entwicklung? Beim Status Quo liegen die Einschätzungen beider Lager zum Teil deutlich auseinander. Rund 40 Prozent der Unternehmensvertreter sehen die Entwicklung zum Arbeitsplatz der Zukunft in ihrem Unternehmen schon relativ weit fortgeschritten, 20 Prozent betrachten sich sogar als Vorreiter. Ihre Mitarbeiter allerdings beurteilen die Fortschritte in Richtung Arbeitsplatz der Zukunft deutlich zurückhaltender. 79 Prozent empfinden ihren derzeitigen Arbeitsplatz als nur ansatzweise so, wie sie sich den Arbeitsplatz der Zukunft vorstellen, oder noch weit entfernt davon. Jeder vierte Mitarbeiter gab sogar an, mit der IT und der technischen Ausstattung des Arbeitsplatzes weniger bis gar nicht zufrieden zu sein. Zwei Drittel der befragten Mitarbeiter wünschen sich flexible Arbeitszeitmodelle und standortunabhängigen Zugriff auf alle Daten.

Mitarbeiter mit neuen Anforderungen

Arbeitnehmer möchten zunehmender flexibler sein, sie wollen zeit- und ortsunabhängig arbeiten können: Der Arbeitsplatz der Zukunft ist da, von wo aus gerade gearbeitet wird. Und das muss nicht zwingend das Büro sein. Auch vom Auto, vom Flughafen oder vom Home Office aus lässt sich hervorragend arbeiten.

Damit ihnen ein entsprechendes Arbeitsumfeld zur Verfügung steht, müssen Unternehmen digitale Arbeitsplatzlösungen implementieren, die Geschäftsanwendungen und Daten überall und individuell zur Verfügung stellen. Der Weg dorthin allerdings führt einerseits über die konsequente Vernetzung und Synchronisierung aller Kommunikationskanäle sowie den Einsatz moderner Kommunikations-Tools, um interne Abläufe zu beschleunigen und die Produktivität zu erhöhen. Die Herausforderung ist es dabei, die richtigen Technologien auszuwählen und Tools zu implementieren, die einerseits wirtschaftlich sind, aber eben auch einen echten Business-Nutzen bringen.

Wir von GBS haben das erkannt und etliche unserer Lösungen für das E-Mail-Management „mobilisiert“. So haben wir mit iQ.Suite Clerk beispielsweise eine Applikation entwickelt, mit der Mitarbeiter ihr Abwesenheitsmanagement mobil verwalten können – sprich, bei Krankheit oder Urlaub ihre Abwesenheitsnotiz auf iPhone oder Android Smartphones sowie am Tablet aktivieren. Eben ganz ohne dafür im Unternehmen am Arbeitsplatz sein zu müssen. Denn die besten passenden digitalen Zugangsmöglichkeiten (mobilen Endgeräten) zum Arbeitsplatz der Zukunft allein nützen nichts, wenn der mobile Zugang zu Geschäftsanwendungen verwehrt bleibt. In Sachen E-Mail-Management geht ohnehin eine zukunftsfähige E-Mail-Produktivität weit über das reine mobile Lesen und Schreiben von E-Mails hinaus. Auch der Zugriff auf wichtige Funktionen im E-Mail-Management, unabhängig von Ort und Zeit, muss mobil gewährleistet ist.

Arbeitsplatz der Zukunft: Nicht ohne E-Mail

Das haben wir natürlich nicht ohne Grund getan, denn wenn wir vom Arbeitsplatz der Zukunft sprechen, gehört selbstverständlich auch die E-Mail und effizientes E-Mail-Management dazu. Laut IGD-Studie setzen auch Unternehmen und ihre Angestellte am Arbeitsplatz der Zukunft auf E-Mail und Telefon. Die Studienteilnehmer wurden auch beispielsweise gefragt, wie man ihrer Meinung nach am Arbeitsplatz der Zukunft kommuniziert: 88 Prozent der Unternehmen gaben an, dass das Telefon nach der E-Mail das wichtigste Arbeitswerkzeug ist. Das hören wir gern: Die E-Mail ist aus dem Geschäftsalltag eben nicht wegzudenken. Sie ist sogar wichtiger als das Telefon. In der Generation 50+ sind es sogar noch drei Prozentpunkte mehr (96 Prozent) als bei den unter 40-Jährigen.

E-Mail-Abwesenheitsmanagement mit regelbasierten Weiterleitungen

Arbeitsplatz der Zukunft Aber noch einmal zurück zu Clerk: iQ.Suite Clerk ist (inklusive seiner Applikation) unsere Lösung für ein zukunftstarkes, effizientes und mobiles E-Mail-Abwesenheitsmanagement unter IBM Domino, Microsoft Exchange/SMTP und Office 365. Stellen Sie sich doch zum Beispiel einmal vor, Ihre E-Mails bleiben bei (geplanter oder unvorhergesehener) Abwesenheit unbearbeitet. Das wird insbesondere dann zum Problem, wenn es sich um zeitkritische Informationen, Rechnungen oder Angebotsanfragen handelt.

Mit Clerk geben wir Unternehmen deshalb ein Tool an die Hand, mit dem sie ein zentrales Abwesenheitsmanagement einführen. Dieses stellt sicher, dass Arbeitsabläufe nicht ins Stocken geraten. Anhand individueller Richtlinien setzen Mitarbeiter bei bestimmten Ereignissen ganz einfach mit wenigen Clicks zuvor fest definierte Aktionen in Gang.
Damit insbesondere E-Mails mit sensiblen oder vertraulichen Inhalten nur an autorisierte Personen weitergeleitet werden, klassifiziert iQ.Suite Clerk eingehende E-Mails automatisch und ermöglicht so die genaue Erkennung und Weiterleitung oder Umleitung an bestimmte Kollegen. Diese inhaltsbasierte Umleitung von E-Mails kann dabei auch auf verschiedene, autorisierte Empfänger erfolgen.

E-Mail-Weiterleitung schnell und einfach erstellen

Lesetipp Übrigens: Anwender von Microsoft Exchange/SMTP und Office 365 dürfen sich im Juni über eine neue Version von iQ.Suite Clerk freuen. Mit dieser können zum Beispiel nicht nur mehrere Abwesenheitsnachrichten erstellt und Abwesenheitsnotizen wiederkehrend versendet werden. Auch rückwirkende Weiterleitungen werden dann realisierbar – nur für den Fall, dass Sie vor Urlaubsantritt vergessen haben eine E-Mail Umleitung einzurichten.

Der Beitrag New Work – Mit effizientem E-Mail-Management erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Sandbox-Technologien gegen Cyber-Angriffe

15. Dezember 2017 Posted by Heiko Brenn

GBS Ratgeber zur Sandbox-Technologie gibt Tipps

Sandbox-Technologie Attacken aus dem Internet werden immer dreister, intelligenter und aggressiver. Ein Blick auf die Bedrohungslage durch Verschlüsselungstrojaner und andere Schadsoftware zeigt die Brisanz des Themas: Jedes zweite Unternehmen war in den letzten beiden Jahren in Deutschland von Datendiebstahl, Industriespionage oder Sabotage betroffen. Im Fokus der Angreifer stehen laut Bitkom-Studie Kommunikationsdaten wie E-Mails, Finanzdaten und Kundendaten.

Trotz zahlreicher Präventivmaßnahmen gelangen immer wieder (neue) Schädlinge in die IT-Netze von Unternehmen und legen ganze Infrastrukturen lahm. Klassische, signaturbasierte Antivirenlösungen können die neuen Schädlinge nicht mehr rechtzeitig identifizieren. E-Mail-Anhänge sowie Drive-by Downloads durch den Besuch von Webseiten gehören dabei zu den häufigsten Infektionswegen eines Systems mit Schadprogrammen. Mit der Zunahme der digitalen Kommunikation in allen Lebensbereichen müssen wir davon ausgehen, dass sich dieser Trend weiter verstärkt.

Sandbox-Technologie: Keine Sandkastenspiele

Sandbox-Technologie Glücklicherweise stehen mit der Sandbox-Technologie bereits effektive Gegenmaßnahmen zur Verfügung, die schädliche Software bereits vor dem Eindringen in das Netzwerk erkennt und blockiert. Auch wir haben diese Technologie schon vor einigen Monaten in unsere E-Mail-Managementlösung iQ.Suite integriert – genauer gesagt in das Antivirenmodul iQ.Suite Watchdog. Dateien und Dokumente werden in einer abgesicherten Cloud-Umgebung unter realen Bedingungen auf schadhaftes Verhalten untersucht. Hierbei wird auch hochentwickelte Malware erkannt, die ihr bösartiges Verhalten zu verschleiern versucht und erst nach einer bestimmten Zeit aktiv wird.

Ratgeber Sandbox – 10 Tipps für mehr Schutz vor Trojanern & Co.

Lesetipp Jetzt können Sie sich mit unserem eBook „Ratgeber Sandbox – 10 Tipps für mehr Schutz vor Trojanern & Co.“ tiefgehender über das Thema Sandbox, dessen Funktionen und Einsatzgebiete informieren. Das kostenlose eBook können Sie hier als PDF herunterladen.

In unserem Ratgeber erfahren Sie:

  • Was eine Sandbox vom Standard-Virenschutz unterscheidet
  • Wie eine Sandbox vor noch unbekannten Bedrohungen schützt
  • Wo die Unterschiede zwischen On-Premise und Cloud-Einsatz liegen
  • Bei welchen Dateitypen die größten Gefahren lauern
  • Wie die Sandbox mit anderen Schutzmaßnahmen zusammenspielt
  • Was Sie beim Datenschutz beachten sollten

640 Millionen Malware-Varianten

Im Sekundentakt entsteht neue Malware. Täglich kommen 390.000 Schadprogramme hinzu. Zum Vergleich: Alle vier Tage erscheint derzeit die gleiche Menge an neuer Schadsoftware wie im gesamten Jahr 2007.

Attacken auf Sicherheitslücken in Betriebssystemen

Sandbox-Technologie Windows ist die am häufigsten attackierte Plattform – 7 von 10 Angriffen adressieren Microsoft-Plattformen. Die Verschlüsselungstrojaner WannaCry und eine Abwandlung von Petya, der 2016 schon einmal aktiv war, bewiesen diesen Frühsommer eindrucksvoll, wie kritisch Sicherheitslücken für Unternehmen sind: Beide Erpressungstrojaner setzten auf eine Lücke in der Windows-Dateifreigabe (SMB). Zwei Tage reichten aus, um tausende Windows-Rechner in bis zu einhundert Ländern lahmzulegen. Auch die Zahl der bekannten Malware-Programme für Macintosh-Rechner erhöhte sich im dritten Quartal dieses Jahres um 240 Prozent gegenüber dem selben Zeitraum des Vorjahres. Damit scheint die Immunität von Apples Betriebssystem zu schwinden.

Das Problem vieler Virenprogramme

Sandbox-Technologie Verbreitet wurden WannaCry und das Petya-Remake über E-Mail. Ihren Siegeszug konnten sie antreten, weil sie für die meisten Virenscanner unerkannt blieben. Kennt ein Virenprogramm ein Angriffsmuster nicht, erkennt es einen Schädling nicht. Schon kleinste Veränderungen genügen, damit ein Virus vom Antivirenprogramm übersehen wird. Zwar updaten die Hersteller von Antivirenprogrammen ihre Lösungen schnell, von der Entdeckung eines neuen Schädlings bis zur Auslieferung einer aktualisierten Signaturdatenbank an die Antivirenlösung kann jedoch wertvolle Zeit verloren gehen.

Malware in SSL-verschlüsselten Daten

Zunehmend versteckt sich Malware in verschlüsselten Daten, um einer Erkennung durch Antivirensoftware zu entgehen. Die Menge an schädlichen Inhalten, die über verschlüsselten Datenverkehr transportiert wurde, hat sich in den letzten sechs Monaten mehr als verdoppelt.

Alte Masche in neuem Gewand: Mails mit manipulierten PDF-Anhängen

Sandbox-Technologie Kriminelle werden raffinierter und verstecken ihre Malware nicht mehr nur in manipulierten Office-Dateien, die sie einer E-Mail anhängen. Auch PDFs können ausführbaren Schadcode enthalten, der beispielsweise über die Kommentarfunktion eingebettet ist. So präpariert werden sie dann als E-Mail-Anhang versendet. Dieses Jahr fingen sich etliche Unternehmen auf diesem Weg die Erpressungstrojaner Locky oder Jaff ein! Schutzmechanismen, wie dem Standard-Viren- oder Spamschutz, gehen derartige Attacken durch die Lappen, weil sie PDF ignorieren oder nur das Blockieren verdächtiger Dateien erlauben.

Haben Sie bereits Erfahrungen mit Sandbox-Technologien? Ich freue mich über Ihre Kommentare und weitere Anregungen.

Der Beitrag Sandbox-Technologien gegen Cyber-Angriffe erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Besser vorbeugen: Schutz vor WannaCry

18. Mai 2017 Posted by Andreas Richter

WannaCry - Banner

Beugen Sie weiteren Ransomware-Epidemien vor

Es war fast schon ruhig geworden in den letzten Wochen, zu ruhig. Die letzte große Angriffswelle mit Verschlüsselungstrojanern vom Dezember 2016 – das war GoldenEye – ist fast ein halbes Jahr her. Jetzt ist klar: Es war die Ruhe vor dem Sturm. Denn seit dem vergangenen Wochenende treibt die Ransomware WannaCry ihr Unwesen. Und die hat es in sich: Hunderttausende Rechner weltweit sind seit dem 12. Mai bereits befallen.

Schutz vor WannaCry Die auch unter dem Namen WannaCrypt, WanaCrypt0r, Wcrypt, WCRY und RansomCry bekannte Software hat in kurzer Zeit zahlreiche Dateien auf PCs von Unternehmen und Institutionen gekidnappt. Wie schon andere Trojaner zuvor, verschlüsselt WannaCry die Festplatten von PCs und erpresst anschließend ein Lösegeld von den ahnungslosen Anwendern. An nur einem Tag hat der Trojaner nach Berichten von heise.de mindestens 126 Opfer um etwa 30.000 Euro erleichtert: Die WannaCry-Hintermänner verlangen von jedem ihrer Opfer 300 bis 600 Dollar, wenn sie wieder Zugang zu ihren gesperrten Rechnern bekommen wollen. Montag Abend, so berichtet das IT-Nachrichtenportal ZDNET, waren bereits mehr als 200.000 PCs in über 150 Ländern befallen.

Weltweit Telekommunikationsdienstleister, Gesundheitswesen, Automobilindustrie und Verkehrsbetriebe im Visier

Schutz vor WannaCry Im Visier des Verschlüsselungstrojaners sind die Großen ihrer Branchen: Autobauer, Verkehrs- und Infrastrukturbetriebe, Telekommunikationsdienstleister und Krankenhäuser. Bereits die ersten Meldungen am Abend des 12. Mai aus Großbritannien ließen nichts Gutes erahnen: Zahlreiche Rechner des nationalen Gesundheitssystems (National Health Service) waren von einem Verschlüsselungstrojaner infiziert worden. Viele – teils schwerkranke – Patienten mussten infolgedessen wieder nach Hause geschickt werden. Etwa zeitgleich griff der gleiche Trojaner auch eine Fabrik des Autoherstellers Nissan im englischen Sunderland an. Um eine Ausbreitung der Schadsoftware zu verhindern, stoppte auch der Autobauer Renault in einigen französischen Werken den Betrieb. In Spanien und Portugal melden die großen Netzbetreiber Telefónica und Telecom Infektionen, außerdem der spanische Energiekonzern Iberdrola, aus den USA vermeldete Logistikriese FedEx eine Attacke desselben Trojaners, in Russland sogar das Innenministerium und in Deutschland fielen die Anzeigetafeln der Deutschen Bahn sowie Fahrschein- und Parkautomaten anderer Unternehmen dem Angriff zum Opfer.

Immerhin: Regierungsnetze in Deutschland sind nicht betroffen. Thomas de Maizière, Bundesinnenminister, sagte dazu: „Ihr hochprofessioneller Schutz durch das BSI zahlt sich aus.“

Kein Schutz vor WannaCry – die Schwachstelle: Fehlende Sicherheits-Updates bei Windows-Systemen

Schutz vor WannaCry Die „Erstinfektion“ mit WannaCry wird wie bei Ransomware üblich, per E-Mail ausgelöst. Versteckt in einem Mail-Anhang wartet der Schädling darauf, dass dieser von einem ahnungslosen Anwender geöffnet wird. Dann aber – und das unterscheidet ihn von Locky und anderen bisher bekannten Verschlüsselungstrojanern – springt WannaCry von einem infizierten Rechner auf andere, über das Netz erreichbare Windows-Systeme, über. Dafür nutzt die Ransomware offenbar eine Lücke in Windows Dateifreigaben (SMB). Zwar hat Microsoft die verantwortliche Sicherheitslücke schon im März durch Sicherheits-Updates geschlossen. Jedoch lieferte der Hersteller die dafür notwendigen Patches nur für aktuelle Windows-Versionen. Ältere Versionen, darunter Windows XP und Windows Server 2003, blieben ungeschützt.

BSI appelliert an das Sicherheitsbewusstsein

Der Schutz vor WannaCry bewegt nun die Gemüter. Diese jüngste Angriffswelle zeigt ganz deutlich, dass Sie spätestens jetzt unbedingt handeln und Ihre E-Mail-Kommunikation vor gefährlichen Cyberattacken absichern sollten! Führen Sie zudem alle regelmäßigen Software-Updates durch, denn so erreichen Sie eine hohe Wahrscheinlichkeit, dem Angriff zu entgehen. Und das sagen nicht nur wir. Auch das BSI hat nachdrücklich dazu aufgerufen, dass sich Unternehmen dringend um ihre IT-Sicherheit kümmern müssen. Nach Aussage von Arne Schönbohm, Präsident des Bundesamts für Sicherheit in der Informationstechnik (BSI), zeigen die aktuellen Angriffe „wie verwundbar unsere digitalisierte Gesellschaft ist. Sie sind ein erneuter Weckruf für Unternehmen, IT-Sicherheit endlich ernst zu nehmen und nachhaltige Schutzmaßnahmen zu ergreifen.“ Inzwischen hat übrigens das Bundeskriminalamt (BKA) die Ermittlungen übernommen.

Zahlen Sie nicht!

Schutz vor WannaCry Nicht erst seit WannaCry empfehlen Polizei und Sicherheitsbehörden, auf gar keinen Fall das geforderte Lösegeld der Cyber-Erpresser zu zahlen. In einem Themenpapier zur Ransomware-Bedrohung rät das BSI beispielsweise, angemessen vorzusorgen, um im Schadensfall auf die Vorbereitungen zurückzugreifen und keinesfalls Geld zu zahlen.

Das ist auch unser Rat: Zahlen Sie im Falle einer Infektion mit WannaCry kein Lösegeld, auch wenn es schwer fällt. Damit finanzieren Sie die Weiterentwicklung dieser oder anderer Schadsoftware. Niemand – und schon gar nicht die Cyberkriminellen selbst – gibt Ihnen außerdem eine Garantie, dass Ihre Daten nach Zahlung des geforderten Lösegeldes auch wieder entschlüsselt werden. In diesem Zusammenhang führt zum Beispiel die BBC mehrere Experten an, die es im Falle von WannaCry für sehr unwahrscheinlich halten, dass eine Zahlung auch tatsächlich zur Wiederherstellung der Daten führt. „Wer dieses Lösegeld zahlt, der schickt wahrscheinlich Bitcoins, die für immer irgendwo verschwinden“, sagt Professor Alan Woodward von der University of Surrey.

Und behalten Sie im Hinterkopf: Zahlen Sie einmal Geld, outen Sie sich als „weiches Ziel“ und werden mit hoher Wahrscheinlichkeit Opfer weiterer gezielter Attacken. Verstärken Sie stattdessen Ihre Sicherheitsvorkehrungen und ergreifen Sie organisatorische und technische Maßnahmen zum Schutz Ihrer E-Mail-Kommunikation sowie Ihrer gesamten IT-Infrastruktur vor derartigen Angriffen. Unsere Experten stehen Ihnen unter cybersicherheit@de.gbs.com für Fragen gerne zur Verfügung.

iQ.Suite CyberDefense: Schluss mit Angriffen durch Trojaner, Viren und Phishing

Der aktuelle Angriff von WannaCry zeigt: Konventionelle Anti-Viren- und Anti-Spam-Lösungen reichen nicht mehr aus! Denn mittlerweile genügt ein falscher Mausklick, damit Trojaner auf Ihre Rechner gelangen, wichtige Daten verschlüsseln und Lösegeld erpressen. Hier helfen nur mehrstufige und gezielte Sicherheitslösungen. Damit legen Sie nicht nur die Hürden für Angreifer höher, sondern erleichtern auch die Einhaltung bestehender Regularien, wie dem IT-Sicherheitsgesetz.

Dazu gehört mindestens ein zentraler Schutz vor Erpressungstrojanern, ein intelligenter Spam- und Phishingschutz sowie ein mehrstufiger Virenschutz mit optionaler Cloud-Integration zur besseren Früherkennung von Attacken. Unternehmen sollten hier auf diese Funktionalitäten achten:

  • das Entfernen von Schadcode (gefährliche Makros) aus Office-Dateien und die optionale Umwandlung nach PDF,
  • die automatische Blockade ausführbarer Dateien sowie
  • Data Leakage Prevention zur frühzeitigen Erkennung von Datenklau.

Erst durch das Zusammenspiel aller Maßnahmen sowie einem wachen Auge für verdächtige E-Mails können Sie einen Großteil der Bedrohungen frühzeitig ausschalten.

Schützen Sie sich vor Ransomware!

LesetippIn unserem eBook „Schluss mit Cyberattacken“ geben wir Ihnen noch mehr Praxistipps und informieren Sie auch über Hintergründe und die Anatomie von Cyberattacken.

Kommenden Freitag, 19. Mai, 11:00-11:30 Uhr, bieten wir ein Krypto-Trojaner Webinar an, für das Sie sich gerne noch anmelden können.

Was Sie sonst noch aktiv gegen Cyberattacken tun können?

Gefragt ist eine Kombination aus organisatorischen und technischen Maßnahmen, die bei jedem Einzelnen greifen. Deshalb beherzigen Sie bitte einige wichtige Regeln:

  • Allen voran – und WannaCry zeigt es leider wieder einmal: Spielen Sie regelmäßig Updates und Patches ein. Denn nur ein aktueller Schutz ist ein guter Schutz.
  • Nutzen Sie idealerweise zwei Anti-Viren Technologien unterschiedlicher Hersteller. Denn oft gilt: Was A nicht kennt, hat B womöglich schon integriert und kann die Bedrohung abwehren.
  • Verschlüsseln Sie Ihre E-Mails. Achten Sie dabei einerseits auf die Verschlüsselung des Transportweges, andererseits aber auch auf die Verschlüsselung der zu übertragenden Daten.
  • Notieren Sie keine Passwörter bzw. Zugangsdaten und lassen diese womöglich noch am Arbeitsplatz offen liegen. Und sperren Sie Ihren Rechner, wenn Sie Ihren Arbeitsplatz verlassen – auch wenn Sie nur kurz um die Ecke gehen, um sich einen Kaffee zu holen.
  • Apropos Passwörter: Verwenden Sie bitte keine Wörter, die Sie im Duden nachschlagen können. Nutzen Sie eine Mischung aus Groß-/Kleinschreibung, Zahlen und Sonderzeichen. Oder prägen Sie sich einen Satz ein und verwenden Sie den ersten Buchstaben jeden Wortes als Passwort.
  • Und wenn wir schon einmal dabei sind: Schützen Sie auch Ihr Mobilgerät mit einem Passwort. Nutzen Sie zusätzlich die Möglichkeiten zur Fernwartung bzw. Fernlöschung.
  • Lernen Sie, Phishing-Mails zu erkennen. Diese E-Mails kommen vertrauenerweckend daher, getarnt als vermeintlich seriöse Anliegen von Geschäftspartnern oder Kunden. Doch nicht immer ist drin, was draufsteht. Betrüger versuchen womöglich an Ihre Daten zu gelangen. Wenn Sie aufgefordert werden auf Webseiten Ihre Daten zu aktualisieren oder Passwörter oder Bankverbindungen abgefragt werden, werden Sie bitte stutzig: Haben Sie wirklich eine Geschäftsbeziehung zum Absender, weil Sie beispielsweise dort Kunde sind? Zeigt der Link in der Mail auf das echte Portal (Blick ins Impressum und Browser-Leiste werfen)? Sind Rechtschreibfehler im Text?
  • Klicken Sie nicht auf Links in E-Mails und öffnen Sie keine E-Mail-Anhänge – schon gar nicht, wenn Sie den Absender nicht kennen. Wie im Falle von WannaCry werden Trojaner oder Viren von Cyberkriminellen gern als getarnte PDFs, ZIPs oder TXT-Dateien online versendet. Sind Sie sich bei einer E-Mail dennoch nicht sicher, fragen Sie Kollegen oder ziehen Sie die IT-Abteilung hinzu.

Der Beitrag Besser vorbeugen: Schutz vor WannaCry erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Sandbox-Technologie in die Cloud!

16. März 2017 Posted by Heiko Brenn

Sandbox Banner

Sandbox-Technologie hält Cyberkriminelle ab

Schutz vor neuen Bedrohungen durch Sandbox-Verhaltensanalyse

Die Bedrohungslage durch Verschlüsselungstrojaner und andere Schadsoftware wächst. Wir leben in einer Zeit, in der Nachrichten über immer neue Angriffswellen und -muster beinah alltäglich geworden sind. Gleichzeitig verbreitet die immer raffiniertere Vorgehensweise von Cyberkriminellen Angst und Schrecken in Unternehmen. Denn trotz zahlreicher Präventivmaßnahmen gelangen immer wieder Schädlinge in die IT-Netze von Unternehmen und legen ganze Infrastrukturen lahm. Es ist die Zeit für hochkarätige Gegenmaßnahmen – es ist Zeit für Sandbox. Lesen Sie heute, was es damit auf sich hat.

Antivirenprogramme erkennen nicht alle Schädlinge

Klassische, signaturbasierte Antivirenlösungen identifizieren nicht immer jeden Schädling, sondern nur diejenigen, die sie kennen – oder besser: erkennen. Aber Cyberkriminelle schlafen nicht – sie entwickeln schnell immer neue Malware und verbessern Angriffsmuster, um ihre Schadsoftware an die Gegenmaßnahmen der Anbieter von Sicherheitslösungen anzupassen. Zwar gibt es keine konkreten Zahlen, aber nach Schätzung des Bundesamts für Informationssicherheit entstehen 400 000 neue Viren pro Tag. Kennt ein Virenprogramm ein Angriffsmuster nicht, erkennt es folglich einen Schädling nicht – und es reichen kleinste Veränderungen, damit ein Virus vom Antivirenprogramm übersehen wird. Zwar sind die Hersteller von Antivirenprogrammen schnell mit dem Updaten ihrer Lösungen, jedoch kann vom Entdecken eines neuen Schädlings bis zur Auslieferung einer aktualisierten Signaturdatenbank an die Antivirenlösung wertvolle Zeit verloren gehen.

E-Mails als Verbreitungswege

Sandbox Technologie Es bleibt dabei: Wie das Bundesamt für Sicherheit in der Informationstechnik in seinem „Report zur Lage der IT-Sicherheit in Deutschland 2016“ bestätigt, gehören E-Mail-Anhänge sowie Drive-by Downloads durch den Besuch von Webseiten zu den häufigsten Infektionswegen eines Systems mit Schadprogrammen. Weiterhin spielen auch Links auf Schadprogramme, deren Quelle manipulierte Werbebanner auf an sich vertrauenswürdigen Webseiten sind, eine gewichtige Rolle.

Bedrohungen lauern im Verborgenen

Malware wird von ihren Schöpfern so konzipiert, dass sie möglichst lange unentdeckt bleibt und möglichst viel Schaden anrichten kann. Sie soll unbemerkt Daten stehlen oder sich in der IT-Umgebung ausbreiten, um dann in maximalem Ausmaß zuzuschlagen. Zwei Angriffsmuster sind in diesem Zusammenhang zu nennen, die es in sich haben:

Advanced Persistent Threat (APT)

APT-Attacken (Advanced Persistent Threat) sind komplexe, zielgerichtete und aufwändig vorbereitete Cyberangriffe. Die Angreifer nehmen einen hohen Aufwand auf sich (Advanced), um auf das IT-System ihrer Opfer erfolgreich zuzugreifen und dabei möglichst lange (Persistent) unentdeckt Daten auszuspähen oder Schaden anzurichten. Um dauerhaft unentdeckt zu bleiben, müssen Angreifer permanent Codes umschreiben und raffinierte Ausweichtechniken einsetzen, um nicht doch vom Intrusion Detection System eines Netzwerks entdeckt zu werden. Aus diesem Grund sind APT-Attacken nur schwer zu identifizieren. Da sie in der Regel mit Datendiebstahl einhergehen, sind ihre Folgen erst anhand von Datenabflüssen aus dem Firmen-Netzwerk zu erkennen – und dann ist es schon zu spät.

Advanced Evasion Technique (AET)

AET-Attacken sind Cyberattacken, bei denen verschiedene, bekannte Angriffstaktiken so kombiniert werden, dass ein völlig neues Angriffsmuster entsteht, welches unbekannt ist und deshalb unentdeckt vom Antivirenprogramm auf IT-Infrastrukturen zugreifen kann. AET-Attacken dienen in erster Linie dazu, dem Angreifer unbemerkt Zugriff auf Netzwerke zu verschaffen. Selten richten AET-Attacken also direkten Schaden an.

Neue Erkennungstechnologien: Sandbox

Sandbox Technologie Neue Erkennungstechnologien werden deshalb immer wichtiger. Dazu zählen verhaltensbasierte Sicherheitsverfahren, die schädlichen Datenverkehr erkennen und dadurch Rückschlüsse auf Schadsoftware, die sich bereits auf den Endgeräten eingenistet hat, ziehen können. An dieser Stelle kommt die Sandbox-Technologie zum Einsatz: Sie unterstützt ein Antivirenprogramm darin, die IT-Infrastruktur vor Cyberangriffen zu schützen, indem sie schädliche Software bereits vor dem Eindringen in das Netzwerk erkennt und diese blockiert. Deshalb haben auch wir von GBS die Sandbox-Technologie nun in unser Antivirenmodul iQ.Suite Watchdog integriert.

Was ist eine Sandbox?

Eine Sandbox ist eine sichere Umgebung, die vollständig von der IT-Infrastruktur eines Unternehmens isoliert ist. In dieser sicheren Umgebung werden verschiedenste Computersysteme mit unterschiedlichen Betriebssystemen bereitgestellt, um eine reale IT-Umgebung zu simulieren. Unbekannte und verdächtige Programme und Dateien werden in dieser sicheren Umgebung zur Ausführung gebracht, um ihr Verhalten und die Auswirkungen auf das Computersystem zu beobachten. Anhand dieser Beobachtungen kann festgestellt werden, ob sich die Datei schädlich auf das System auswirkt oder nicht. Diese Bewertung bildet nun die Grundlage der Entscheidung, ob das Programm oder die Datei auf dem Endgerät zugelassen oder geblockt werden soll.

Sandbox in der Cloud? Natürlich!

Man kann eine Sandbox auch als eigene Lösung im Unternehmen betreiben. Die Verlagerung von Sandbox-Technologien in die Cloud hat jedoch immense Vorteile: Sicherheitsanbietern steht mehr Rechenleistung zur Verfügung und Ressourcen von mehreren Kunden können gemeinsam genutzt werden. Außerdem sind Unternehmen nicht mehr auf internes Fachwissen angewiesen, da ihre Anbieter oder Partner die Analysearbeit für sie an einem zentralen Ort erledigen können.

Sandbox-Verhaltensanalyse in Watchdog

Sandbox Technologie
  • Wird eine Datei als verdächtig eingestuft, zum Beispiel wenn sie ausführbare Inhalte enthält, wird sie von der Sicherheitslösung automatisch an die Sandbox gesendet. Dort wird der Hashwert dieser Datei ermittelt und mit denen bereits bekannter Malware verglichen.
  • Wenn die Datei schon einmal analysiert wurde und bekannt ist, übermittelt die Sandbox die Analysedaten an die Sicherheitslösung. Liegt eine Bedrohung vor, platziert iQ.Suite Watchdog die Datei samt E-Mail in der Quarantäne. Liegt keine Bedrohung vor, wird die Datei regulär zugestellt.
  • Ist der Hashwert unbekannt, wird eine anonymisierte Kopie der verdächtigen Datei an die Sandbox gesendet. Dort wird sie in einer sicheren Cloud-Umgebung zur Ausführung gebracht und ihr Verhalten überwacht und analysiert. Werden die Analysedaten als Bedrohung eingestuft, wird die Datei abgelehnt und blockiert. Wird die Datei als sicher eingestuft, erfolgt ihre Zustellung.
  • Anhand der von Sandbox ermittelten Informationen erstellt iQ.Suite Watchdog abschließend zu jedem Bedrohungsereignis einen forensischen Report, der tiefere Einblicke und Kontextinformationen liefert.

Ihr Weg zur passenden Lösung

Sandbox Technologie Es gibt sicherlich viele Sandbox-Angebote auf den Markt. Entscheiden Sie sich für eine Lösung, die sich einfach testen und bereitstellen lässt. Cloudbasierte Lösungen haben hier die Nase vorn, denn sie sind schnell installiert und können sofort genutzt werden. Eine Sandbox sollte grundsätzlich gut zur bestehenden Infrastruktur passen. Ideal ist es, wenn die Sandbox-Lösung sich in die bestehenden Sicherheitsprodukte einfach integrieren lässt, um sie zu erweitern.

Auf einige wichtige Merkmale Ihrer Sandbox sollten Sie außerdem achten:

  • So sollte eine Sandbox-Lösung auch Bedrohungen erkennen können, die speziell zum Umgehen von Sandboxes entwickelt wurden.
  • Eine gute Sandbox-Lösung sollte verdächtige Dateien unterschiedlichster Art analysieren können. Dazu gehören mindestens Microsoft-Office-Dokumente, PDFs und ausführbare Dateien.
  • Eine Sandbox muss außerdem verschiedene Betriebssysteme und Anwendungen unterstützen, damit auch Malware entdeckt wird, die zur Ausführung in einer ganz bestimmten Umgebung entwickelt wurde. Denn bedenken Sie: Malware verhält sich auf einer Windows Plattform anders als auf einer MacOS, Linux oder Android Plattform!
  • Dateien sollten mithilfe von Anti-Malware- und Reputationsdiensten gefiltert werden. Das reduziert die Zahl der fälschlich als schadhaft kategorisierter und an die Sandbox gesendeter Dateien. Mit detaillierten, vorfallbasierten Reports erhalten Sie zudem wertvolle Kontextinformationen über die Malware selbst oder den gezielten Angriff auf Ihre IT. Nutzt eine Sandbox außerdem eine so genannte „Kollektive Intelligenz“, können Bedrohungsanalysedaten von allen Kunden korreliert werden und allen Nutzern zugute kommen.

Haben Sie bereits Erfahrungen mit Sandbox-Technologien? Hier erfahren Sie mehr über die neue Sandbox-Technologie in iQ.Suite Watchdog. Ich freue mich über Ihre Kommentare und weitere Anregungen.

Der Beitrag Sandbox-Technologie in die Cloud! erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

IoT – Sind deutsche Unternehmen bereit?

9. März 2017 Posted by Richard Koncz

Banner IoT

Das Internet der Dinge: Nutzen und Hemmnis

Das Potenzial der IoT-Technologien wird nur teilweise erkannt – es gibt große Unterschiede zwischen Branchen

Das Internet der Dinge ist zentraler Pfeiler der Digitalisierungsstrategie von Unternehmen – in Deutschland und international. Dabei geht es nicht nur um die bloße Vernetzung, sondern darum, Wettbewerbsvorteile daraus zu erzielen: Wer Datenströme analysieren und in Wissen umwandeln kann, hat Vorteile im Markt.

Aber sind Unternehmen überhaupt bereit für das Internet der Dinge in Deutschland? Welche Erwartungen knüpfen sie an das IoT? Und gibt es einen Unterschied im Reifegrad zwischen Fertigung und Logistik, Handel sowie Dienstleistern? Die Gemeinschaftsstudie „Wettbewerbsfaktor Analytics im Internet der Dinge“ der Universität Potsdam und der SAS Institute GmbH liefert einen Einblick in den Stand von IoT-Einführungsprojekten, Herausforderungen sowie das zukünftige Potenzial der Technologie. Befragt wurden hierzu 5.777 Unternehmen unterschiedlicher Branchen – was dabei herausgekommen ist, erfahren Sie zusammengefasst in unserem heutigen Blogbeitrag.

Weniger als die Hälfte der Unternehmen setzt sich aktiv mit dem Internet der Dinge auseinander

Internet der Dinge Obwohl das Thema Digitalisierung aktueller denn je ist, setzen sich noch nicht alle befragten Unternehmen mit dem Internet der Dinge auseinander: Nur 43,5 Prozent der Befragten setzen sich derzeit aktiv mit dem Thema auseinander. Große Unterschiede gibt es in den einzelnen Branchen: In Fertigung (50%) und Logistik (51%) ist es rund die Hälfte der Unternehmen, während der Handel (nur 35%) und das Gesundheitswesen (38%) deutlich hinterherhinken.

Eine Kosten-Nutzen Frage: Die Herausforderungen

Internet der Dinge Größtes Hindernis für die Implementierung des Internet der Dinge im Unternehmen ist die Frage nach dem Nutzen: Für 63 Prozent der Firmen, die IoT noch nicht implementiert haben, ist dies die größte Hürde, die es zu bewältigen gilt. Unabhängig davon sehen alle befragten Unternehmen im Fehlen technischer Standards (60%), sowie geeigneter Plattformen zur Datenintegration (47%) die größten Herausforderungen. Aber auch die Kosten für die zusätzliche Infrastruktur zur Vernetzung (40%) sowie Bedenken bei Datenschutz (40%) und Datensicherheit (33%) wurden als häufige Hindernisgründe genannt.

Hohe Ziele und Erwartungen

Die mit dem Einsatz des IoT verbundenen Ziele sind verschieden. Für die Hälfe der Befragten (50%) steht die Entwicklung neuer Produkte und Dienstleistungen im Vordergrund. 40 Prozent erhoffen sich eine Verbesserung der Effizienz und lediglich 5 Prozent möchte das Internet der Dinge in Deutschland für neue Geschäftsmodelle und zur Prozessüberwachung nutzen. Einen Einfluss auf signifikante Umsatzsteigerung zwischen 6 und 20 Prozent erwartet die Mehrheit der Unternehmen (60%) in rund 5 Jahren. Nur 13 Prozent sehen innerhalb der nächsten fünf Jahre keinen Einfluss auf den Umsatz durch IoT. Über zwei Drittel der Unternehmen erwarten in fünf Jahren außerdem auch eine erhebliche Effizienzsteigerungen durch das Internet der Dinge.

Umfassende IoT-Strategie fehlt

Internet der Dinge Um diese Potenziale zu heben, braucht es jedoch entsprechend erfolgreiche Umsetzung. Und hier kommt das Management ins Spiel: Die Macher der Studie sind davon überzeugt, dass eine unternehmensweite Strategie, in der die Anstrengungen zielgerichtet gebündelt werden, ein Indikator für die Bedeutung von IoT und die Reife der Nutzungsideen ist. Derzeit allerdings werden Einsatzszenarien häufig nur getestet. Das zeigen auch die Zahlen: Eine unternehmensweite Implementierung des Internets der Dinge findet bei lediglich 13 Prozent der Befragten statt – bei allen anderen ausschließlich auf Projektbasis oder Abteilungsebene.

Übrigens: IoT-Projekte zur Produkt- und Dienstleistungsentwicklung befinden sich bei Fertigung, Handel und Gesundheitswesen in der Regel noch in der Testphase oder in der prototypischen Implementierung. Das zumindest gaben 16 und 10,5 Prozent der Befragten an. Banken sind hier offenbar schon einen Schritt weiter, denn laut Studie haben die ersten Banken (5% der Befragten) bereits damit begonnen, die Sensordatenanalyse in entsprechenden Projekten zu integrieren. Das sieht auf den ersten Blick recht mager aus, allerdings erwarten die Initiatoren der Studie, dass dieser Anwendungsbereich branchenübergreifend zunehmen wird: Knapp die Hälfte aller Unternehmen (47%) befindet sich in der Ideenfindungsphase.

Datennutzung bislang Fehlanzeige

Internet der Dinge Die schieren Massen an Daten und Informationen, die durch das IoT produziert werden, lassen sich im Unternehmen zur Entscheidungsfindung und Prozesssteuerung verwenden. Soweit die Theorie. Ein Blick in die Praxis sieht trübe aus: Nur zwei Drittel der befragten Unternehmen nutzen überhaupt Daten zur Entscheidungsvorbereitung. Davon haben 43 Prozent bislang lediglich ein Viertel ihrer Daten erschlossen und nur 7 Prozent gelingt es, mehr als die Hälfte der durch das Internet der Dinge erzeugten Daten zu nutzen.

Die Aufgabe wird für die meisten Unternehmen in den kommenden Jahren also verstärkt darin liegen, überhaupt erst einmal die technische Infrastruktur zu schaffen, mit deren Hilfe Daten aus ihrer Sensorik gesammelt werden können. Zusätzlich ist es notwendig, Auswertungsroutinen, also Regeln und Verfahren, zu verankern, die dabei helfen, Entscheidungsfindungen zu erleichtern.

Der Blick auf einzelne Branchen

Kommen wir zurück auf die eingangs erwähnten Branchen. Für Handel, Logistik, Fertigung, Gesundheitswesen sowie Versicherungen bietet das IoT unterschiedliche Anwendungsmöglichkeiten, die von den Studieninitiatoren hinsichtlich ihrer Potenziale untersucht wurden. Denn wenn in der Produktion, Logistik und im Handel mit physischen Produkten umgegangen wird und messbare Daten direkt im internen Prozess entstehen, so wird das IoT im Gesundheitswesen oder bei Versicherern in der Regel beim Kunden eingesetzt. Die gewonnen Datenströme können dann unmittelbar zur besseren Leistungserstellung genutzt werden.

Versicherungen

Daten für eine bessere Risikobewertung oder für eine individuellere Gestaltung von Versicherungsprodukten und Tarifen: Das IoT eröffnet der Versicherungsbranche etliche Optimierungsmöglichkeiten hinsichtlich der Erweiterung des Produktportfolios um verhaltensbasierte Produkte.

Das IoT-Potenzial wird in dieser Branche insgesamt als recht hoch bewertet. Insbesondere, wenn es um die Auswertung von Daten in stark abgegrenzten Bereichen (wie bei Connected Car, Connected Home) geht, wird das IoT als zukunftsträchtig erachtet. So lassen sich beispielsweise Versicherungstarife unter dem Stichwort „pay as you live“ individuell gestalten. Ähnlich hoch wird auch das Potenzial vom Internet der Dinge in Assistenz- und Präventionsprogrammen in Deutschland eingeschätzt. Interessanterweise haben trotz hoher Potenzialbewertung Versicherer den Initiatoren der Studie keine bereits initiierten Projekte benannt.

Handel

Hier gilt es zwischen Online- und stationärem Handel zu unterscheiden, da das IoT unterschiedliche Einsatzbereiche bereit hält.

Internet der Dinge Im Online-Handel bieten ortsbezogene Anwendungen, automatisierte Bestellungen und Logistikanwendungen „der letzten Meile“, also der letzte Abschnitt vor Auslieferung beim Kunden, das höchste Zukunftspotenzial. Während Payment-Anwendungen kaum auf Interesse stoßen, werden erste Projekte nach Angabe der Befragten bei automatisierten Bestellungen realisiert. Im Bereich Connected Home befinden sich Projekte derzeit in der Planung.

Der stationäre Handel sieht insgesamt ein nicht ganz so großes Potenzial im IoT. Bei der Handhabung des Sortiments stößt es jedoch auf Interesse. Durch die Möglichkeit des Monitorings der Produkteigenschaften und der automatischen Bestandsführung sehen die Befragten ein mittleres bis hohes Potenzial für Effizienzsteigerungen. Ähnlich hoch wird der Nutzen des IoT bei der Verfolgung der Produkteigenschaften (Unversehrtheit, Haltbarkeit) gesehen. So werden erste Projekte mit dem Einsatz vom Internet der Dinge in der automatischen Bestandsführung, bei der Produktindividualisierung und in der Kundenidentifikation in Deutschland vorangetrieben. Wenig Beachtung, weil mit geringem Nutzwert verbunden, schenkt der stationäre Handel Paymentanwendungen.

Fertigung

Mit dem Aufkeimen von Industrie 4.0 ist das Thema Digitalisierung in der Fertigung längst präsent. Das höchste Potenzial wird in der Überwachung der Maschinenzustände und der Planung von Wartungszyklen gesehen und die Implementierung von IoT wird in dieser Branche bereits sehr aktiv betrieben. Denn ein durch Produktionsausfall ungeplantes Wartungsfenster und dadurch bedingte Termin- und Lieferschwierigkeiten haben unmittelbaren Einfluss auf monetäre Einbußen.

Vielversprechend ist auch die flexiblere Produktionsplanung, denn die hierfür notwendigen Daten liefert das Internet der Dinge in Echtzeit: Über Echtzeitregelkreise lassen sich Produktionsaufträge flexibler takten und spontane Veränderungen an den Produktkonfigurationen vornehmen. Das Potenzial der Planung mit Ist-Daten wird daher als hoch bewertet.

Laut Studie werden einzelne Projekte bereits bei der Zustandsermittlung, aber auch im Rahmen der Erhöhung der Energieeffizienz durchgeführt. Zur Vorhersage von Funktionsstörungen und der Planung von Wartungszyklen seien viele neue Projekte in Vorbereitung.

Logistik

Internet der Dinge Große Potenziale bietet das IoT auch für die interne Lagerhaltung, Qualitätsmanagement und Logistik. Insbesondere das Tracking und Tracing von Produkten und Bestellungen sehen die befragten Unternehmen als zentrales zukünftiges Anwendungsfeld. Einsatzfelder von smarten Sensortechnologien sind beispielsweise die Lokalisierung einzelner Produkte im Lager, die intelligente Nutzung von Lagerkapazitäten sowie die autonome Lagerverwaltung.

Es ist also kaum verwunderlich, dass konkrete Projekte in der Lagerhaltung – und hier im Tracking und Tracing sowie der Auffindbarkeit im Lager – aber auch bei der Erhöhung der Energieeffizienz der Lagerung geplant und realisiert sind.

Gesundheitswesen

Der Überwachung von Fitness- und Vitaldaten über Wearables zur Gestaltung von Präventionsprogrammen, zur automatisierten Alarmierung von Hilfs- und Notdiensten oder für die Nutzung als Assistenzsysteme in der Medikamentierung wird von Krankenkassen und der häuslichen Krankenpflege ein sehr hohes Potenzial zugeschrieben. Den größten Nutzen des Internet der Dinge erwarten Branchenkenner in der Entlastung der stationären Infrastruktur und der Verlagerung von Überwachung und Therapie in den ambulanten Bereich. So lassen sich laut Studie über die Erhebung von gesundheitlichen Langzeitdaten und den Abgleich der Vitaldaten mit bekannten Mustern individuelle Behandlungs- und Pflegepläne effizienter gestalten.

Fazit: Potenziale kaum erkennt

Das Potenzial von IoT-Technologien wird nur teilweise erkannt und es gibt große Unterschiede zwischen den verschiedenen Branchen: Als Treiber von IoT-Projekten sind klar die beiden Branchen Fertigung und Logistik erkennbar. Versicherungen, der Handel und das Gesundheitswesen hinken hingegen mit wenig konkreten Aktivitäten hinsichtlich der Nutzung vom Internet der Dinge in Deutschland zum Teil deutlich hinterher.

Sagt der Rasenmäher zur Laterne

Lesetipp Maschinen und Dinge kommunizieren miteinander. Produktion, Produkte und Entwicklung vernetzen sich. Das ist Industrie 4.0. Nur ein strapazierter Begriff oder steht die Arbeitswelt endgültig vor einem dramatischen Umbruch? Mit dieser Frage beschäftigt sich unser Gastautor Prof. Rainer Neumann, Professor für Wirtschaftsinformatik an der Hochschule Karlsruhe, in diesem Artikel.
Umsatzsteigerung durch die Bereitstellung besserer Produkte und Dienstleistungen sowie Effizienzverbesserungen durch eine schnellere interne Datenversorgung sind die beiden Kernziele, die mit dem Einsatz von IoT verfolgt werden. Zwar noch nicht derzeit, jedoch binnen fünf Jahren sehen Unternehmen hier erhebliche Potenziale. Konkrete Projekte zeigen, dass vor allem die Effizienzerhöhung und Prozessüberwachung vorangetrieben werden sollen. Die Bewertung des Nutzens und das Kostenrisiko stellen für Unternehmen aller Branchen das größte Hemmnis dar, das Internet der Dinge zu nutzen. Zudem fürchten viele Unternehmen, nicht das notwendige Know-how zu haben, um IoT effektiv zu nutzen.

Der Beitrag IoT – Sind deutsche Unternehmen bereit? erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

PDF – Ein Format, viele Möglichkeiten

16. Februar 2017 Posted by Bernd Hesse

Was sind eigentlich PDF bzw. PDF/A?

Langzeitarchivierung kommt ohne PDF/A-Standard nicht aus

Wir sind tagtäglich mit einer Vielzahl unterschiedlicher Inhalte konfrontiert: E-Mails, CAD-Dateien, JPGs und andere Bildformate sowie Office-Dateien in verschiedenen Varianten. Viele von ihnen müssen aus rechtlichen Gründen aufbewahrt werden – Rechnungen und Verträge zum Beispiel. Werden diese Dokumente in ihrem ursprünglichen Format aufbewahrt, so ist die Gefahr groß, dass sie nach Jahren nicht mehr lesbar sind. Und damit ist nicht unbedingt nur die physikalische Haltbarkeit der Datenträger gemeint. Denn es ist fraglich, ob heutige digitale Speichermedien aufgrund regelmäßiger Aktualisierung von Programmen in ein paar Jahren überhaupt noch geöffnet werden können. Denken Sie zum Beispiel einmal daran, dass Sie zwar Dokumente, die mit Microsoft Word Version 1997 erstellt worden sind, noch mit der Programmversionen 2013 öffnen können – andersherum dürften Sie aufgrund fehlender Abwärtskompatibilität deutliche Schwierigkeiten haben.

Die Haltbarkeit der Trägermedien und der schnelle Medien- und Systemwandel sind zwei Probleme, die der Langzeitarchivierung digitaler Inhalte im Wege stehen. Obendrein ist nicht jedes Dateiformat auch für die zukunftssichere Aufbewahrung von Inhalten gleichermaßen geeignet: Können beispielsweise verknüpfte, externe Bilder nicht gefunden werden, wird die Seite nicht wie gewünscht angezeigt. Eine revisionssichere Aufbewahrung wäre damit gescheitert. Aus diesem Grund ist für die Archivierung eine konsequente Konvertierung in ein Format notwendig, welches die langfristige Reproduzierbar- und Lesbarkeit sicherstellt. Der ISO-Standard PDF/A ist hierfür das Format erster Wahl.

Durchbruch bei der Aufbewahrung von Dateien

PDF/A-Standard 1993 entwickelte Adobe Systems das PDF – ein plattformunabhängiges Dateiformat für elektronische Schriftstücke.

Es ermöglicht bis heute ein Schriftstück unabhängig vom ursprünglichen Anwendungsprogramm, vom Betriebssystem oder von der Hardwareplattform originalgetreu wiederzugeben. Nach der Installation von Acrobat Pro stand im Druckdialog in Word die Option PDF zur Verfügung. Mit diesem Format vereinfachte Adobe das Datenmanagement und den Datenaustausch für unterschiedliche Branchen enorm, denn mit dem neuen PDF-Standard ließen sich plötzlich etliche Klippen bei der Dokumentenweitergabe oder der Aufbewahrung von Dateien elegant umschiffen.

Denn während Formate wie Papier, Mikrofilm und das Bildformat TIFF zwar grundsätzlich lange archivier- und reproduzierbar sind und insbesondere TIFF-Dateien im Gegensatz zu Papier schnell und unkompliziert versendet werden kann, ist es nur unter größtem Aufwand möglich, diese klassischen Archivierungsformate nach gezielten Informationen abzusuchen. Ein PDF hingegen ist schnell durchsuchbar und kann neben Text, Bildern und Grafik auch Hilfen enthalten, die die Navigation innerhalb des Schriftstückes erleichtern.

Zahlreiche Vorteile

  • PDF umfasst strukturierte Objekte (Text, Vektorgraphik, gerastertes Bild). Diese ermöglichen eine effiziente Suchabfrage im gesamten Datenarchiv.
  • PDF lässt sich kompakt und effizient komprimieren. Besonders für den elektronischen Datenverkehr, z.B. E-Mail-Anhänge oder via Dateitransfer (FTP), ist die geringere Dateigröße vorteilhaft.
  • Metainformationen (bspw. Verfasser, Thematik, Inhalt, Schlagwörter, Datum der Entstehung) werden direkt in einem standardisierten Format (XMP) in die PDF-Datei eingebettet. Daher lässt sie sich automatisch, systematisch und ohne manuelle Arbeit weiterverarbeiten.
  • Das PDF Format ist in der Regel so konzipiert, dass es nicht an ein bestimmtes Gerät (bzw. Rasterauflösung, Farbsystem) gebunden ist. Dadurch passen sich die PDF Dokumente an die technologische Entwicklung der Ausgabegeräte (Drucker, Bildschirm, Scanner) an und sind auch Jahre nach ihrer Erstellung aktuell.

PDF/A erstellen

Kein Wunder also, dass man begann, das PDF als Standard für Langzeitarchivierung in Betracht zu ziehen. Adobe Systems überarbeitet seit Jahren das PDF immer weiter. Um neue Funktionen zu erweitern und unnötige zu entfernen, war es deshalb unumgänglich, einen dauerhaften, beständigen und international gültigen Standard für die Langzeitarchivierung zu entwickeln. Dieser sollte aufgrund der Vorteile, die das PDF bietet, auf Adobes PDF aufbauen. Das Ergebnis: PDF/A-Standard.

Im September 2005 wurde der PDF/A-Standard für das regelkonforme Archivieren elektronischer Dokumente definiert. Er bewertet und regelt, welche PDF-Funktionen bezüglich der Archivierung sicher sind. Unter Zusammenarbeit von Unternehmen und Organisationen entstand ein plattformunabhängiges Dateiformat für elektronisch archivierte Dokumente. Dieses garantiert eine langfristige Lesbarkeit von Dokumenten – und zwar unabhängig davon, mit welcher Anwendungssoftware und auf welchem Betriebssystem sie ursprünglich erstellt wurden.

Warum PDF/A-Standard und nicht einfach PDF?

Mit seinen Container-Eigenschaften und der Fähigkeit einzelne Bestandteile plattformunabhängig layoutgetreu darzustellen, ist das PDF als Archivdokument ideal geeignet.

Jede PDF/A-Datei ist immer auch eine PDF-Datei

Damit das PDF jedoch eine exakt reproduzierbare Darstellung von Inhalten garantiert, müssen einige bestimmte Vorgaben eingehalten werden. Dazu gehört beispielsweise der vollständige Zugriff auf alle zum Dokument gehörenden Elemente. Schriften beispielsweise müssen eingebettet sein, damit ein Rechner auch in Jahren Sonderzeichen oder Symbole noch richtig darstellt, selbst, wenn die im Dokument vorgesehene Schrift nicht auf dem Rechner installiert ist. Interaktive Elemente oder PDF-Ebenen hingegen sind nicht erlaubt: Interaktive Elemente oder PDF-Ebenen hingegen sind nicht erlaubt: Sie verhindern die Eindeutigkeit, die eine PDF/A-Datei haben muss. Bei einem PDF mit mehreren Ebenen wüsste man beispielsweise bei einer Druckausgabe in 40 Jahren nicht mehr, welche Ebene gelten soll.

Einsatzszenarien: So profitieren wir vom PDF/A-Standard

Da sich ganz unterschiedliche Inhalte als PDF sichern lassen, ist die Norm für alle Branchen geeignet. Ein paar Beispiele sollen die Einsatzmöglichkeiten zeigen – und seien Sie gespannt: Diese gehen über die bloße Archivierung hinaus.

Aufbewahrung von Broschüren, Handbüchern und Bedienungsanleitungen

PDF/A-Standard Mit jedem neu erworbenen Elektrogerät, Möbelstück, Spielzeug oder Sportgerät, kommt mal ein Handzettel, dann ein Booklet und manchmal ein ganzes Pamphlet mit ins Haus. Nun gehört es zum Wesen von papiergebundenen Handbüchern, dass sie immer dann verschwunden sind, wenn sie gebraucht werden. Ein Karton mit allen Anleitungen darin könnte eine Lösung sein. Oder besser noch: Ein Ordner auf der Festplatte. Denn die meisten Hersteller bieten Benutzerhandbücher zum kostenlosen Download auf ihren Webseiten an: Gesichert als PDF und nach Wahl benannt, können sie nicht mehr verlorengehen. Und im Zweifelsfall ist der Computer schneller hochgefahren und das benötigte Stichwort dank Volltextsuche schneller gefunden als die Abstellkammer durchwühlt.

Weitergabe von Druckdaten

Zwar wurde der PDF-Standard häufig zur Archivierung genutzt. Es gibt aber auch Varianten, die im Graphik- und Druckbereich zum Einsatz kommen. Und zwar dann, wenn Sie zum Beispiel Bild- und Druckdaten an Druckereien weitergeben möchten. So garantiert z.B. PDF/X die Konsistenz der Daten. Pannen mit nicht eingebetteten Schriften, die beispielsweise zu „Buchstabensalat“ führen, sind ausgeschlossen. Die vorlagengetreue Übermittlung der Daten bis zum Druck mit farbgetreuer Wiedergabe im CMYK-Farbmodell wird dadurch ermöglicht.

Das Farbmanagement verhindert zu blasse oder zu bunte Farben bzw. Bilder, denn PDF/A sorgt für eine verbindliche Darstellung von Farben. Zudem vermeidet PDF/A viele Verarbeitungsprobleme, die beispielsweise durch passwortgesicherte PDF-Dokumente oder bei der Druckausgabe von Dateien auftreten können.

Umwandlung von E-Mail Anhängen zum Schutz vor Schadcode

PDF/A-Standard Immer häufiger missbrauchen Hacker Office Dokumente, um versteckte Trojaner in Makros zu verbreiten. Die Umwandlung von Office-Dokumenten in PDF kann darin eingebetteten, aktiven Schadcode an seiner Ausführung hindern.

So erlaubt beispielsweise auch unsere Lösung iQ.Suite Convert die Umwandlung von E-Mail-Anhängen ins PDF- oder ZIP-Format. E-Mails mit potentiell gefährlichen Office Dokumenten werden angehalten und mit iQ.Suite Convert in PDF umgewandelt. Der Empfänger erhält den ursprünglichen Anhang als PDF-Datei. Aktiver Schadcode ist nun keine Bedrohung mehr. Eine Antivirus-Lösung, wie beispielsweise unsere iQ.Suite Watchdog, kann anschließend den originalen E-Mail-Anhang einer erneuten Virus-Prüfung unterziehen. Wird die Datei dabei als ungefährlich bewertet, erfolgt die Zustellung an den Empfänger im ursprünglichen Format.

Vereinheitlichung von Dateiformaten

Apropos E-Mail-Anhänge: Es ist nicht immer sinnvoll, E-Mail-Anhänge im Original zu versenden. Insbesondere wenn der Empfänger Historien in Office-Dokumenten nicht sehen soll oder sichergestellt werden soll, dass dem Empfänger der Anhang so dargestellt wird, wie der Autor es vorgesehen hat, ist PDF eine sinnvolle Alternative. Ob Office Dokumente oder Bilder – unzählige Formate lassen sich konvertieren und als PDF versenden. Übrigens übernimmt auch iQ.Suite Convert diese Aufgabe, wobei Sie selbst anhand von Dateityp oder -größe entscheiden, welche Anhänge umgewandelt werden.

PDF-basierte E-Mail-Verschlüsselung

Der sichere Versand von E-Mails an Kunden ohne eigene Verschlüsselungslösung ist für viele Unternehmen eine Herausforderung. Denn entweder sind die verwendeten Lösungen zu komplex und stören durch ihr aufwändiges Schlüsselmanagement einen reibungslosen Ablauf. Oder es ist nicht sichergestellt, dass beide Kommunikationspartner das identische Verfahren bzw. die gleiche Software einsetzen.

PDF/A-Standard Eine Verschlüsselungslösung, die solche Hindernisse überwindet, ist unser iQ.Suite PDFCrypt. Zur Verschlüsselung von E-Mails setzt sie auf den PDF-Standard und kommt deshalb ohne Schlüssel, Zertifikate oder Installation von Software auf Empfängerseite aus. Eine E-Mail wird inklusive ihrer Anhänge automatisiert in eine verschlüsselte PDF-Datei umgewandelt und dem Empfänger zugestellt. Wie es dem Wesen des PDFs entspricht, bleiben dabei alle Anhänge in ihrem ursprünglichen Format erhalten. Der Empfänger öffnet dann einfach mit Hilfe eines PDF-Readers und eines ihm zugesandten Passworts die verschlüsselte PDF-Datei im Mail-Client.

Hochvolumige Herstellung von Archiv-PDF-Dateien

Der PDF- bzw. PDF/A-Standard eignet sich auch zur Archivierung von Inhalten nicht länger benötigter Geschäftsanwendungen. Wir haben uns diese Eigenschaften beispielsweise zunutze gemacht, um ganze Geschäftsanwendungen zu archivieren. Konkret nutzen wir diese Technologien im GBS Retirement Manager, mit dessen Hilfe ungenutzte IBM Notes Datenbanken abgeschaltet und die Inhalte in ein einheitliches PDF-Format überführt werden, wodurch eine zukünftige, plattformübergreifende Nutzung überhaupt erst möglich wird. Denn im PDF-Standard bleiben nicht nur die Inhalte und zusätzliche Metadaten erhalten, sondern auch das originale Erscheinungsbild. Gleichzeitig erfüllt das langlebige PDF/A-Format auch hier höchste Revisionssicherheit. Die erzeugten PDF-Dateien können in Kombination mit dem GBS AppDesigner dann sogar im Browser zugänglich gemacht und Anwendern in Microsoft SharePoint oder IBM Connections zur Verfügung gestellt werden.

Für welche Anwendungsfälle nutzen Sie das PDF-Format? Wir freuen uns über Ihren Kommentar.

Der Beitrag PDF – Ein Format, viele Möglichkeiten erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Digitalisierung: Jobkiller oder Heilsbringer?

19. Januar 2017 Posted by Diana Jensen

Digitale Transformation Banner

Digitalkompetenz ist gefragt

Digitalisierung verändert Arbeit

Ende des 20. Jahrhunderts hat die 4. Industrielle Revolution begonnen. Ihr Fokus liegt auf zunehmender Digitalisierung analoger Techniken und der Verknüpfung von Alltagsgegenständen mit intelligenten Steuerungsprozessen. Die Vorstellung, dass dieser Fortschritt Arbeitsplätze vernichten würde, beziehungsweise Digitalisierung ein Jobkiller sei, hält sich beständig. Was aber wäre, wenn die Arbeitsplätze gar nicht verschwinden, sondern sich die Arbeit nur ändert?

5 Millionen Jobs bis 2020 in Gefahr

Es klingt schon beängstigend: Die fortschreitende Digitalisierung in Fabriken und Büros könnte einer „Studie des Weltwirtschaftsforums“ zufolge bis 2020 mehr als fünf Millionen Jobs kosten. Auch die beiden Wissenschaftler Carl Frey und Michael Osborne der Universität Oxford prophezeiten 2013 in ihrer Studie „The Future of Employment“ Düsteres: 47 Prozent aller Arbeitsplätze in den USA könnten bis Mitte der 2030er Jahre durch intelligente Roboter oder Software ersetzt und damit verloren gehen.

1,4 Millionen neue Industrieroboter bis 2019

unverzichtbares Zahnrad im Digitalisierungsgetriebe Wie zudem der „World Robotics Report 2016“ zeigt, sollen bis 2019 1,4 Millionen neue Industrieroboter weltweit ihre Arbeit aufnehmen. Bereits jetzt befinden sich 65 Prozent der Länder, die eine überdurchschnittlich hohe Anzahl an Industrierobotern pro 10.000 Angestellten haben, in der EU. Deutschland ist noch vor Frankreich in Europa führend, was den Einsatz von Industrierobotern angeht und steht weltweit auf Rang 4 hinter Japan, Südkorea und den USA.

Wirtschaftstheoretische Überlegungen: Steigt der Bedarf an Arbeitskräften?

Und nun stellen Sie sich vor, dass eine Automatisierung der Produktion – zum Beispiel durch Roboter – zu sinkenden Produktions- und Fertigungskosten führt. Damit würden auch die Angebotspreise sinken. Spinnen wir den Faden weiter, müsste sich logischerweise nun auch die Nachfrage erhöhen. In der Konsequenz resultiert dies auf Unternehmensseite in einem Anstieg der Arbeitsnachfrage oder anders ausgedrückt: in einem Bedarf an Arbeitskräften. Die Idee ist gar nicht so weit hergeholt, denn das war schon einmal so – vor rund 200 Jahren, als die Industrielle Revolution begann und zu drastischen Umbrüchen der wirtschaftlichen und sozialen Verhältnisse, Lebensumstände und Arbeitsbedingungen führte.

Blick zurück: Arbeitsplätze und Wohlstand statt Massenarbeitslosigkeit

Ängste vor Massenarbeitslosigkeit hat es immer gegeben, auch zu Beginn des 19. Jahrhunderts, als das Zeitalter der Industrialisierung begann. Und was ist passiert? Das genaue Gegenteil: Mit Erfindung der Dampfmaschine hat die Zahl der Arbeitsplätze zu- statt abgenommen. Die Arbeitsproduktivität wuchs enorm, während gleichzeitig die Bevölkerungszahlen explosionsartig stiegen und der Wohlstand der Beschäftigten zunahm. Die Einführung der Elektrizität als Antriebskraft Ende des 19. Jahrhundert, die die Arbeit weiter automatisierte, befeuerte diese positiven Effekte sogar noch einmal!

Ein paar Zahlen und Beispiele aus Deutschland gefällig? Im Bergbau stieg die Zahl der Beschäftigen zwischen 1865 und 1913 von 209.000 auf 863.000, in der metallerzeugenden Industrie verdreifachte sich die Zahl der Arbeiter und Angestellten im gleichen Zeitraum von 150.000 auf 443.000. Auch die Beschäftigtenzahlen in der Bekleidungsindustrie legten von knapp 1,1 Millionen (1875) auf gut 1,5 Millionen (1913) ordentlich zu. Eine beachtliche Ausdehnung erlebte in dieser Zeit auch die Bauindustrie von 530.000 auf 1,63 Millionen Beschäftigte. Die Hitliste der Zuwächse führt die Chemieindustrie an: Zwischen 1875 und 1913 verzeichnete sie einen Anstieg von 65.000 auf 290.000 Beschäftigte.

Die Eisenbahn, vielleicht bedeutendste Erfindung der Industriellen Revolution, ermöglichte nicht nur einen schnellen Transport von Rohstoffen, Waren und Menschen, sondern auch einen deutlich billigeren: Die Transportkosten je Tonnenkilometer sanken von 10,1 Pfennig im Jahr 1850 auf 3,6 Pfennig im Jahr 1913! Die Nachfrage nach Maschinen, Stahl und Eisen, unter anderem zum Bau von Eisenbahnstrecken, Lokomotiven und Wagen stieg infolgedessen enorm. Zwar wurden Kutscher arbeitslos, weil der Transport mit Pferdewagen nicht mehr konkurrenzfähig war, es entstanden aber neue Berufe wie der des Lokführers oder Heizers – wenngleich letzterer mit Einführung von Diesel- und Elektrolokomotiven auch schon wieder verschwunden ist (Quelle).

Wer redet denn von Entlassung?

Die Rechnung all der Pessimisten, die davon überzeugt sind, jeder zweite Job würde verschwinden und den Industrieländern drohe eine bisher noch nie dagewesene Massenarbeitslosigkeit, ist wohl doch zu einfach. Denn die Vergangenheit lehrt, dass trotz einschneidender Umbrüche neue Berufe entstehen und bestehende Berufe einem andauernden Wandel unterzogen sind.

Zahlen des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) belegen: Schätzungsweise arbeiten lediglich 0,4 Prozent der Beschäftigten in Berufen, die durch Digitalisierung komplett verschwinden könnten und 15 Prozent in Berufen, in denen mehr als 70 Prozent der Tätigkeiten digitalisiert werden können. Bei etwa 45 Prozent der Beschäftigten können zwischen 30 und 70 Prozent der Tätigkeiten digitalisiert werden, bei allen anderen ist der Digitalisierungsanteil sogar noch kleiner – ganz besonders im Bildungs- und Sozialbereich. Denn ganz ehrlich: Würden Sie Ihr Kind oder Ihre pflegebedürftige Mutter der Obhut eines Roboters überlassen?

Berufe im Wandel

Aus dem Automechaniker ist längst schon der KfZ-Mechatroniker geworden, aus dem Müller der Verfahrenstechnologe in der Mühlen- und Futtermittelwirtschaft, der Lackierer Holz und Metall darf sich heute Verfahrensmechaniker für Beschichtungstechnik nennen und der Medientechnologe Druck wurde einmal Drucker genannt. Von einem Jobsterben aufgrund zunehmender Digitalisierung kann also keine Rede sein – von einem Wandel der Tätigkeitsfelder und neuen Anforderungsprofilen aber schon. Denn ganz gleich ob in der Automobilindustrie, im Handwerk und Handel oder im Maschinenbau: Überall spielt IT – hier in Form von Software – eine immer entscheidendere Rolle.

Die Bitkom hat in ihrer Präsentation „Neue Arbeit – wie die Digitalisierung unsere Jobs verändert“ anschaulich skizziert, wie sich auch andere Berufe mit zunehmender Digitalisierung wahrscheinlich entwickeln könnten. Da wäre beispielsweise der Lkw-Fahrer, der nicht mehr nur das Fahrzeug steuern und die Ladung aufnehmen und wieder abgeben wird. Während autonom oder halbautonom fahrende LKWs von A nach B rollen, wird der Fahrer stattdessen zum mobilen Büroangestellten, der während der Fahrt Fracht und Route plant, und allerhöchstens noch im Notfall ins Steuer eingreifen wird. Auch die Aufgaben der Zahnarzthelferin ändern sich: Wo sie heute noch Gebissabdrücke von Patienten nimmt und sich um den Versand ins Labor kümmert, wird sie morgen schon wie selbstverständlich digitale Röntgengeräte bedienen und Kronen oder Implantate am 3D-Drucker erzeugen.

Die neuen Jobprofile

Eine Branche, die sogar dauerhaft wächst, ist die deutsche ITK-Branche. Nach Angaben des IT-Branchenverbands Bitkom wurden in den vergangenen fünf Jahren 136.000 neue Arbeitsplätze geschaffen – heute haben mehr als eine Million Menschen einen IT-Beruf. So gibt es zahlreiche Jobprofile, die durch die Digitalisierung in den vergangenen 10 Jahren völlig neu entstanden sind. Darunter fallen zum Beispiel Berufe wie der Chief Digital Officer, die Datamining Spezialistin, der Mobile Developer, der Koordinator Roboter und die 3D-Druckspezialistin. Gut möglich also dass die Digitalisierung noch weitere Jobs hervorbringt, von denen wir heute nicht einmal etwas ahnen.

Tatsächlich rechnet nach Informationen des Digitalverbands Bitkom jedes zweite Unternehmen (54 Prozent) damit, dass es in den kommenden zehn Jahren mehr Arbeitsplätze für gut ausgebildete Beschäftigte geben wird. Die Anzahl der Beschäftigten mit geringen Qualifikationen und unterstützenden Tätigkeiten wird dagegen sinken, davon gehen zwei Drittel der Befragten (68 Prozent) aus. Bereits heute ist beispielsweise der Beruf der Stenotypistin, der des Schriftsetzers oder der der zentralen Telefonvermittlerin verschwunden.

Digitale Kompetenzen werden folglich einen entscheidenden Einfluss auf die Aus- und Weiterbildung in der Zukunft haben. Denn dass durch die Digitalisierung vor allem einfache Tätigkeiten bedroht sind, die sich billiger und vielfach auch besser durch Maschinen erledigen lassen, ist ebenso wenig überraschend wie die Tatsache, dass eine gute Qualifizierung beziehungsweise ein hohes Ausbildungsniveau bessere Chancen auf komplexer werdende, verantwortungsvollere Berufe eröffnet.

Digitalkompetenz als entscheidender Faktor

Alte Berufe mit neuen Herausforderungen

Dass es ohne Digitalkompetenz im Berufsleben künftig nicht mehr gehen wird, ist klar. Entsprechend große Bedeutung messen die von Bitkom befragten Unternehmen deshalb der Weiterbildung rund um Digitalthemen zu. 97 Prozent halten diese für qualifizierte Fachkräfte im Unternehmen für wichtig, jeweils rund drei Viertel für Führungskräfte (77 Prozent) und gering Qualifizierte (71 Prozent).

Auch die US-amerikanische Initiative Top Ten Online Colleges hat sich dieses Themas angenommen und die – ihrer Meinung nach – wichtigsten Fähigkeiten von Arbeitskräften im Jahr 2020 skizziert. Sie gehen unter anderem davon aus, dass neue digitale Kommunikationswege den Beschäftigten künftig ein größeres IT-Verständnis abverlangen werden. Aufgrund der fortschreitenden globalen Vernetzung werden Arbeitnehmer zudem ein stärkeres interkulturelles Verständnis für andere Kollegen und Geschäftspartner entwickeln müssen.

Fazit: Nicht weniger Arbeit, sondern andere

Die Joblandschaft wird sich dramatisch verändern. Arbeitsplätze gehen kaum verloren – wo sie wegfallen werden sie entweder durch neue substituiert oder dem Wandel angepasst. Beschäftigte müssten sich aber beruflich völlig neu orientieren. Gebraucht werden künftig Mitarbeiter mit IT-Kenntnissen – Mitarbeiter, die Daten analysieren und interpretieren können sowie ein Verständnis für Maschineninteraktionen haben.

Das alles geht nicht von heute auf morgen und schon gar nicht darf eine entsprechende Weiterbildung oder Aneignung von Digitalkompetenz dem Einzelnen überlassen bleiben. Wir sehen einen Handlungsbedarf nicht nur im Bereich der Technologie, sondern ganz entscheidend auch im Bereich der Weiterbildung und betrieblichen Organisationsmodellen: Politik und Wirtschaft sind hier gleichermaßen gefragt.

Verschlafen Unternehmen den digitalen Wandel?

LesetippUnter dem Motto: „Wir gestalten jetzt, wie wir zukünftig arbeiten“, erschien Ende 2016 der Digital Working Report. Die wichtigsten Erkenntnisse hieraus erfahren Sie hier.

Der Beitrag Digitalisierung: Jobkiller oder Heilsbringer? erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.

Top 10 IT-Trends 2017: Prophezeiung führender Analystenhäuser

12. Januar 2017 Posted by Corinna Barth

Die Top 10 IT-Trends 2017

Zunehmende Notwendigkeit der Digitalisierung

Namhafte Analysten und Unternehmensberatungen haben die wichtigsten IT-Trends 2017 identifiziert. Auch die Experten von Forrester Research haben ihre Studie „The top technology trends to watch: 2016 to 2018“ vorgelegt. Wir haben uns das Paper für Sie angesehen und stellen Ihnen die wichtigsten Erkenntnisse im heutigen Blogbeitrag vor.

Jedes fünfte B2B-Unternehmen in IT-Kinderschuhen

Laut Forrester drehen sich die IT-Trends 2017 allesamt um Vernetzung, Kundenorientierung und die wachsende Rolle der IT in der Markenbildung. Der Kunde rückt immer stärker in den Mittelpunkt. Wir finden, dass sich das durchaus gut anhört – beim Blick auf den Digitalisierungsgrad wird uns allerdings Bange: Trotz der zunehmenden Notwendigkeit der Digitalisierung befindet sich laut der US-Analysten noch immer jedes fünfte B2B-Unternehmen in „IT-Kinderschuhen“!

Die Top 10 IT-Trends 2017

1. Konnektivität

Zwar entwickelt sich dieser Trend noch langsam, aber dafür beständig: Vernetzte und smarte Produkte, die Unternehmen neue Kundendaten liefern und Kunden binden sollen, liegen 2017 im Trend.

2. Datenanalyse-Software

Das Sammeln von Kundendaten ist eine große Herausforderung für Unternehmen – aber gleichzeitig auch von höchster Wichtigkeit für sie. Denn diese Daten bilden eine wichtige Entscheidungsgrundlage für die gezielte Weiterentwicklung von Business-Software und der Entwicklung ihrer Marken. Forrester geht davon aus, dass Insel-Lösungen Platz für „Systems of Insight“ machen werden. Ziel wird es nach Meinung der Experten sein, Insight-to-Execution-Prozesse zu etablieren.

Über 60 Prozent derjenigen, die kollaborativ arbeiten, geben in der Digital-Working-Studie zudem an, dass das gemeinsame Erstellen von Dokumenten im Team unter den jetzigen Bedingungen oft umständlich und zeitaufwändig sei. 55 Prozent beklagen eine hohe Fehlerrate und zwei Drittel sind genervt, dass sie die Änderungen der Kollegen nicht nachvollziehen können. Der Einsatz von Bots und kognitiven Systemen kann die Chance sein, Wissensarbeiter zu unterstützen und durch Automation von Routineprozessen zu entlasten.

3. APIs

Die Relevanz von Progammierschnittstellen (APIs) in der IT-Welt ist erkannt. Nach Forrester ist die Saxo Bank aus Dänemark dafür geradezu ein Paradebeispiel: Die Bank hat ihre Trading-Plattform von der Kundenschnittstelle getrennt und es dadurch geschafft, ihren Kunden höhere Benutzerfreundlichkeit zu bieten sowie technologische Änderungen auf der Handels-Plattform umzusetzen, ohne dass der Kunde davon etwas mitbekommt.

4. Customer Experience

Die Generierung von positiven Erfahrungen der Kunden, um eine emotionale Bindung an das Unternehmen zu erreichen, ist bekannt. Die Investitionen dafür in Mobile IT, Social und Analytics sind hoch. Als neuen Trend prophezeit Forrester nun, dass Unternehmen zunehmend das End-to-Prinzip einsetzen, also die genutzte Software aus Nutzerperspektive hin optimieren werden.

Kundenerlebnis im Fokus

5. Sicherheit und Risiko

Mit zunehmender Digitalisierung steigen die Anforderungen an Sicherheit und Risiko. Die Forrester-Analysten gehen davon aus, dass „Zero Trust“ die Richtung vorgeben wird. Damit ist der Ansatz „Never trust, always verify“ gemeint – und zwar nicht nur die technische Sicherheit von IT-Systemen, sondern auch was das Verhalten von Anwendern betrifft.

6. Hypervernetzte Kunden

Der Verbraucher von heute ist bestens informiert und weiß ganz genau, wann welche Produkte in welchen Online-Shops am günstigsten sind – davon sind die Forrester-Analysten überzeugt. Das wiederum bedeutet für Unternehmen, dass sie Kundenwünsche, -wahrnehmungen und -gewohnheiten sehr genau einschätzen müssen. Hierbei hilft ihnen die exakte Analyse der Kundenhistorien.

7. Technologischer Reifegrad

Unternehmen müssen neue Technologien für den Endkunden entwickeln und dabei sowohl mit Cloud Computing als auch mit schnellen Plattformen für den Kunden arbeiten. Parallel dazu dürfen sie die traditionelle IT und deren Ziele nicht vernachlässigen. Forrester nennt diesen Trend „duale Agenda des Tech-Managements“ – Ihnen ist er eventuell eher bekannt unter dem Begriff der „IT der zwei Geschwindigkeiten“.

8. Infrastruktur

Alles dreht sich in diesem Jahr um Modernisierung. Dafür müssen CIOs den Schritt zur Cloud- und Software-definierten Infrastruktur (SDI) für Netzwerk, Server und Speicherplatz gehen. Forrester spricht in diesem Zusammenhang von der „Infrastructure-as-code“-Bewegung.

9. Software und Markenbildung

Everything must be smart“, meinen die Analysten von Forrester. Damit sich Unternehmen bei den Digital Natives – der jungen Generation – positionieren, müssen CIOs die Konnektivität nutzen und ihre Produkte und Services digital verbessern. Dann klappt laut Forrester auch das Zusammenspiel zwischen Digitalisierung und der Marke.

digitale Konnektivität

10. BYOD

„Bring your own Device“ (BYOD) wird sich nach Einschätzung von Forrester im Jahresverlauf etabliert haben. Jetzt geht es darum, die eigenen Geräte der Mitarbeiter am Arbeitsplatz zu integrieren und die Nutzung zu organisieren. Ziel ist es, Zusammenarbeit und Produktivität zu steigern.

Und die anderen?

Nicht nur Forrester, auch die Experten anderer Beratungshäuser, wie beispielsweise Gartner, IDC, PAC und PwC, haben für 2017 bereits umfangreiche Prognosen über die wichtigsten Entwicklungen abgegeben.

Auch wenn wir nicht auf jedes Detail eingehen können – das würde an dieser Stelle den Platz sprengen – so ist doch eines auffällig: Die Themen Agilität, Geschwindigkeit, Kundennähe und Innovation sind in allen Prognosen tonangebend und stehen auf der Agenda der meisten CIOs ganz oben. Unternehmen müssen Plattformen bauen und sich in digitalen Ökosystemen vernetzen.

Das sagen die Analysten von …

… PAC: Verschiebung von IT-Geldern

Nach Einschätzung der Pierre Audoin Consultants (PAC) werden die IT-Budgets in deutschen Großunternehmen im nächsten Jahr durchschnittlich um etwa drei Prozent wachsen. Allerdings kommt es dabei stark auf das Segment an: Während die Ausgaben für den Betrieb von Altsystemen (Legacy IT), die aktuell immer noch rund 70 Prozent des IT-Budgets ausmachen, um fünf Prozent sinken, erwarten die Analysten einen Anstieg der Ausgaben für Fast-IT-Themen, zum Beispiel Digitalisierung, Big Data, Mobility, Analytics, um 25 Prozent.

Kein Wunder, denn schließlich müssen nach Meinung der französischen Unternehmensberatung deutsche Unternehmen ihr gesamtes Fundament erneuern, um in Sachen Customer Experience wettbewerbsfähig zu bleiben: Backend-Prozesse müssen digitalisiert, ein Wandel in der Unternehmenskultur vollzogen und Arbeitsumgebungen modernisiert werden.

… PwC: acht Technologien werden die Welt verändern

Künstliche Intelligenz, Augmented Reality, Virtuelle Realität, Blockchain, Drohnen, das Internet der Dinge, Roboter und der 3D-Druck werden nach Auffassung der PwC-Analysten signifikanten Einfluss auf das Geschäftsmodell von Unternehmen haben. Unternehmen werden in 2017 sowie in den Folgejahren eine Strategie finden müssen, wie sie diese neuen Technologien für sich nutzen.

Während die genannten Technologien bereits heute Einfluss auf die Kundenbeziehung bzw. die Interaktion von Unternehmen mit ihren Kunden haben, so werden im Bereich der Leistungserbringung Künstliche Intelligenz, Roboter, Drohnen und 3D-Druck die operative Effizienz weiter verbessern. Als Technik-Experten müssen CIOs laut der PwC-Consultants die technologischen Entwicklungen identifizieren und hinsichtlich Wert, Reife und Relevanz für das eigene Unternehmen verstehen und bewerten.

… IDC: Der Fokus liegt auf Innovation und Transformation

Die digitale Transformation ist von zunehmender Geschwindigkeit geprägt. Sie wird nach Einschätzung der IDC-Experten Kernerfolgsfaktor sämtlicher Anstrengungen und gehört deshalb auf die Agenda von CIOs. IDC zufolge werden Unternehmen zudem nur wettbewerbsfähig bleiben, wenn sie den End-Kunden in den Mittelpunkt aller Aktivitäten rücken – und das gilt auch für B2B-Unternehmen.

Dabei sollten sich CIOs auf drei Aufgaben konzentrieren: Innovate (Innovationen fördern), Integrate (neue Technologien und Plattformen integrieren) und Incorporate (neue Formen der Zusammenarbeit etablieren). IDC nennt zu diesen Trends auch konkrete Zahlen: So werden bis 2018 45 Prozent der CIOs Plattformen in den Mittelpunkt stellen und 65 Prozent der IT-Abteilungen neue Services einführen, die den Kunden und das geschäftliche Ökosystem adressieren. Bis 2019 werden 75 Prozent der IT-Ausgaben für Technologien und Services der Dritten Plattform aufgewendet und 40 Prozent der IT Projekte werden neue digitale Services und Umsatzströme generieren. Dabei werden 67 Prozent der IT-Aufwendungen cloudbasiert sein.

… Gartner: Intelligence Everywhere

Top 10 Strategic Technology Trends 2017 Die wichtigsten strategischen Technologie-Trends für 2017 sind laut Gartner: Künstliche Intelligenz und erweitertes maschinelles Lernen, intelligente Applikationen, Virtual Reality & Augmented Reality, Digitale Zwillinge, Blockchain und Distributed Ledgers, Konversationssysteme, Mesh-Apps und Service-Architektur, Digitale Technologieplattformen sowie Adaptive Sicherheitsarchitektur.

David Cearley, Vice President und Gartner Fellow, erläutert diese Trends laut dem Online-Magazin manage-it.de so: „Die ersten drei Top-Trends umfassen das Thema ›Intelligence Everywhere‹ und zeigen auf, wie sich die Technologien sowie Vorgehensweisen für wissenschaftliche Daten immer weiterentwickeln, um Technologien wie Advanced Machine Learning und künstliche Intelligenz zu integrieren. So ist es ihnen möglich, intelligente physische und auf Software basierende Systeme zu erstellen, die darauf programmiert sind, zu lernen und sich anzupassen. Die darauffolgenden drei Top-Trends konzentrieren sich auf die digitale Welt und darauf, wie die physischen sowie digitalen Welten immer weiter miteinander verknüpft werden. Die letzten vier Trends fokussieren sich auf ein Netz aus Plattformen und Services, die für die Versorgung des Intelligent Digital Meshs benötigt werden.“

Fazit der IT-Trends 2017

Die digitale Transformation findet sich in 2017 endgültig auf der To-Do-Liste. Optimierung und Kostensenkung hingehen treten zurück. Dafür werden sich nach Experten-Meinung dann auch die Budgets verschieben: Unternehmen sparen beim Betrieb von Altsystemen und investieren stattdessen in Themen wie dem Internet der Dinge, Big Data, Customer Experience und Analytics.

Geschwindigkeit wird zudem zum Erfolgsfaktor von Unternehmen: CIOs müssen in eine IT der zwei Geschwindigkeiten investieren, damit die digitale Transformation das Tagesgeschäft unterstützen kann.

Der Beitrag Top 10 IT-Trends 2017: Prophezeiung führender Analystenhäuser erschien zuerst auf GBS - Der Blog rund um Security, Collaboration & Co.