Archive for: ‘Mai 2021’

Upload/Download your Azure Storage files by using Azure Data Lake Storage Plugin with Workload Automation

19. Mai 2021 Posted by Shubham Chaurasia

Let us begin with understanding of Azure what it is all about before moving to our Azure Storage plugin and how it benefits our workload automation users.

“Azure is an open and flexible cloud platform that enables you to quickly build, deploy and manage applications across a global network of Microsoft-managed datacentres. You can build applications using any language, tool, or framework. And you can integrate your public cloud applications with your existing IT environment.”

Azure is incredibly flexible, and allows you to use multiple languages, frameworks, and tools to create the customised applications that you need. As a platform, it also allows you to scale applications up with unlimited servers and storage.

What is an Azure Storage Account?

The Azure Storage platform is Microsoft’s cloud storage solution for modern data storage scenarios. Core storage services offer a massively scalable object store for data objects, disk storage for Azure virtual machines (VMs), a file system service for the cloud, a messaging store for reliable messaging, and a NoSQL store.

An Azure storage account contains all your Azure Storage data objects: blobs, files, queues, tables, and disks. The storage account provides a unique namespace for your Azure Storage data that is accessible from anywhere in the world over HTTP or HTTPS. Data in your Azure storage account is durable and highly available, secure, and massively scalable.

Core storage services

The Azure Storage platform includes the following data services:

  • Azure Blobs: A massively scalable object store for text and binary data. Also includes support for big data analytics through Data Lake Storage Gen2.
  • Azure Files: Managed file shares for cloud or on-premises deployments.
  • Azure Queues: A messaging store for reliable messaging between application components.
  • Azure Tables: A NoSQL store for schemeless storage of structured data.
  • Azure Disks: Block-level storage volumes for Azure VMs.

Introduction to Azure Data Lake Storage Gen2

Azure Data Lake Storage Gen2 is a set of capabilities dedicated to big data analytics, built on Azure Blob storage. Data Lake Storage Gen2 converges the capabilities of Azure Data Lake Storage Gen1 with Azure Blob storage. For example, Data Lake Storage Gen2 provides file system semantics, file-level security, and scale. Since these capabilities are built on Blob storage, it provides low-cost, tiered storage, with high availability/disaster recovery capabilities.

Figure 1 Azure Data Lake gen2

Let us clearly understand the benefits with the following example:

Cloud computing has enabled many teams to adopt agile development methods. They need to repeatedly deploy their solutions to the cloud, and know their infrastructure is in a reliable state. As infrastructure has become part of the iterative process, the division between operations and development has disappeared. Teams need to manage infrastructure and application code through a unified process.

To meet these challenges, you can automate upload/download multiples files and use the practice of infrastructure as code.

Using Azure SPN (Service principal Name) credentials or access key user can login and can select the available container in the storage account (Azure).

Instead of using Azure portal, you can upload/download an existing file by using Azure Storage plugin with workload Automation. Using Azure SPN credentials or access key, user can login and can see all the available files in the server (Azure Storage – Data lake gen2).

Let us begin with our plugin part with job definition parameters

Azure Storage Plugin

Log in to the Dynamic Workload Console and open the Workload Designer. Choose to create a new job and select “Azure Data Lake Storage Plugin” job type in the Cloud section.

Figure 2 Job Definition

Connection Tab

Establishing connection to the Azure server:

Connection Info

Use this section to connect to the Azure server.

Subscription – The ID that uniquely identifies your subscription to Azure. This attribute is required. If not specified in the job definition, it must be supplied in the plug-in properties file.

Client – The Azure Client ID associated to your SPN account. This attribute is required. If not specified in the job definition, it must be supplied in the plug-in properties file.

Tenant – The Azure Tenant ID associated to your SPN account. This attribute is required. If not specified in the job definition, it must be supplied in the plug-in properties file.

Password (Key) – The Azure Client Secret Key associated to your SPN account. This attribute is required. If not specified in the job definition, it must be supplied in the plug-in properties file. This is also known as client key.

Account Name – The account name associated to your Azure Data Storage account.

Test Connection – Click to verify that the connection to the Azure server works correctly.

Figure 3 connection tab – SPN

OR

Access Key Authentication

Account Name – The account name associated to your Azure Data Storage account.

Access Key – Use this option to authorize access to data in your storage account.

Figure 4 Connection Tab – Access key

Action Tab

Use this section to define the operation details.

Operation

Container Name– Specify the name of the container in which the files are stored. Click the Select button to choose the container name defined in the cloud console. Select an item from the list, the selected item is displayed in the Container Name field.

Figure 5 Action Tab – Select Container

Select Operations

-Use this section to either upload or download objects.

Figure 6 Action tab – upload

Upload File – Click this radio button to upload files to the Storage Account.

Folder Location Inside Container– Enter the name of the file to be uploaded or the path of the file stored. Click the Search button to choose the file name defined in the cloud console. Select an item from the list, you can select multiple files. The selected item is displayed in the Folder Location Inside Container field.

Source File Paths – Displays the path of the source file. You can use the filter option to streamline your search.

If a file already exists– Select an appropriate option for the application to perform if the uploaded file already exists in the console.

· Replace – Selecting this option replaces the already existing file in the console.

· Skip – Selecting this option skips the upload of the selected file in the console.

Download File – Click this radio button to download files from the Storage Account.

Figure 7- Action tab – Download

Select Files– Click the Select Files button to choose the file name defined in the cloud.

Destination File Path – Provide the location to download or upload files. Click the Select button to choose the location of the source file, the selected item is displayed in the Destination File Path field.

Submitting your job

It is time to Submit your job into the current plan. You can add your job to the job stream that automates your business process flow. Select the action menu in the top-left corner of the job definition panel and click on Submit Job into Current Plan. A confirmation message is displayed, and you can switch to the Monitoring view to see what is going on.

Figure 8 Submit Job

Figure 9 Monitor Job

Figure 10 Monitor Job

Figure 11 Job Log

Figure 12 Workflow Details

Are you curious to try out the Azure Data Lake Storage plugin? Download the integrations from the Automation Hub and get started or drop a line at santhoshkumar.kumar@hcl.com.

 

Authors Bio

Shubham Chaurasia – Developer at HCL Software

Responsible for developing integration plug-ins for Workload Automation. Hands-on with different programming languages and frameworks like JAVA, JPA, Microservices, MySQL, Oracle RDBMS, AngularJS.

LinkedIn – https://www.linkedin.com/in/shubham-chaurasia-1a78b8a9/

 

Rabic Meeran K, Technical Specialist at HCL Technologies

Responsible for developing integration plug-ins for Workload Automation. Hands-on with different programing languages and frameworks like JAVA, JPA, Spring Boot, Microservices, MySQL, Oracle RDBMS, Ruby on Rails, Jenkins, Docker, AWS, C and C++.

LinkedIn – https://www.linkedin.com/in/rabic-meeran-4a828324/

 

Saket Saurav, Tester (Senior Engineer) at HCL Technologies

Responsible for performing Automation and Manual Testing for different plugins in Workload Automation using Java Unified Test Automation Framework. Hands-on experience on Java programming language, Web Services with databases like Oracle and SQL Server

LinkedIn – https://www.linkedin.com/in/saket-saurav-8892b546/

How HCL Connections Opens Up Opportunities by Breaking Down Silos

17. Mai 2021 Posted by Adam Gartenberg

From its inception, the HCL Connections collaboration suite was built around the central premise of openness and discoverability.  This was specifically done to ensure that content and expertise needed to collaborate effectively with other team members is easily discoverable. Information silos, on the other hand, disrupt and slow down collaboration. Eighty percent of companies in a recent survey reported a moderate to high degree of information silos within the organizations. Silos impede employee efficiency and can negatively impact both the top line and the bottom line of a company’s financials. 

Information silos separate employees and information 

What causes information silos?  Overlapping and disparate applications that don’t talk to each other or are only used in specific parts of an organization. Disconnected and dispersed content leads to document duplication, version control difficulty, and productivity loss as employees needlessly search for crucial information across multiple content repositories. These unintentional boundaries can have a profound impact on employee productivity, engagement and the ability to solve problems.

Breaking down information silos 

Our most recent software release bridges the silo gap by bringing the benefits of Connections to the Microsoft Ecosystem, adding information-sharing capabilities to both Connections and Microsoft. Inside Connections, you can now start a conversation via Microsoft Teams Chat with any of your Connections contacts from their business card, profile page, or the Important to Me bar.  You can also immediately share and start a conversation around any page in Connections by clicking the Teams icon that you’ll find on that page.

You can bring your SharePoint libraries into your Connections Communities, and users can round-trip edit their files in Office with changes automatically saved right back into Connections files – no need to upload an updated file each time.

Inside the Microsoft applications, you have one-click access to your Connections community applications — files, wikis, forums, activity feed, etc. — right inside your Teams chats and channels.  You can also insert files or any recent content from Connections into your conversations simply by clicking on the Connections icon in the chat bar.

And lastly, we’ve introduced a brand-new Outlook add-in that lets you seamlessly shift content back and forth between Outlook and Connections, such as moving file attachments into or out of Connections or looking up details on meeting recipients from their profiles.  These enhancements work on all Outlook clients — Windows, Mac, web, and mobile.

Tear down walls

Removing internal boundaries and information silos should be a priority given the tangible impact on improving employee productivity. Making work more seamless with built-in integration will not only improve productivity, but it will also amplify team communication and decision velocity. Productivity gains include reduced toggling between Connections and Microsoft applications by up to 50%. You can also share content with team members five times faster while at the same time reducing unnecessary searches. Add to this the 1-click collaboration with cross-functional team members capability, and it’s easy to understand the real benefits of integration. Integrating the value of your Connections people-powered communities and content into your Microsoft tools will leverage the best of Connections and Microsoft.

To see our integration capabilities in action, check out the video replay of our recent webinar.

Frequently asked questions about our integrations 

Q: Are the integrations you have shown today directly available after upgrading to v7? Or are they still under development? 

A: All of the integrations shown today between Connections and Teams, SharePoint, Outlook and Office are available today. 

Q: Is there any integration between Activities and Outlook? 

A: Yes, you can save an email or an attachment to an activity (e.g. as a To-Do) 

Q: What about integration to other HCL products? Connection to Domino, Connections to Sametime, etc.? 

A: Enhanced integration with the latest version of HCL Sametime is coming soon, and we will continue to update integrations with Domino and other parts of our portfolio.

Q: How are employees authenticated between Connections and Teams? Via Microsoft Active Directory? Or Domino LDAP or both? 

A: Single sign-on is accomplished by setting up a trust relationship between the Connections server and Microsoft Azure using the WebSphere OpenID Connect Relying Party Trust Association Interceptor (OIDC Relying Party TAI).   Check out additional details here.

Q: Do you have any best practice documents for where there is overlap in functionality between Connections and Microsoft 365 (e.g., managing files)? 

A: Our recommendation would be to consolidate files in one place to make them all searchable and discoverable.  Storing them all in Connections Files ensures they are accessible and discoverable all in one place. Integrating from there into Teams means you still have a single file store while making them accessible when collaborating in Teams.

Q: Teams Channel and Connections Communities seemed to be similar and can also lead to duplicate content? Any reason we should use one over the other? 

A: There are a lot of capabilities and benefits that a Connections Community offers that Teams doesn’t provide.  Communities enable structure and organization to a team or project, allowing you to use the right tool for the right job (e.g., wiki vs. forum vs. file share, etc.), and is open and discoverable across the organization.

Q: What type of the Teams tab do you use to integrate with Connections? Is it just a Web tab or some custom application? 

A: Once the integration is deployed, you’ll find Connections as an option along with all the other Teams apps when you go to the Add Apps component in Teams.  From there, it will walk you through selecting the community and the specific app within that community.

Q: Do you have a documentation how to deploy the Connections integration into a Teams? 

A: Further details on deploying this integration are here

DNUG DEEP DIVE MOBILE – Höchste Sicherheit und einfachste Handhabung mit Samsung Knox

15. Mai 2021 Posted by DNUG Marketing

DANIJEL STANIC

15.06.2021 / 14:00 Uhr 

  • Samsung Knox bietet IT-Administratoren eine umfassende Mobilitätslösung für Unternehmen, die Geschäftsanforderungen im gesamten Gerätelebenszyklus erfüllt.
  • In unserem Vortrag zweigen wir die Vorteile der Knox Plattform auf – und wie einfach diese in Kombination mit HCL Domino eingeführt und verwaltet werden können.

Melde dich gleich an!

Die Tickets für das Event sind über Eventbrite erhältlich. Die Einwahldaten werden am Veranstaltungstag versendet.

ZUR AGENDA & ANMELDUNG

Der Beitrag DNUG DEEP DIVE MOBILE – Höchste Sicherheit und einfachste Handhabung mit Samsung Knox erschien zuerst auf DNUG e.V..

DNUG DEEP DIVE MOBILE – Android Enterprise

14. Mai 2021 Posted by DNUG Marketing

MIRKO BULLES

15.06.2021 / 14:00 Uhr 

  • Android Enterprise, was (ist es), wann (macht es sinn), warum (Firmen es brauchen!)?
  • Was ist neu in Android Enterprise bezüglich Security & Privacy?
  • Was wenn ich kein EMM habe oder will, aber trotzdem meine Geräte und Daten kostengünstig schützen möchte?

Melde dich gleich an!

Die Tickets für das Event sind über Eventbrite erhältlich. Die Einwahldaten werden am Veranstaltungstag versendet.

ZUR AGENDA & ANMELDUNG

Der Beitrag DNUG DEEP DIVE MOBILE – Android Enterprise erschien zuerst auf DNUG e.V..

Mein Gladbach- und Fußball-Fazit 2020/21: Zu wenig Biss, zu wenig Charakter, zu viel Big Business und ein Abschied

13. Mai 2021 Posted by Stefan Pfeiffer

Die Bundesliga-Saison neigt sich dem Ende zu. Für einen Gladbach-Fan und bekennenden Fußballnostalgiker war es eine seltsame, frustrierende Idee. Und daran war nicht einmal die Pandemie schuld. Es kommt einiges zusammen. Die Saison ist für die Fohlen nach der gefühlt herausragenden Runde 2019/2020 mit der Champions League-Teilnahme enttäuschend. Vielleicht hat die Mannschaft „damals“ über ihren Verhältnissen am Leistungslimit gespielt. Vielleicht hatte man auch das Quäntchen Glück und auch der neue Trainer-Besen fegte in der ersten Euphorie besonders gut.

Eine schwierigere Saison war auch zu erwarten. Viele Mannschaften schwächelten in der Vergangenheit nach einer erfolgreichen Runde und dann folgender Belastung auf Europa-Ebene. Dabei waren die Champions League-Auftritte der Fohlenelf gegen Real Madrid oder Inter Mailand noch die fußballerischen Highlights des Jahres – vor leeren Rängen. Wie wäre es vor Publikum in einem ausverkauften Borussia-Park gewesen. Schade für die Fans.

Die Bundesliga-Saison dagegen lief von Beginn an gefühlt schleppend. Die Fohlen haben oft geführt, aber 26 Punkte nach Führung abgegeben – mit Abstand Höchstwert in der Bundesliga. Und da waren einige wirkliche bittere Momente darunter. Insgesamt konnte ich mich des Eindrucks nicht verwehren, dass der Biss, der Ehrgeiz, das Pressing, die Emotion der vergangenen Runde gefehlt und man sich nur zu oft auf den Meriten der alten Saison ausgeruht hat. Man war zu passiv und dachte wohl, die Spiele nach Führung nach Hause schaukeln zu können. Das hat sich gerächt. Und das Trainerteam hat daran nichts geändert.

Die in der Vorrunde vermeintlich so starke und hoch gelobte Defensive mit Lainer, Ginter, Elvedi und Bensebaini und dem defensiven Mittelfeld, die generelle Verteidigungsarbeit und das Zweikampfverhalten haben mich in diesem Jahr überhaupt nicht überzeugt. Ich glaube, das war einer der Gründe, warum es in 2020/21 nicht geklappt hat. Zu viele Gegentore, zu wenig Willen, zu viel Lethargie.

Ein trauriger Höhepunkt war nicht nur für mich, wie man sich in München präsentiert hat. Dort kann man verlieren, aber nicht so:

„Für Borussia Mönchengladbach ging es ja noch um etwas. Sie haben sich abschlachten lassen in München. Das war unwürdig. Das war nicht Gladbach-like.

Lothar Matthäus kritisiert Gladbach nach Bayern-Auftritt heftig | GladbachLIVE

Hätte die Saison denn noch gut werden können? Hätten die Fohlen im Pokal gewonnen und wären gar ins Pokalfinale gekommen, so hätte man als Fan wohl über viele Dinge hinweg gesehen. Selten schien die Chance nach dem Ausscheiden der übermächtigen Bayern so groß, doch mal was Blechernes in der Hand zu halten. Hätte, hätte … Jetzt stehen die Pappgetränke aus Leipzig und meine besonderen Freunde im Finale.

Damit sind wir natürlich beim Thema Marco Rose. Vielleicht haben auch wir Anhänger zu viel in Rose „hineinsterilisiert“, den smarten Pseudo-Kloppo, der Emotionen und entfachte und nicht nur Thuram um die Eckfahne tanzen ließ. Dann die Unsicherheit um seine Zukunft und die Verkündung des Weggangs nach Dortmund. Ausgerechnet Dortmund, gegen die man dann auch noch im Pokalviertelfinale stand. Meine Meinung, was er – der Herr Rose – hätte tun müssen und was ich von Max Eberl erwartet hätte, habe ich ja geäußert. Fußball-Nostalgiker halt. Und ich fange jetzt nicht an, über das Coaching oder Vercoachen in verschiedenen Spielen zu schreiben. Die Sache ist eh – schief – gelaufen.

Nun kommt also Adi Hütter und der wird es schwer haben, denn natürlich haftet ihm jenseits seiner unbestrittenen Erfolge nun ein Gerüchle an – besonders jetzt, wo die Eintracht wahrscheinlich doch nicht die Champions League schaffen wird und er sich gerade nicht sehr geschickt äußert. Ich drücke ihm, der Mannschaft und dem Verein natürlich alle Daumen.

Es wird interessant sein, wie der Kader für die Saison 2021/22 aussehen wird. Mit einigen Abgängen ist zu rechnen. Klar werden Max Eberl und Steffen Korell wieder gute Arbeit leisten, aber ehrlich gesagt fehlt mir ein bisschen was im Kader. Die Leuchttürme Lars Stindl, Patrick Herrmann, Toni Jantschke, Yann Sommer oder Christoph Kramer haben die 30+ in ihren Pässen stehen. Sie sind und bleiben wichtig, aber ich würde mir einige junge Fohlen wünschen, die eine wichtigere Rolle im Kader spielen. Ein Beyer, ein Reitz … Ich weiß, wieder Fußballnostalgie.

Und die Zeit für Nostalgie ist im Fußballgeschäft vorbei. Schon lange. Doch das wurde in den vergangenen Wochen nochmals deutlich(er). Die leidige Diskussion um die Super League ist ein Beispiel, die zeigt, wie weit weg einige Vereine und vor allem deren Besitzer von den Wurzeln des Fußballs sind. Doch wenn sich dann die UEFA (und in der Linie sehe ich auch die FIFA) als Verteidiger des Fußballs aufspielt, bekomme ich einen Lachanfall. Das sind Organisationen, die die europäischen Wettbewerbe (und die WM) im Sinne von Big Business immer weiter aufblasen. Wer einmal die Marmorpaläste dieser Organisationen in der Schweiz sehen durfte, dem wurde zu schnell klar, um was es geht. Und auch DFB und DFL sind nicht besser, nicht erst seit dem Präsidenten- und Vorstandswirrwarr. Der Zug ist für Fußballfreunde alter Schule abgefahren. Sie sind halt – und ich zähle mich dazu – alt …

(Stefan Pfeiffer)

Zahlen Sie nicht für Funktionen, die Sie nicht brauchen

11. Mai 2021 Posted by Thomas Zeizel, HCL

One-Size-Fits-All?!

Das auffälligste Problem: Bei öffentlichen Cloud-Angeboten hat man nur bedingt die Möglichkeit, das Angebot so zu konfigurieren, wie man es wirklich benötigt. Öfter kommt es vor, dass die Anbieter ungefragt immer mehr Features freischalten, die vielleicht für einige Anwendungsfälle Sinn ergeben könnten, aber eben nicht für alle Unternehmen. Schließlich muss ein öffentliches Cloud-Angebot eben für alle Branchen irgendwie passen – es stellt also immer einen Kompromiss dar.

Nun könnte man der Meinung sein, dass neue Funktionen generell gut sind und man sie ja nicht nutzen muss. Dennoch sprechen drei Argumente dagegen:

  1. Neue Funktionalitäten sind auch immer eine Belastung für die Anwender/-innen und den Help Desk. Wieder ein neues UI oder eine neue Spielerei? Immer muss erklärt werden, was davon wie sinnvoll eingesetzt wird – und was nicht sinnvoll ist, frisst wertvolle Arbeitszeit.
  2. Jedes Feature kostet Ressourcen. Sie denken bestimmt, dass das für Sie kein Problem darstellt, weil Sie den Server ja nicht betreiben und eine „Flatrate“ pro User und Monat bezahlen. Aber ein solches Angebot basiert immer auf einer Mischkalkulation: Die Kunden, die nicht alle Features und Ressourcen nutzen, bezahlen mit Beiträgen den Mehrverbrauch anderer Kunden mit.
  3. Datenschutzbeauftragte monieren zu Recht, dass oft Funktionen automatisch freigeschaltet werden, die dann von einem Admin oder User aktiv deaktiviert werden müsste.

Damit kommen wir auch schon zum nächsten Problem.

Kostenkontrolle wird unmöglich

Abgesehen vom klassischen SaaS-Problem, bei der ein Anbieter – sobald ein Kunde ihm in die Falle gegangen ist – beliebig an der Kostenschraube drehen kann, da „das Einführungsangebot“ eine „einmalige Rabattaktion“ war und eine Migration angeblich viel zu teuer wäre, gibt es noch das Thema mit der Mischkalkulation. Das bedeutet, dass Sie vermutlich viel zu viel bezahlen, da Public Cloud Angebote nun einmal davon leben, dass nicht jeder Kunde nur Power User mitbringt, die wirklich die angebotenen 2 TB Speicherplatz für Dateien komplett ausnutzen oder jede Videokonferenz aufzeichnen. Diese sparsamen Kunden wie Sie bezahlen aber den Ressourcenverbrauch der Power User mit – da das Cloud-Angebot für die Unternehmen der Power User sonst zu teuer werden würde.
Üblicherweise ist eine Vielzahl von Unternehmen hier im Nachteil, da sie das Angebot nicht auf ihre wirklichen Bedürfnisse zuschneiden können.

Ein Beispiel aus dem Bereich Videokonferenz mit HCL Sametime, bei dem auszugsweise die folgenden Faktoren die Kostentreiber sind:

  • Anzahl der Meetings mit Video-Übertragung
  • Maximale Anzahl der Video-Streams pro Meeting
  • Durchschnittlicher Anteil der Meetings für die eine Aufzeichnung erstellt wird
  • Nutzung von Telefonie-Einwahl

Wenn Sie nun für sich und Ihr Unternehmen entscheiden, dass Meetings nicht aufgezeichnet werden sollen, sparen Sie schon deutlich an Infrastruktur (ohne die Funktion generell zu verlieren). Entsprechendes gilt für die Einwahl in Meetings per Telefon oder die Zahl der Videoübertragungen. Somit lassen sich eine Menge Ressourcen (CPUs, Speicher, Bandbreite) und damit Kosten einsparen – wenn man die Lösung selbst betreibt.

Machen Sie sich unabhängig mit HCL Software

Oder besser: bleiben Sie wie bisher unabhängig mit HCL Software. Niemand von HCL hat Zugriff auf Ihre Server (außer Sie erlauben es explizit) – wir können nicht von Jahr zu Jahr an der Preisschraube für den Cloud-Betrieb drehen ­­– der Server gehört Ihnen oder sie hosten die Lösung in einer Cloud, die einen Umzug der Software in andere Clouds unterstützt. Zudem sind die meisten unserer Lösungen nicht nur auf ein Betriebssystem festgelegt: RedHat? SuSE? iSeries? Windows? Oder im Container? – oft können Sie frei entscheiden – und sind so immer für die effizienteste (und kostengünstigste) Server-Plattform entscheiden.

Wenn Sie also auf bunte Filter im Videomeeting und Preiserhöhungen zum Jahres- oder gar Quartalswechsel vermeiden wollen: Wenden Sie sich gerne an unser Team unter https://hclsw.de/DS.

Beste Wünsche für die kurze Woche und vor Allem: Bleiben Sie Gesund!

Ihr
Tom Zeizel
Associate Vice President & Head of HCL Software DACH

Der Beitrag Zahlen Sie nicht für Funktionen, die Sie nicht brauchen erschien zuerst auf DNUG e.V..

Klima, Umwelt, Verkehr: Lokale Datenräume aufbauen und sicher nutzen – David da Torre von der Digitalstadt Darmstadt bei #9vor9

11. Mai 2021 Posted by Stefan Pfeiffer

Wieder ein besonderes Highlight bei #9vor9, den Digitalthemen der Wocher: Wir hatten José David da Torre Suárez, den Geschäftsführer der Digitalstadt Darmstadt zu Gast, der von den Aktivitäten seiner Institution vor und in Corona-Zeiten berichtet hat. Für mich als Heiner (Einwohner von Darmstadt) natürlich besonders interessant. Die Stadt Darmstadt hatte 2017 hat den Bitkom-Wettbewerb „Digitale Stadt“ gewonnen und implementiert seitdem zusammen mit Partnern aus Wissenschaft, Politik und Wirtschaft ein regionales digitales Ökosystem, das – so der Anspruch – greifbarem Nutzen für die Bürger bringen soll. Und da laufen eine Menge an Aktivitäten, wie in dem sehr offenen Gespräch klar wurde, das wir aus der „Sendeentrale“ in Ewerschtt gestreamt haben:

Wir haben auch über die Hindernisse gesprochen, die jemand empfindet, der wie David aus der Privatwirtschaft oder der von außen auf die Geschwindigkeit schaut, mit der Projekte umgesetzt werden. Doch auch David berichtet wie viele andere über Ausschreibungen und Vergaberecht, in dem Fristen und Regeln strikt eingehalten werden müssen, sicher kein Katalysator für die Digitalisierung einer Stadt oder eines Landes. Rafael Laguna, Chef von SPRIND, hat ja ähnlich auf Twitter geklagt und eine Reform angemahnt.

Aber wer traut sich an dieses bürokratische Monster nun wirklich heran? Ein dickes Brett …

Jenseits solcher Hindernissen wurden in der Digitalstadt Darmstadt eine große Zahl von Projekten auf den Weg gebracht. Die Voraussetzungen, das Ökosystem in Darmstadt ist mit vielen IT- und digital affinen Unternehmen sehr gut, wie man auch an der Liste der Unterstützer sehen kann, die von verschiedenen Fraunhofer-Instituten über Raumfahrtunternehmen über die heimischen Lilien (den SV Darmstadt 98) bis zur Software AG und vielen anderen Institutionen und Unternehmen reicht. Vielen ist nicht bekannt, welche Basis hier am Standort vorhanden ist.

Screenshot von der Webseite der Digitalstadt Darmstadt. Das Copyright liegt bei der Digitalstadt Darmstadt.

Die vielen Projekte, die in Umsetzung sind, kann man auf der Home Page der Digitalstadt finden. Es sind Projekte meist jenseits der notwendigen Digitalisierung und Modernisierung der Verwaltung – ich weise hier gerne auf mein Gespräch mit Peter Kuhn von fortiss und meiner Kollegin Felizitas Müller aus dem Watson Center in München hin -, zukunftsgerichtet und datenbasiert. Es reicht von der Verkehrssteuerung mit Hilfe eines IoT-Netzwerkes mit Sensoren und Kameras und unterstützenden Apps für die Verkehrsteilnehmer über Optimierung der Abfallentsorgung bis zur Auswertung der Umweltdaten. Daten sollen intelligent verknüpft und genutzt werden, um intelligente Lösungen zu schaffen. Und die Ideen der Bürger:innen sind gefragt. Fast bei jedem Projekt ist eine Onlinebeteiligung möglich, etwas was David auch sehr am Herzen liegt. Auch für die Datenplattform wurde Input gesammelt und man denkt darüber nach, einen allzeit offenen Briefkasten für Verbesserungsvorschläge oder neue Ideen einzurichten.

Das öffentlich zugängliche Datencockpit. Da geht sicher noch deutlich mehr, aber es ist ein Anfang.

In unserem Gespräch wurde schnell deutlich, wie wichtig lokalen Datenräume und deren Nutzung und Auswertung gerade auch bei den genannten Themen sind und warum man auf eine Open-Data-Plattform setzt, dabei aber die Sicherheit und Verschlüsselung der Daten wie auch deren Nutzung genau im Blick behält, auch mit Unterstützung eines Ethik- und Technologiebeirats (in dem mir persönlich etwas die Digitalexperten von der Basis fehlen, aber so ist das wohl in der lokalen Politik und Verwaltung). Auf jeden Fall ist dieser Darmstädter Datenraum ein interessantes Projekt, erscheint oft greifbarer und näher an der Praxis wie manche derzeit noch abstrakten Datenräume wie sie beispielsweise derzeit rund um Gaia-X diskutiert werden.

Natürlich wurde auch die Digitalstadt Darmstadt von der Pandemie eingeholt und hat eine auf Open Source basierende Web-Videokonferenzlösung mit BigBlueButton aufgebaut, auf der unterdessen – so die Webseite – bis zu 5000 Schüler:innen zeitgleich online arbeiten. Technische Infrastruktur und Services für den Schul-Fernunterricht wurden seit Frühjahr 2020 sukzessive auf- und ausgebaut. Die Lösung ist wohl einer der derzeit am meisten nachgefragten Services der Digitalstadt und richtet sich an die lokalen Schulen, Vereine und gemeinnützigen Organisationen, die BBB umsonst nutzen können. Ermutigend, dass so etwas auf lokaler Ebene funktioniert und es nicht immer die kommerziellen Lösungen der großen Player sein müssen, trotz mancher Unkenrufe der Monopolistengläubigen

Was ist nun an dem Projekt Digitalstadt Darmstadt aus meiner Sicht faszinierend? Sicherlich einerseits der zukunftsgerichtete Ansatz, der Anspruch, Daten sicher und geschützt zu verwenden, um wichtige Themen wie Klima, Umwelt und Verkehrsplanung lokal voran zu bringen. Dabei auf ein lokales Ökosystem von Partnern zu setzen, scheint mir ein wesentlicher Erfolgsfaktor. Die Digitalstadt Darmstadt und ihre Mitarbeiter:innen als Organisation, entsprechend gefördert und promotet durch den Bitkom und andere, ist dabei sicherlich ein „Enabler“ oder (hoffentlich) Katalysator, mit deren Hilfe, Projekte schneller voran gebracht werden.

Könnte manches noch praxisnaher sein? Ja, Digitalisierung muss für die Bürger noch viel positiver und näher erlebbar sein. Auch würde ich mir sicher noch viel mehr digitale Dienste in der Stadt Darmstadt wünschen, aber das ist eine Baustelle, die von Anderen in der Stadtverwaltung beackert wird – und wo noch extrem viel Verbesserungsbedarf besteht. Doch können andere Kommunen das Konzept der Digitalstadt Darmstadt als Anregung nehmen oder Blaupause nutzen, auch wenn dort das Ökosystem vielleicht nicht ganz so ausgeprägt sein sollte. Ich glaube, dass es solche lokalen oder regionalen Initiativen jenseits der hypergalaktischen, oft sehr weit entfernt scheinenden Pläne auf Bundes- oder Landeseben unbedingt braucht, um gerade auch in den Regionen schneller voran zu kommen. Zeit ist auf keiner Ebene zu verlieren, um Digitalisierung in Deutschland voran zu bringen.

Nochmals herzlichen Dank, lieber David, für das Gespräch.

(Stefan Pfeiffer)


#9vor9 – Digitalthemen der Woche erscheinen auch immer als Podcast unter https://9vor9.podigee.io/ und sind natürlich über die gängigen Podcast-Plattformen abrufbar.

Nachbericht DNUG Deep Dive: SafeLinx Workshop

10. Mai 2021 Posted by DNUG Marketing

Zuerst möchte ich mich bei den Teilnehmern für das rege Interesse bedanken. Gestartet sind wir mit einem Intro von „Ketan Godhania“, der als Produkt Manager von HCL SafeLinx im ersten Teil einen Überblick über das Produkt präsentierte und ebenso einen Ausblick über die zukünftige Roadmap gewährte.

Im Anschluß übernahm Detlev Pöttgen und wir durften die SafeLinx Komponenten im Detail kennen lernen. Gewohnt praxisnah und anschaulich führte Detlev durch einen kurzen theoretischen Teil. Im Haupteilt durften wir dann endlich auch „Anfassen“ und im Workshop eine komplette SafeLinx Umgebung ausetzen. Während dessen fand parallel ein reger Austausch im Chat statt über die Einsatzmöglichkeiten und Anwendungsformen. Auch dass SafeLinx nach Auskunft von „Ketan“ darüber hinaus als vollwertige VPN Lösung ohne weitere Lizenzkosten für CCB Kunden genutzt werden kann, wurde intensiv diskutiert.

Wie immer bedanken wir uns bei allen Teilnehmern und natürlich Detlev Pöttgen für die fantastische Vorbereitung und die Durchführung.

Bis dahin, bleibt gesund!

Eure FG Administration

Der Beitrag Nachbericht DNUG Deep Dive: SafeLinx Workshop erschien zuerst auf DNUG e.V..

Recap of DNUG Deep Dive – Domino Container Workshop (in English)

10. Mai 2021 Posted by DNUG Marketing

First part of the day began with Daniel & Thomas gave us a smooth and detailed introduction into Docker and Containerization in our HCL Domino world, based on slides. Afterwards we started the first hands-on part by installing and configuring our first Docker server. Everyone had their very own remote Linux host in the cloud to work on. We have deployed Domino using the HCL Domino Docker Image & the more modern Domino Community Image (maintained by Thomas Hampel & Daniel Nashed). For this step-by-step hands-on part, the speakers created a documentation (incl. all needed commands and parameters) in GitHub with which the users could use copy & paste to work on their Linux hosts.

After lunch we started with another detailed slide’s part to introduce us to Kubernetes (K8s) in general and of course with HCL Domino. The hands-on part of the Kubernetes topic was not only containing easy step-by-step points but also ‚advanced‘ troubleshooting including questions.

Before we rounded off the day with an intense Question & Answers, Daniel and Thomas showed us how to deploy not a primary but additional Domino Server and/or additional Services like HCL Traveler and HCL Volt.

All in all, it was a busy day with lot of content and interesting discussions!

Many thanks to our dear speakers “Daniel Nashed & Thomas Hampel” and of course to all the participants!

With best regards
your DNUG focus group “Domino”

Der Beitrag Recap of DNUG Deep Dive – Domino Container Workshop (in English) erschien zuerst auf DNUG e.V..

Hörempfehlung: Die KI, die mit einem über Themen debattieren kann – Ein Gespräch mit Dr. Wolfgang Hildesheim von IBM

10. Mai 2021 Posted by Stefan Pfeiffer

Die künstliche Intelligenz Watson hat die TV-Zuschauer schon vor 10 Jahren überrascht, jetzt haben „Zeit“ und FAZ ihr anläßlich eines gerade erschienenen Beitrags auf Nature erneut Artikel gewidmet: Im „Project Debater“ debattierte Watson mit dem Debattier-Weltmeister Harish Natarajan, der zwar letztendlich gewann, aber im Nachhinein sagte, dass es nicht viel anders war als mit einem Menschen zu diskutieren. Die KI ist in der Lage, auf hohem Niveau mit Menschen zu debattieren, Argumente zu entwickeln und auszutauschen mit dem Ziel, das Gegenüber zu überzeugen.

„Mr.KI“ der IBM in Deutschland, Österreich und der Schweiz, Dr. Wolfgang Hildesheim, Director Watson, Data Science & Artificial Intelligence DACH, berichtet über die im Rahmen von Project Debater entwickelten Fähigkeiten, die nun beispielsweise in den Chatbots eingesetzt werden, die IBM für eine Vielzahl von Kunden entwickelt, entwickelt hat und entwickeln wird. Das Thema Spracherkennung und „Kommunikationsfähigkeiten“ von KI, sichtbar in Chatbots, geht immer weiter voran. Spannend. Hier mehr im Podcast:

https://in-die-tiefe-experten-talk.podigee.io/26-in-die-tiefe-project-debater

Webinar-Funktion in Teams

7. Mai 2021 Posted by Gerda Marx

Über die neue Webinar-Funktion in Teams haben wir bereits in der Reihe "Ankündigungen von der Ignite Teil 2" berichtet. Mit der Webinar-Funktion können Sie direkt aus Teams heraus ganz einfach Ihre Webinare planen und Einladungen versenden. Diese Funktion wird für folgende Lizenzen zur Verfügung stehen: Office 365/Microsoft 365, E3, [...]

Der Beitrag Webinar-Funktion in Teams erschien zuerst auf hedersoft Blog.

#dachnug48 – Fachgruppe Domino

7. Mai 2021 Posted by DNUG Marketing

highlights fg Domino

08.06.2021 / Tag 1 #dachnug48 / 14:00 Uhr 

  • Neuigkeiten zu HCL Notes/Domino V12
  • HCL Nomad Web
  • HCL Verse

Melde dich gleich an!

Die Tickets für die #dachnug48 sind über Eventbrite erhältlich.

JETZT ANMELDEN

Der Beitrag #dachnug48 – Fachgruppe Domino erschien zuerst auf DNUG e.V..

„Wer sich zum Marketing hingezogen fühlt, um nicht verkaufen zu müssen, ist falsch gewickelt.“

6. Mai 2021 Posted by Stefan Pfeiffer

Ich zitiere mich selten selbst, aber fast genau so hat Dr. Andreas Stiehler seinen LinkedIn-Beitrag zu dem Interview „aufgemacht“, dass er vor einigen Wochen mit mir zum Thema „Transformation des B2B-Marketings im Mittelstand“ geführt hat. Ok, das Originalzitat war „Wer sich zum Marketing hingezogen fühlt, um nicht verkaufen zu müssen, unterliegt einem Trugschluss.“ Wen das Thema B2B Marketing und meine 2 Cents dazu interessieren, der kann es hier nachlesen. Dort sind beziehungsweise werden weitere Gespräche zum Thema erschienen beziehungsweise erscheinen, die Frank Schnabel und er geführt haben.

Laut Andreas habe ich noch u.a. folgendes gesagt:

⚠ „Ein #B2B-Marketing, bei dem die Mitarbeiter nie direkt mit den Kunden sprechen, kann nicht funktionieren.“

⚠ „Anstatt mit immer neuen Taktiken zu versuchen, die Absätze kurzfristig zu erhöhen, sollten wir besser hinterfragen, welche Mittelfriststrategien wir fahren, um die Situation nachhaltig zu verbessern.“

⚠ „Einen Lead einer einzigen Marketingmaßnahme, oft einer Veranstaltung, zuzuweisen, ist mit Verlaub Unsinn.“

⚠ „Pipeline, Funnel oder Cost per Lead sind wichtige Indikatoren, mit denen das #Marketing arbeiten muss. Aber es sind letztlich nur Hilfsgrößen.“

Posten | Feed | LinkedIn

Was man alles so unvorsichtigerweise absondert 😉 … Und noch weitere meiner Fettnäpfchen zu Markenbotschaftern, denen man aber dann doch nicht die notwendige Zeit dafür zugesteht, zur unsinnigen Trennung von Marketing- und Sales-generierten Leads oder warum man als Marketer meiner Ansicht nach – zusammen mit dem Vertrieb – oft beim Kunden sein sollte, findet Ihr unter besagtem Link.

(Stefan Pfeiffer)

#dachnug48 – Fachgruppe Sametime

6. Mai 2021 Posted by DNUG Marketing

highlights fg sametime

08.06.2021 / Tag 1 #dachnug48 / 14:00 Uhr 

  • HCL Sametime in der DACHNUG für alle
  • Telefonie Integration in HCL Sametime.

Melde dich gleich an!

Die Tickets für die #dachnug48 sind über Eventbrite erhältlich.

JETZT ANMELDEN

Der Beitrag #dachnug48 – Fachgruppe Sametime erschien zuerst auf DNUG e.V..

Wie Chatbots in Krisenzeiten einen wichtigen Beitrag leisten können

6. Mai 2021 Posted by Celina

In Krisensituationen entsteht ein erhöhter Kommunikations- und Informationsbedarf. Hier können Chatbots einen wertvollen Beitrag leisten.