Posts Tagged: ‘Datenhoheit’

Bewegungsdaten beim Sturm auf das Capitol, Bewegungsdaten und die Corona Warn App – wir müssen über Datenschutz und Datennutzung reden

11. Februar 2021 Posted by Stefan Pfeiffer

Das Zitat von Heinz-Paul Bonn schlummert seit einiger Zeit als Entwurf in meinem Blog. In seinem Beitrag vom 2. November 2020 geht es darum, dass wir harte Datenschutzbestimmungen zum Beispiel bei der Coron Warn App anwenden, andererseits aber viele Bürger:innen ihre Daten ganz freiwillig auf sozialen Netzwerken preisgeben, generell im Netz teilen. Datenschutz einerseits, die (aus meiner Sicht oft einfach unüberlegte) Weitergabe der Daten andererseits, das sei paranoid. In Deutschland seien Daten immer noch etwas, was weg gesperrt gehöre und er führt einige Beispiel auf. Konkret stellt er die Frage, ob denn Datenschutz höher anzusiedeln sei als Gesundheitsschutz.

Wir brauchen ein Grundrecht auf Datenweitergabe im Notfall. Und diesen Notstand haben wir doch längst ausgerufen. Es gibt keinen Grund, dieses Freiheitsrecht, das die meisten Deutschen sowieso freiwillig mit Füßen treten, unangetastet zu lassen. Es wird Zeit für eine öffentliche Debatte über unser Verhältnis zu Daten.

Grundrecht auf Datenweitergabe | bonnblog.eu

Ich habe das damals schon bei ihm wie folgt kommentiert (kursiv): Dass viele ihre Daten bewusst oder unbewusst oder aus vermeintlichem Mangel an Alternativen Google, Facebook & Co in den Rachen schmeißen, kann nicht als Argument benutzt werden, Datenschutz aufzugeben, aber ich bin ein absoluter Freund einer auf Freiwilligkeit basierenden Datenweitergabe. Und das nicht nur seit Covid19. Meine Erfahrungen als Patient sagen mir zum Beispiel, dass ich eine Patientenakte will. Freiwillig.

Wir sollten nur nicht zu schnell, unsere Datenschutzprinzipien aufgeben, finde ich. Das wird allenthalben jetzt sehr plakativ gefordert. Wir brauchen Freiwilligkeit, intelligente Modelle und Aufklärung/Weiterbildung. Auch wenn manche offensichtlich nicht aufgeklärt werden wollen, wie wir gerade verhängnisvoll sehen.

In dem Zusammenhang Freiwilligkeit fällt mit die Datenspende-App des RKI ein. Hier kann man seine Daten für die Forschung spenden und sich auch beispielsweise im Corena-Datenspende-Blog informieren, was dahinter steckt. Ich persönlich habe die App als sinnvoll erachtet und bin nun schon lange dabei. Ich glaube, dass man jenseits von Corona durchaus viele solche freiwillige Apps entwickeln könnte. Oder aber es wird transparent und deutlicher gemacht, was man für seine Daten bekommt, Service, Geld … Momentan ist es halt im Nebel.

Nun bin ich auf den Artikel von Jörg Schieb unter Überschrift Sie haben das Capitol gestürmt – ihre Apps haben sie getrackt! gestoßen. Er schreibt darüber, dass der New York Times über 100.000 Ortsdaten von Handys zugespielt wurden. Diese Daten wurden dann analysiert und die Analysten konnte die Bewegung von Menschenmengen, die am 6. Januar das Capitol gestürmt haben, nachverfolgen und in eindeutigen Animationen visualisieren. Jörg schreibt: „Ein eindeutiger Beleg dafür, dass die aufstachelnden Worte von Donald Trump eine Wirkung erzielt haben.“

Ich ertappe mich dabei, dass ich vor mich hin brabbele und bemerke, dass ich schon immer gesagt habe, Trump habe die Massen aufgestachelt und sei mit schuldig. So von wegen Impeachment. und überhaupt. Der vermeintliche Besserwisser aalt sich in den Ergebnissen der Datenanalyse …

… und wird von Jörg dankenswerterweise auch wieder auf den Boden des Datenschutzes zurückgeholt. Den Datenanalysten sei es nicht nur gelungen, die Bewegung nachzuvollziehen, sie seien auch oft in der Lage gewesen, die Besitzer und Personen über die Advertising ID (!!!)* zu identifizieren. Gut so, dann kann man sie ja schnappen, höre ich mich sagen. Aber halt:

Zwar ist es in den USA verboten, Bewegungs- und Kommunikationsdaten auf diese Weise zusammenzubringen. Doch naiv anzunehmen, dass das sonst keiner macht.

Sie haben das Capitol gestürmt – ihre Apps haben sie getrackt! – schieb.de

Zum Punkt: Es ist für mich ein Unterschied, ob man diese Daten so auswertet und zusammenbringt, oder ob man Personen, die beim Sturm auf das Capitol dabei waren, aufgrund oft ihrer eigenen Videos identifizieren und juristisch verfolgen kann.

Und schlagen wir die Brücke zurück zur Corona Warn App und der Diskussion, warum man denn nicht dort die Bewegungsdaten erfasst und auswertet**, natürlich nur im Sinne des Gesundheitsschutzes aller Betroffenen. Zwei Ereignisse, die so nichts miteinander zu tun haben, aber auch zwei Ereignisse, die zeigen, das wir wie es Heinz-Paul und Jörg beide fordern dringend reden müssen, über Daten, der Nutzung und über mehr Aufklärung.

(Stefan Pfeiffer)

* Jörg erklärt es sehr schön: Die Advertising ID ist eine einmalige Zahlenfolge, über die jedes Smartphone eindeutig identifizierbar ist. Sie wir von vielen Datenbanken der Werbeindustrie und App-Anbietern gespeichert. Ich bin übrigens sicher, dass die wenigsten Awender:innen das wissen, womit wir wieder beim Thema Aufklärung sind.

** Auch hier gilt für mich, dass man das erst einmal nicht darf. Dies dürfte erst nach einer entsprechenden Aufklärung und expliziten Zustimmung der Benutzer:innen geschehen.

Leseempfehlung: Auch KI kann Vorurteile haben, wir brauchen aber eine KI, der wir vertrauen können | Romeo Kienzler

10. Dezember 2018 Posted by Stefan Pfeiffer

Quasi der „Nachbrenner“ zu meinem Lesezeichen „Letztlich existiert künstliche Intelligenz nicht“, einem Beitrag, den @Tante Jürgen Geuter auf ZEIT ONLINE geschrieben hat. Auch mein Kollege Romeo Kienzler befasst sich mit der Gläubigkeit an die Wahrheit von Daten und den Algorithmen, die sich bei der Einstellung von Mitarbeitern oder der Kreditvergabe darauf stützen:

Enthalten die Daten unbewusste Vorurteile, Stereotype und altmodische Rollenbilder, werden diese von den lernenden Algorithmen nicht nur übernommen, sondern noch zusätzlich verstärkt. Wenn Fotos und deren Beschriftungen Kochen überwiegend mit Frauen in Verbindung bringen, dann lernt die Software Kochen immer als Frauentätigkeit zu erkennen. Die Maschinen denken dann genauso in Rollenklischees wie wir Menschen.

über Data Natives unter sich – IBM THINK Blog

Zu entsprechenden „Fehlern“ ist ja auch schon gekommen, beispielsweise eben bei der Auswahl von Mitarbeitern. Damit so etwas möglichst nicht passiert, hat IBM  vor kurzem frei verfügbare Software angekündigt, die entsprechende „Fehler“ in Daten und Algorithmen aufdeckt und dabei hilft, diese „Verzerrungen“ zu beseitigen. Gerade Lösungen, die Künstliche Intelligenz einsetzen und Entscheidungen treffen oder empfehlen, müssen nachvollziehbar und transparent sein:

Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen treffen, die sie treffen. Transparenz ist das Stichwort. … Wir Menschen haben daran einen entscheidenden Anteil, indem wir darauf achten, welche Daten wir preisgeben – und so für KI-Systeme verfügbar machen. Wir brauchen ein höheres Bewusstsein für den Datenschutz, insbesondere außerhalb der Europäischen Union. Selbst als digitale Data Natives übersteigt es oftmals schlicht unsere Vorstellungskraft, wie viele Daten Organisationen sammeln können. Das Problem der Datenhoheit kann jedoch nur auf Anwenderebene gelöst werden.

Wir brauchen keine KI, die versucht, uns Dinge zu verkaufen, die wir nicht brauchen. Wir brauchen eine KI, der wir vertrauen können. Es muss in unseren Händen liegen und von Menschen kontrolliert werden – nicht von multinationalen Unternehmen.

über Data Natives unter sich – IBM THINK Blog

Besser kann man es nicht formulieren.

(Stefan Pfeiffer)

Gibt es gar nicht? „Letztlich existiert künstliche Intelligenz nicht“| @Tante Jürgen Geuter auf ZEIT ONLINE

7. Dezember 2018 Posted by Stefan Pfeiffer

Ein lesenswerter Beitrag von Jürgen Geuter* auf Zeit Online, in dem er sich mit Themen, er nennt es Mythen der heutigen Digitalisierung und der darum gewobenen Diskussion auseinandersetzt. Und da kommen knackige Aussagen heraus, so auch zum Thema Künstliche Intelligenz:

Letztlich existiert künstliche Intelligenz nicht. Und sie ist auch nicht nah. Es existieren leistungsfähige Statistiksysteme, denen durch einen attraktiven Namen eine gewisse Magie zugesprochen werden soll. „Künstliche Intelligenz“ ist nur ein Werbebegriff.

über Digitalisierung: Nein, Ethik kann man nicht programmieren | ZEIT ONLINE

Künstliche Intelligenz ist nur eines von 6 Themen, die Jürgen Geuter behandelt, Irrtümer nennt er sie. So stellt er generell in Frage, dass Software wirklich ethische Entscheidungen fällen kann.

Ethische Entscheidungen sind viel komplexer, als man das in Softwaresystemen abbilden könnte. Darum kann die Automatisierung einer Ethik nur scheitern.

über Digitalisierung: Nein, Ethik kann man nicht programmieren | ZEIT ONLINE

Und er nimmt die Gläubigkeit an die Wahrheit von Daten aufs Korn:

In der öffentlichen Debatte hat sich glücklicherweise die Erkenntnis durchgesetzt, dass die Datensätze, die uns zur Verfügung stehen, durchsetzt sind mit Vorurteilen und Fehlannahmen. …

Eine objektive und abstrakte Wahrheit, wie man sie sich gerne von neutralen Maschinen erhoffen würde, kann es niemals geben.

über Digitalisierung: Nein, Ethik kann man nicht programmieren | ZEIT ONLINE

Mehr Daten heisst nicht wahrere oder unbedingt bessere Daten. Ja, man kann (und muss) Daten verbessern, aber sie sind nie perfekt oder wahr. Ich bin mir nicht so sicher, ob diese Erkenntnis nun wirklich durchgedrungen ist. Und dann sind wir auch wieder beim zuerst angesprochenen Thema Künstliche Intelligenz. Dadurch, dass man möglichst viele Daten in Systeme füttere, erhöhe man die Treffergenauigkeit in Systemen automatisierter Statistikanwendung. Mit Intelligenz habe dies nichts oder nicht viel zu tun.

Ebenso aufs Korn genommen werden Systeme zur automatisierten Entscheidungsfindung, von Kreditvergabe bis zur Einstellung neuer Mitarbeiterinnen und Mitarbeiter. Sie seien systemimmanent immer bis zu einem gewissen Grad diskriminierend. Auch könne man gesetzliche und rechtliche Entscheidungen und Prozesse nicht in fehlerfreien Code übersetzen. Die Gesetze seien einfach zu komplex, der Code zu simpel.

Wenn Gesetze und Verträge wirklich so einfach wären, wie einige Technologen sich das vorstellen, hätten wir weit weniger Gerichte und deutlich weniger Anwaltskanzleien.

über Digitalisierung: Nein, Ethik kann man nicht programmieren | ZEIT ONLINE

Geuter nimmt zudem Open Source ins Visier, besser den Glauben, mit Open Source autonom und frei von Zwängen werden zu können. Doch es geht gar nicht um Open Source, sondern um digitale Kompetenz. Die Tage habe ich über das Smart Home und das Internet of Things, die Sensoren, die sich immer ausbreiten, eine enorme Sicherheitsbedrohung. Ich habe über das freie Netz geschrieben, die Verseuchung der sozialen Medien durch Kommerz und Werbung auf der einen und Populisten auf der anderen Seite. Das Thema Datenhoheit und die Bedrohung durch Datenkraken ist ein weiteres Thema, das im Netz und hier im Blog auftaucht. Wer ist als Maria oder Otto Normalnutzer/in wirklich in der Lage, all diese Kenntnisse zu haben und Komplexität zu beherrschen? Und muss jeder dazu Lust haben? Und ja, jeder braucht, sollte erst einmal ein Grundverständnis der digitalen Möglichkeiten haben.

Die Gesellschaft muss Konzepte entwickeln, die auch Menschen ohne technische Begeisterung oder Interessen eine ermächtigende Teilnahme am digitalen Teil des Lebens garantieren.

über Digitalisierung: Nein, Ethik kann man nicht programmieren | ZEIT ONLINE

Die Antworten und Lösungsansätze sind nicht einfach. Und es sind eben manchmal nur Ansätze. Menschlich halt, nicht perfekt. Sie können aber durchaus intelligent sein.

(Stefan Pfeiffer)

P.S. *Zeit Online: Jürgen Geuter aka tante arbeitet als freier Autor und Theoretiker an Fragen der sozialen Gestaltung der Digitalsphäre. Er ist Gründungsmitglied des transdisziplinären Netzwerkes Otherwise Network.

 

Replik: Wir brauchen ein konstruktives, kompetentes Verhältnis zu unseren Daten, Tijen Onaran

4. Dezember 2018 Posted by Stefan Pfeiffer

Einen offenen, positiv besetzten Umgang mit Daten fordert Tijen Onaran auf Handelsblatt.com. Wir würden uns. zu sehr auf die negativen Aspekte und Gefahren konzentrieren. Einige Auszüge:

Die (diffuse) Angst, dass mit unseren Daten etwas passiert, das wir nicht wollen, überwiegt und verhindert eine inhaltliche Auseinandersetzung. …

Wissen und ein positiv besetzter Zugang zum Thema Daten halte ich für eine Grundvoraussetzung, damit es uns gelingt, in Zukunftsfeldern wie Künstliche Intelligenz oder Blockchain nicht den Anschluss zu verlieren und diese in sinnvolle Geschäftsmodelle zu übersetzen. …

Wenn wir die Zukunft gestalten und heute die Chancen, die sich mit der Digitalisierung verbinden, nutzen wollen, brauchen wir dringend einen positiven Umgang mit Daten. Wir brauchen den Mut, den Schutz der Daten nicht von vornherein über Fragen der Wettbewerbsfähigkeit, Wachstumschancen und sinnvollen Anwendungsmöglichkeiten zu stellen.

Quelle: Tijen Onaran: Wir brauchen ein positives Verhältnis zu Daten – handelsblatt.com

Hmm, ich stocke etwas, auch wenn ich für einen konstruktiven – nicht von vorne herein positiven – Umgang mit Daten plädiere. Ja, es gibt unzählige Einsatzgebiete, in denen Daten positiv genutzt werden können und sollen. Das auch von Tijen aufgeführte Beispiel in der Medizin ist ein solches, auch wenn klar sein muss, dass die Künstliche Intelligenz, die die Daten auswertet, nur ein Assistent, ein hoffentlich willkommene Hilfe für den Arzt darstellt. Und wir sollten uns hier auch nicht von vorgeblich negativen Erfahrungen beirren lassen, sondern Systeme und Daten verbessern, um zu richtigen Interpretationen und Empfehlungen zu kommen.

Wie dieses Beispiel meiner Meinung nach zeigt, brauchen wir Datenkompetenz, entsprechendes Wissen bei Bürgerinnen und Bürgern und bei Expertinnen und Experten. Da bin ich bei Tijen. Allerdings wundert es mich nicht, dass das Thema oft negativ besetzt ist, wenn wir an die Nutzung unserer Daten durch Datenkraken denken und darüber lesen. Wie hat Michael Kroker vor kurzem geschrieben: „Wenn ein Produkt oder Dienst Dich nichts kostet, bist Du das Produkt – weil Du mit Deinen persönlichen Daten bezahlst.

Datenschutz, Data Privacy, Datenhoheit und Anonymisierung von Daten sind leider keine einfachen Themen und nicht so leicht positiv zu besetzen. Aber Datenschutz und Nutzung von Daten müssen kein Widerspruch sein. Da finde ich es deplatziert, wenn von der „Datenschutz-Taliban“ gesprochen wird. Deshalb: Wir brauchen kein positives Verhältnis zu Daten. Wir brauchen ein konstruktives, kompetentes Verhältnis zu unseren Daten.

Aber wahrscheinlich sind wir gar nicht weit voneinander weg.

(Stefan Pfeiffer)

 

Diskussion über die DSGVO: „Datenschutztaliban“ versus „Datenkraken“? Einfach vernünftige Lösungen umsetzen

3. Dezember 2018 Posted by Stefan Pfeiffer

Sehr auffallend, wie derzeit an vielen Stellen – gerade auch durch Bitkom-Chef Achim Berg – angemahnt wird, dass doch die Unternehmen gerade im Bereich Künstliche Intelligenz Zugriff auf Daten brauchen. Implizit schwingt mit auf persönliche, nicht anonymisiert Daten …. Je mehr, desto besser.

Die EU-Datenschutzgrundverordnung (DSGVO) bedient einseitig die Seite der „Datenschutztaliban“, berechtigte Verarbeitungsinteressen der sogenannten „Datenkraken“ kommen dagegen deutlich zu kurz. Das zumindest meinte der Datenschutzrechtsexperte und Künstler Winfried Veil – jedoch explizit nicht in seiner Funktion als Mitarbeiter des Bundesinnenministeriums

über Debatte über die DSGVO: Ein Sieg für die „Datenschutztaliban“? | heise online

Ich bin bei Schleswig-Holsteins Datenschutzbeauftragte Marit Hansen, die vernünftige, realisierbare Lösungen fordert und zu Recht auf die kommenden Herausforderungen im Internet of Things hinweist.

Selbst wenn die DSGVO hier und da über das Ziel hinausgeschossen sein sollte, was ich übrigens bisher nicht wahrgenommen habe, hat die Datenschutzgrundverordnung die Diskussion befeuert und vielleicht auch die Sensibilität erhöht. Hoffentlich. Und das ist gut so.

(Stefan Pfeiffer)

Statt Befunde per Fax und Röntgenbilder per CD – Kommt endlich die elektronische Patientenakte?

17. Oktober 2018 Posted by Stefan Pfeiffer

Beim Thema Elektronische Patientenakte scheint endlich Leben in die Bude zu kommen. Wie das Handelsblatt berichtet, gibt es eine Absichtserklärung zwischen Krankenkassen, Ärzten und dem Ministerium. Die Lösung soll wohl allen gesetzlich Versicherten bis spätestens 2021 zur Verfügung gestellt werden. Gesundheitsminister Jens Spahn (CDU) habe wohl Druck gemacht, dass sein Ministerium die Aufgabe an sich ziehen werde, sollten sich die Beteiligten nicht endlich einigen.

Seit 2004 – so heise – seien 2,7 Milliarden Euro investiert worden, der Aufbau einer Infrastruktur zum Abgleich von Patientendaten zwischen Ärzten, Krankenhäusern und Krankenkassen habe sich aber immer wieder verzögert.

In die Akte sollen neben Arztbefunden und Röntgenbildern auch kassenspezifische Informationen wie etwa zu Bonusprogrammen einfließen. Die Akte soll außerdem einen eigenen Bereich für Versicherte enthalten. Dort können sie beispielsweise Daten sammeln, die von Fitness-Trackern aufgezeichnet wurden.

über Elektronische Patientenakte: Einigung auf digitale Standards | heise online

Spahn fordert schnelle Ergebnisse und laut Bericht sollen Patienten spätestens ab 2021 auch per Smartphone und Tablet ihre Patientendaten einsehen können.

Auf der CEBIT 2018 haben wir uns im IBMLivestudio@CEBIT in einem Gespräch zwischen  Dr. Jens Baas, Vorstandsvorsitzender TK, und Matthias Hartmann, Chef der IBM Deutschland, auch mit dem Thema auseinandergesetzt. Die TK hat mit IBM bereits eine elektronische Gesundheitsakte entwickelt. Dr. Baas sagt im Interview:

„Ist es nicht besser, die Daten sind gesichert in einer Cloud, wo sie verschlüsselt sind und wo niemand dran kommt? Und wo nur (der Patient) Herr über diese Daten ist? Dann ist die Reaktion der Leute fast durchgängig positiv. Wir haben Versicherte befragt: Über 90 Prozent sagen: Das wäre eigentlich prima, wenn ich so etwas hätte.“

Hier kann das gesamte Video angesehen werden. Informationen der TK zur elektronischen Gesundheitsakte gibt es hier.

Natürlich gibt es auch Bedenken der Sammlung und Nutzung der Patientendaten. Diese liegen vor allem im Bereich Datenschutz und Datenhoheit und in der Interessenlage von Pharmakonzernen, die natürlich auch großes Interesse an „Big Data“, den Patientendaten, haben.

Meine 2 Cents: Gerade aufgrund meiner Erfahrungen des vergangenen Jahres, begrüße ich den Aufbau einer solchen Akte mit transparentem Austausch von Daten zwischen Ärzten und Krankenhäusern, wobei natürlich ich als Patient entscheide, wem ich welche Daten freigebe. Es kann nicht sein, dass „meine“ Ärzte nicht einmal „meine“ Daten im Zugriff haben. Dass derzeit noch CDs mit Röntgenbildern oder Faxe mit Befunden verschickt werden, ist nicht nur nicht zeitgemäß, es ist auch nicht sicherer als eine vernünftige digitale Lösung. Hier lebt man in Deutschland noch in der Steinzeit. Aber nochmals, klar ist für mich jedoch: Die Datenhoheit muss beim Patienten liegen – und ganz sicher nicht bei Krankenkassen, Krankenhäusern oder gar Pharmakonzernen!

(Stefan Pfeiffer)