KoolKill

bits: In Asien klappt Coronabekämpfung doch mit weniger Datenschutz?!

bits: In Asien klappt Coronabekämpfung doch mit weniger Datenschutz?!

Hallo,

die vergangenen Tage wurde ich mehrfach im Rahmen von Interviews und Leser:innenbriefen mit einem Kommentar in der Zeit konfrontiert, wo unter dem Titel „Von Asien lernen“ Maßnahmen zur Pandemiebekämpfung aus Asien beschrieben wurden. Anscheinend haben viele aus dem Artikel herausgelesen, dass der Datenschutz bei uns Schuld an der Pandemie sei und dort der fehlende Datenschutz ein Hauptfaktor für eine bessere Strategie wäre.

Das Argument, dass der Datenschutz bei uns stören würde, hört man ja regelmäßig, und ich bin da schon oft drauf eingegangen. Heute möchte ich mich auf den Vergleich der Strategien zur Pandemiebekämpfung konzentrieren. Da spielen Datenschutzfragen tatsächlich nur eine nebensächliche Rolle. Vor allem kann man erfolgreiche Strategien in Asien leider nur bedingt mit unseren in Deutschland vergleichen.

Wie die Zeit richtig schreibt, liegt es nicht an einer „konfuzianischen Untertanenmentalität“, sondern an knallharten Vorschriften der jeweiligen Länder. Bei uns steht hingegen die Freiwilligkeit in der Befolgung der Regeln im Vordergrund. Es wird mit mehr oder manchmal weniger Erfolg versucht, notwendige Maßnahmen zu begründen und zu erklären. Das führt leider dazu, dass diese von Teilen unserer Gesellschaft als eine Art ehrenamtliches Engagement betrachtet werden. An die Vorgaben kann man sich dann halten, wenn man Lust drauf hat, oder eben nicht. Dazu zählt das korrekte Masken(richtig)tragen, das Abstandhalten oder ausnahmsweise mal auf Partys und Urlaube verzichten.

Dazu kommen in vielen asiatischen Staaten klare Reiseverbote und geschlossene Grenzen, und zwar im Sinne von tatsächlich undurchlässig, nicht nur eine Beschränkung oder Regulierung der Übertritte. Das ist bei kleinen Inselstaaten etwas einfacher durchzusetzen, wie sich auch in Neuseeland zeigt. Von Diktaturen wie China ganz zu schweigen. Aber vor allem setzen die Länder Urlaubsverbote konsequent um. Wenn wir bei uns Spanien-Urlaube in einer Pandemie verbieten würden, bräche vermutlich eine Revolution aus. Doch erst wenn wir solche Maßnahmen zur Eindämmung der Krankheitsverbreitung ernsthaft umsetzen wollten, könnten wir uns ja darüber unterhalten, ob zur Einhaltung der harten Regeln auf bestehende Datenbanken zugegriffen werden könnte, um das auch durchzusetzen.

Quarantäne, aber richtig

Aber ein zentrales Element in asiatischen Staaten ist die konsequente Quarantäne-Strategie mit einer Überprüfung der Einhaltung. Ein Zwang zu 14 Tagen Hotel mit Verpflegung, aber auf eigene Kosten, ohne dass man das Zimmer verlassen darf. Tagsüber nur eine Stunde Rundgang auf dem Hotel-Parkplatz. Zur Einhaltung der Regeln wird überprüft, ob sich das Handy bewegt hat. Gut, darüber können wir sprechen. Aber erst, wenn wir uns auf den Punkt „14 Tage Quarantäne“ geeinigt haben, zusätzlich mit mehreren Tests in diesem Zeitraum. Bei uns wird beides ja eher als Handlungsempfehlung angesehen, Tests gibt es nicht mehr für alle und es gibt auch keinerlei Kontrolle darüber.

In Asien sind die Maßnahmen aber nicht freiwillig. Natürlich werden sie zunächst debattiert und erläutert, jedenfalls in den demokratischen Staaten. Aber dann setzt man sie eben um. Regelverstöße werden härter geahndet. Sozialer Druck und mögliche Sanktionen sorgen letztlich dafür, dass praktisch alle mit Masken rumlaufen, weil es sonst der ganzen Gesellschaft schlechter ginge. Das ist eigentlich ein No-Brainer, aber eben für Teile unserer Bevölkerung leider nicht – und da muss man nicht nur an Querdenker denken.

Wenn wir über eingeschränkten Datenschutz in Asien reden, dann reden wir vor allem über die Durchsetzung und Kontrolle von Regeln, die nicht zur Debatte stehen und damit dem Diskurs und einem Rechtfertigungszwang entzogen werden. Das wäre dann aber auch eine ganz andere Debatte bei uns als die Frage, ob die Corona-Warn-App jetzt ausreichend überwachen kann.

Die Corona-Warn-App ist gerade unser kleinstes Problem

Bei der App ist das Hauptproblem, dass sie zuviele Erwartungen geweckt hat. Vor allem bei Menschen, die sie technisch nicht gut in ihren Möglichkeiten einschätzen konnten und die jetzt den Datenschutz für die zweite Welle verantwortlich machen. Aber wenigstens funktioniert sie gerade noch, im Gegensatz zu unserer analogen Kontaktverfolgung in Gesundheitsbehörden, wo das System aktuell zumindest in Teilen zusammengebrochen ist. Und die meisten Beschwerden über die Corona-Warn-App haben eher mit unserer Test-Infrastruktur und der mangelnden Anbindung von Laboren zu tun und nicht mit der App an sich.

Selbstverständlich muss man alle Grundrechte gegeneinander aufwiegen und das Grundrecht auf informationelle Selbstbestimmung steht nicht immer über allen anderen. Aber Maßnahmen müssen auch evidenzbasiert sein und priorisiert werden.

Ein simples „In Asien klappt es doch mit weniger Datenschutz“, ist mir dabei echt viel zu unterkomplex.

Kurze Pausenmusik:

Dieser Newsletter wird, neben viel Herzblut, durch Spenden unserer Leser:innen ermöglicht. Hier kann man uns mit einem Dauerauftrag oder Spende unterstützen.

Wir freuen uns auch über etwas Werbung für den bits-Newsletter, um mehr Mitlesende zu bekommen. Hier geht es zur Anmeldung.

Feedback und sachdienliche Hinweise bitte an markus@netzpolitik.org schicken.

Die Erstellung dieser Ausgabe wurde freundlicherweise von Tomas Rudl und Mascha Fouquet unterstützt.

Neues auf netzpolitik.org

Anna Biselli hat verschiedene Reaktionen auf die Hintertür-Pläne des EU-Ministerrates zusammengefasst: Wirtschaft und Zivilgesellschaft stellen sich gegen Pläne der EU-Staaten.

Ein Vorschlag des EU-Ministerrats, dass verschlüsselte Kommunikation erheblich geschwächt werden soll, ruft starke Gegenreaktionen hervor. Sie kommen aus Zivilgesellschaft und Wirtschaft gleichermaßen.

===

Serafin Dinges fasst ein aktuelles Urteil des Europäischen Gerichtshofs zusammen: Im Voraus angekreuzte Kästchen sind nicht legal.

Eine Einwilligung zur Datenspeicherung ist nur rechtskräftig, wenn Nutzer:innen das entsprechende Häkchen selbst setzen. Der Europäische Gerichtshof hat hierzu heute Klarheit geschaffen. Auslöser war ein Gerichtsverfahren in Rumänien.

===

In ihrer Kolumne ordnet Julia Reda ein Verfahren vor dem Europäische Gerichtshof ein, der sich mit Kompatibilität von Uploadfiltern und der Europäischen Grundrechtscharta beschäftigt: EuGH könnte Uploadfilter kippen und Berlin blamieren.

Sollte die CDU gegen ihr Versprechen den Einsatz von Uploadfiltern verlangen, könnte der Europäische Gerichtshof die Richtlinie nächstes Jahr wieder kippen.

Was sonst noch passierte:

Das Bundeskriminalamt ermittelt gegen Drogenimporteure und hat dafür Chats aus dem Encrochat-Netzwerk ausgewertet: Krypto-Handys geknackt BKA nimmt Kokain-Großdealer fest.

Auf die Hintergründe von Encrochat hatte ich im Juli hingewiesen. Vice Motherboard hat viele Details der Operation: How Police Secretly Took Over a Global Phone Network for Organized Crime.

===

Das Schweizer Republik-Magazin hat neue Details rund um die Crypto AG recherchiert. Das Unternehmen wurde viele Jahre lang von CIA und BND mitbetrieben und verkaufte Verschlüsselungsequipment mit eingebauten Hintertüren in alle Welt. Republik fand heraus, dass auch Schweizer Unternehmen von der CIA ausspioniert wurden: Die mysteriöse Schwester­firma.

===

Eine neue Studie der Stanford University kommt auf Basis der Auswertung von Mobilfunkdaten zu dem Ergebnis, dass sich an einigen Orten Menschen besonders häufig anstecken. Zu den Orten gehören Restaurants, Hotels, Cafes, Fitnessstudios und religiöse Räume. Also überall, wo Menschen in Gruppen zusammenkommen. Lars Fischer hat bei Spektrum eine Einordnung: Telefondaten deuten auf Superspreader-Orte.

Die Studie „Mobility network models of COVID-19 explain inequities and inform reopening“ findet sich bei Nature.

===

Eine gute Analyse zu den weniger werdenden Corona-Infektionszahlen bietet der Faktenfinder von Tagesschau.de: Trendwende in Sicht? Es ist derzeit unklar, ob das auf die aktuellen Maßnahmen zurückzuführen ist, auf die Appelle der Bundesregierung, mehr zuhause bleiben oder einfach nur die Tests abnehmen, weil das System gerade etwas zusammenbricht. Allerdings steigen die Todeszahlen und das ist kein gutes Zeichen.

===

Dafür gibt es Hoffnungen, dass bis Ende 2022 das „Deutsche Elektronische Melde- und Informationssystem für den Infektionsschutz“ (DEMIS) in allen Gesundheitsbehörden verfügbar sein soll. Mal schauen, wie stark dann noch die Corona-Pandemie ist: Fax statt Videochat – So groß ist das Digitalisierungs-Defizit der Gesundheitsämter.

===

Mehrere Arztpraxen sind derzeit ein Fall für die Staatsanwaltschaft, weil sie Schilder mit „Maske verboten“ hängen haben oder Statements wie „Impfung ohne Sinn“ von sich geben: Berliner Ärztekammer prüft 130 Fälle Corona leugnender Ärzte.

===

Die Polizei in Mecklenburg-Vorpommern hat einige Verschwörungsideologen auf ihrer Corona-Leugnungs-Tournee festgenommen, da sie sich nicht an Auflagen halten wollten: Polizei nimmt Pandemieleugner Schiffmann in Gewahrsam.

Darunter war auch der Verschwörungsideologe Samuel Eckert, der auch eine Chatgruppe mit Falschbehauptungen und Verschwörungsmythen für Kinder betreibt, wie Report Mainz recherchiert hat: Verschwörungsmythen im Kinder-Chat.

===

Das Bundesinnenministerium sieht Club-Kultur nicht als Teil der Kultur an. Ich persönlich halte Clubs in meiner Kultur für relevanter als Opern und Theater, aber da haben die Juristen im BMI offensichtlich eine andere Vorstellung: Berliner Clubs werden nicht als Kulturstätten anerkannt.

===

Eine schöne Idee: Fahrrad-Aktivist:innen haben auf der Basis eines Luftbildes von 2019 für den Bezirk Friedrichshain-Kreuzberg ausgerechnet, wieviel Fläche parkende Autos einnehmen. Die 38351 gezählten parkende Autos haben in etwa den Umfang von allen Parks im Bezirk zusammen.

===

Auf mehrfachen Wunsch hin soll ich doch über das mediale Großereignis einer Trump-Pressekonferenz vom Wochenende vor einer Garage in einem Industriegebiet neben einem Sex-Shop schreiben. Passenderweise hat das die Washington Post schon gut zusammengefasst: It began on a gold escalator. It may have ended at Four Seasons Total Landscaping.

Mittlerweile gibt es zahlreiche Hintergrundbilder zur Verwendung in Video-Konferenzen von dem Ort und auch in virtuellen 3D-Welten gibt es schon Nachbauten. Furries inklusive. Ein zeitgeschichtlicher Ort mit großer Ausstrahlung also, an den sich viele auch noch nach Trump erinnern werden.

Video des Tages: Philosophie von Revolutionen

Die Philosophin Eva von Redecker hat das Buch „Revolution für das Leben – Philosophie der neuen Protestformen“ geschrieben, das ich auch noch lesen möchte. In der Schaubühne Berlin hat sie das Buch und ihre Thesen im Gespräch mit Nils Markwardt vorgestellt. Davon gibt es eine Aufzeichnung auf Youtube.

Tilo Jung hatte zuletzt ein Gespräch mit Eva von Redecker für sein „Jung und naiv“-Interviewformat veröffentlicht, das man sich auch als Podcast anhören kann.

===

Das war es für heute. Viele Grüße und bleibt gesund,


Markus Beckedahl

Ich freue mich immer über Feedback und gute Hinweise. Meine Mailadresse ist markus@netzpolitik.org. Ich bin zwar häufig von zu vielen eMails überfordert und bekomme nicht alle beantwortet. Aber ich lese alle Mails.

Diesen Newsletter kann man hier abonnieren.

Dieser Newsletter wird auch von vielen Spenden im Rahmen der freiwilligen Leser:innenfinanzierung von netzpolitik.org ermöglicht. Mit Deiner Unterstützung können wir noch viel mehr machen.

Digitaler Nachlass: „Der Whatsapp-Verlauf ist für viele das Wichtigste“

Digitaler Nachlass: „Der Whatsapp-Verlauf ist für viele das Wichtigste“

In diesem Artikel geht es auch um Suizid. Wenn du Suizidgedanken hast oder vermutest, dass eine Person in deinem Umfeld betroffen ist, sprich mit Freund:innen darüber. Unter 0800-1110111 oder per Chat erhältst du kostenlose Hilfe von Berater:innen, die schon in vielen Fällen Auswege aus schwierigen Situationen aufzeigen konnten.

Er würde gerne mit mir über die schönen Seiten des digitalen Erbes sprechen, sagt Lorenz Widmaier gleich in unserem ersten Gespräch am Telefon. Das würde oft zu kurz kommen bei diesem Thema.

Ich habe den Soziologen Widmaier angerufen, um zu erfahren, was Angehörige eigentlich mit dem Smartphone und den Social-Media-Konten eines Verstorbenen machen. Wie gehen sie mit dem digitalen Erbe der Person um: Wegwerfen, löschen, anschauen, fortführen?

Das Smartphone würde fast immer aufgehoben, stellt Widmaier gleich zu Anfang klar. Für sein Forschungsprojekt über den digitalen Nachlass hat er 31 Angehörige von Verstorbenen in ihrem Zuhause besucht und ihre Erinnerungspraktiken fotografiert. Ob ich Fotos von den Whatsapp-Nachrichten einer Mutter an ihren verstorbenen Sohn sehen möchte? Er bereite gerade eine Ausstellung damit vor.

Widmaier lebt auf Zypern und promoviert an der Technischen Universität zur Bedeutung von digitalen Nachlässen für Hinterbliebene und digitalen Trauer- und Erinnerungspraktiken. Er ist zufällig zu Besuch in Berlin, als wir uns im Oktober mit Abstand und Maske zum Interview treffen.


Lest hier das Interview mit Katrin S., die aus persönlicher Erfahrung über den Umgang mit dem digitalen Erbe ihrer verstorbenen Tochter erzählt.


„Der Whatsapp-Verlauf ist für viele mit das Wichtigste“

netzpolitik.org: Lorenz, für dein Forschungsprojekt hast du mehr als zwei Dutzend Angehörige in ihrem Zuhause besucht und ihre Erinnerungspraktiken fotografiert. Wenn du jetzt die Augen schließt und an das Thema digitaler Nachlass denkst, welches Bild hast du dann vor Augen?

Lorenz Widmaier: Ich habe vor allem ein positives Gefühl, weil das Thema sehr viel schöne und wertvolle Seiten hat. Nicht nur, es gibt natürlich auch digitale Nachlässe, die traurig sind und die man nicht anschauen will. Aber die meisten Gespräche mit Hinterbliebenen waren wirklich hilfreich und schön.

netzpolitik.org: Was fällt alles unter den Begriff digitaler Nachlass?

Widmaier: Grundsätzlich fällt da alles drunter, was es digital gibt. Bilder, Dokumente, Videos. Und natürlich Messenger-Apps. Der WhatsApp-Verlauf ist mittlerweile für viele mit das Wichtigste, und zwar genau aus dem Grund, dass da die ganz alltägliche Kommunikation stattfindet. „Ich gehe jetzt einkaufen, brauchst du noch was?“. Das ist für viele extrem wichtig im Erinnern. Es ist toll, dass man auf diesem Weg etwas hat, was es so früher nicht gab. Briefe beispielsweise sind oft speziell geschrieben, da hat man sich extra darangesetzt.

netzpolitik.org: Was für Unterschiede gibt es noch zwischen digitalem Nachlass und herkömmlichen Nachlass?

Widmaier: Digitaler Nachlass unterscheidet sich oft mit Blick auf die Menge, die Alltäglichkeit und natürlich auch darin, was damit gemacht werden kann. Ein Fotoalbum ist relativ statisch, das hat man und zeigt es manchmal. Aber über das Smartphone wird viel geteilt und weitergeleitet und man bekommt noch was von anderen zugeschickt. Das ist neu. Viele entdecken nach dem Tod noch neue Bilder des Verstorbenen, zum Beispiel, wenn sie den Namen googeln. Gleichzeitig würde ich die Unterschiede nicht überbewerten, denn es kommt immer auch auf die konkrete Person an. Bei manchen ist der digitale Nachlass sehr klein, da gibts dann nur 20 Bilder auf dem Smartphone und das wars.

„Das Smartphone wird fast immer aufbewahrt“

netzpolitik.org: Hast du mit Angehörigen gesprochen, die sich dagegen entschieden haben, den digitaler Nachlass eines Verstorbenen anzuschauen?

Widmaier: Ja, auf jeden Fall. Insbesondere bei Partnerschaften gibt es das öfter. Häufig habe ich dann gehört „Das Handy meines Partners war zu Lebzeiten tabu. Wir hatten immer unsere privaten Bereiche. Warum soll ich das jetzt anschauen?“ Interessanterweise wurde das Smartphone trotzdem oft aufbewahrt. Das Wegwerfen war keine Option.

netzpolitik.org: Warum ist für viele das Smartphone des Verstorbenen so wichtig?

Widmaier: Ich denke, das liegt daran, dass Smartphones ein Gegenstand sind, den man am Körper trägt und den auch der Verstorbene ständig in der Hand hat. Deswegen ist das als Objekt unabhängig von den Daten ganz wertvoll. Deshalb werden Smartphones fast immer aufgehoben, teilweise werden sie auch weiterverwendet, aber es ist eigentlich immer etwas ganz Besonderes. Bei Computern hatte ich das Gefühl, die werden eher aussortiert. Da werden die Daten gesichert, aber dann kommt der Rechner weg.

Angehörige suchen nach Antworten

netzpolitik.org: In welchen Fällen entscheiden sich Hinterbliebene dafür, das digitale Erbe der Verstorbenen anzuschauen?

Widmaier: Bei verstorbenen Kindern ist es oft so, dass die Eltern sich das anschauen. Gerade bei einem Suizid oder bei einem Kriminalfall gibt es Fragen, die man beantworten möchte. Ich habe beispielsweise mit einem Vater gesprochen, der konnte den digitalen Nachlass nutzen, um zu verstehen, dass sein Sohn selbst keine Schuld an seinem plötzlichen Tod trug, sondern andere. Diese speziellen Fragen konnte er durch den Nachlass beantworten und und das war für ihn sehr, sehr wichtig.

netzpolitik.org: Also sind es vor allem Eltern, die sich die Nachrichten ihrer verstorbenen Kinder anschauen?

Widmaier: Es gibt auch Paare, die sagen „Wir hatten keine Geheimnisse voreinander, wir wussten schon immer alles, auch was auf dem Smartphone drauf ist.“ Da ist das dann überhaupt kein Thema, natürlich kann man sich das auch nach dem Tod anschauen. Also in Partnerschaften gibt es wirklich beide Positionen.

Sexualität bleibt Privatsache

netzpolitik.org: Wo ziehen Angehörige meistens die Grenze in dem, was sie sich anschauen und was nicht?

Widmaier: Also zum einen sind manche Erinnerungen einfach zu schmerzhaft, gerade bei Videos. Das haben sich dann einige nicht angeschaut, weil es zu emotional war. Manche haben auch nur die Erinnerungen aus den letzten Jahren angeschaut, aber nichts, was davor war, oder andersherum nur die aus der Kindheit.

Und dann gibt es Unterschiede, was sich Leute aus Datenschutzgründen nicht anschauen. Viele haben gesagt, sie schauen sich nicht die Whatsapp-Nachrichten des Partner an. Das wäre zu privat, andere Nachrichten werden aber angeschaut. Gerade bei verstorbenen Kindern, die schon ein bisschen älter waren, die vielleicht Partner hatten, wurden die Nachrichten sehr vorsichtig angeschaut. Denn da gibt es ja auch Bilder von Sexualität und alles Mögliche, was man als Eltern nicht sehen will.

netzpolitik.org: Das heißt, es kann auch passieren, dass man als Angehörige etwas sieht, was man nicht sehen wollte.

Widmaier: Teilweise müssen Angehörige in die E-Mails gehen, um nach Informationen über irgendwelche Verträge zu suchen. Die haben dann gesagt, sie schauen sich das nur an, um die Informationen zu kriegen, aber nicht, um darin zu stöbern. Dafür reichen dann vielleicht schon Empfänger und Betreffzeile. Also da werden die E-Mails mit ein bisschen Abstand angeschaut.

Über WhatsApp mit den Verstorbenen in Kontakt bleiben

netzpolitik.org: Manchmal lesen Angehörige nicht nur Nachrichten, sondern interagieren auf diesem Weg auch mit der Verstorbenen oder deren Freundinnen.

Widmaier: Dass Freund*innen der Verstorbenen nach dem Tod noch schreiben, das gibt es in der Tat oft. Auch, dass die Angehörigen den Toten selbst noch schreiben, gibt es häufig. Ich habe zum Beispiel mit einer Mutter gesprochen, die hat ihren Sohn durch einen Unfall verloren und sie hat dann nach seinem Tod noch drei Jahre regelmäßig über WhatsApp an ihn geschrieben.

Am Anfang gibt es da dann noch diese zwei blauen Häkchen und irgendwann nur noch das eine Graue. Aber dann hat sie sein Handy wieder aufgeladen und es gab wieder die zwei Blauen und das ist so zwei, drei Jahre gegangen. Sie ist auf diesem Weg mit ihm in Kontakt geblieben. Interessanterweise hat sie den Chatverlauf dann genommen und als 10×15-Fotos entwickelt und daraus ein Album gemacht. Damit wollte sie diese Erinnerung sichern, weil sie WhatsApp nicht traut, dass die Daten nicht irgendwann weg sein könnten.

Screenshot von Whatsapp-Verlauf zwischen Mutter und Kind. – Alle Rechte vorbehalten Lorenz Widmaier

Passwörter sind eher selten eine Hürde

netzpolitik.org: Hast du mit Angehörigen gesprochen, die an technischen Hürden gescheitert sind und keinen Zugriff auf die Geräte oder Konten der Verstorbenen bekommen konnten?

Widmaier: Dass man die Passwörter nicht bekommt, das war erstaunlicherweise relativ selten der Fall. Da dachte ich, dass würde viel öfter passieren. Das Problem ist eher, dass Angehörige manchmal nicht wissen, wie Facebook funktioniert oder dass es Plattformen wie Instagram oder TikTok überhaupt gibt. Wer noch nie davon gehört hat, kommt auch nicht auf die Idee, sich das anzuschauen. Unklar ist außerdem, wie man ein Facebook-Profil sichert. Scrollt man so lange zu den alten Beiträgen, bis der Browser abstürzt? Solche ganz praktischen Schwierigkeiten gab es oft.

Ich habe ein Gespräch mit einer Mutter geführt, die hatte eine externe Festplatte im Nachlass gefunden und wusste aber nicht, wie man die anschließt und darauf zugreift. Wir haben das dann gemeinsam gemacht und ich saß da auch fünf Stunden dran, bis wir die Daten hatten.

netzpolitik.org: An wen wenden sich Angehörige für Unterstützung bei technischen Schwierigkeiten? Es ist ja ein sehr sensibler Bereich.

Widmaier: Meistens an Freunde oder es bleibt erst mal liegen. Das war oft der Fall, dass man das erst mal verschoben hat und dann wurde es irgendwann weniger wichtig. Wichtig war dann oft, dass man die Möglichkeit hatte. Manche wenden sich auch an spezielle Firmen, die die Daten retten.

Menschen trauern dort, wo auch gelebt wurde

netzpolitik.org: Auf welchem Weg wird in der digitalen Öffentlichkeit getrauert?

Widmaier: Ich habe mit einem Vater gesprochen, der macht Videos aus den Sprachnachrichten und Fotos seiner verstorbenen Tochter und er macht das auf YouTube komplett öffentlich. Andere haben Messenger-Gruppen mit fünf Leuten oder Gedenkseiten mit zweihundert Leuten. Manche schreiben täglich, andere nur zu besonderen Tagen, wie Geburtstagen. Also es gibt da alle Abstufungen von privat bis zu komplett öffentlich.

netzpolitik.org: Wie sieht eine digitale Traueranzeige aus?

Widmaier: Das ist spannend. Ich habe mit einem Bestatter geredet und er meinte, dass nur noch etwa 50 Prozent der Angehörigen eine Todesanzeige in der Zeitung schalten. Und bei allen anderen läuft das über Facebook oder WhatsApp. Hinterbliebene ändern beispielsweise ihren Status zu „in Trauer“. Das ist dann weniger eine klassische, förmliche Traueranzeige, sonder oft ein bisschen bunter, teilweise mit Bildern. Emojis werden ganz oft verwendet, auch in den Antworten.

netzpolitik.org: Du setzt dich für einen positiven Blick auf den digitalen Nachlass ein. Warum?

Widmaier: Oft wird das digital ja so ein bisschen belächelt. Gerade wenn man irgendwo seinen Kaffee fotografiert. Aber genau dieses Bild kann am Ende sehr wichtig sein. In der akuten Phase, nachdem jemand verstorben ist, ist das noch gar kein Thema. Aber ein, zwei oder drei Jahre später kann das sehr wertvoll sein. Auch wenn der Partner an Krebs gestorben ist, ist es sehr hilfreich, sich die Bilder anzuschauen, um sich noch mal zu versichern, dass er ein gutes Leben hatte. Und das sollte ernst genommen werden.

Solange sich der ganze Diskurs nur darum dreht, wie man digitale Konten löscht, fehlt etwas sehr Wichtiges. Denn was zu Anfang gleich gelöscht wird, ist später nur schwer zurückzuholen.


Fühlst du dich antriebslos oder bist in einer scheinbar ausweglosen Situation? Unter den kostenlosen Hotlines 0800-1110111 und 0800-1110222 findest du zu jeder Tags- und Nachtzeit Hilfe. Du kannst dich dort anonym und vertraulich beraten lassen, welche Form der Therapie dir helfen könnte. Eine Liste mit bundesweiten Hilfsstellen bietet die Deutsche Gesellschaft für Suizidprävention.

Contact-Tracing-Apps: Kritik an Datenschutzfolgenabschätzung für die Corona-Warn-App

Contact-Tracing-Apps: Kritik an Datenschutzfolgenabschätzung für die Corona-Warn-App

Kirsten Bock, Christian Ricardo Kühne, Rainer Mühlhoff, Měto Ost, Jörg Pohle und Rainer Rehak engagieren sich im Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF).

Am 16. Juni war es endlich soweit, in ganz Deutschland und auch darüber hinaus blickte man auf die nun veröffentlichte Corona-Warn-App. Nach wochenlanger Diskussion um Nutzen, Technik und Architektur konnte sie endlich installiert und genutzt werden, was Stand heute bereits über vierzehn Millionen Mal getan wurde. Die halbe Welt berichtete über den deutschen Erfolg bei der digital-automatisierten Kontaktverfolgung.

Aber wie so oft ist nicht alles Gold, was glänzt, und nicht jeder kennt den Unterschied zwischen Datenschutz und IT-Sicherheit. Das FIfF hat daher heute eine Analyse samt konstruktiver Anmerkungen und Vorschläge zur offiziellen Datenschutzfolgenabschätzung (DSFA) für die im internationalen Vergleich sehr populäre Corona-Warn-App veröffentlicht. Darin spart das FIfF nicht mit grundsätzlicher und konkreter Datenschutz-Kritik, verteilt aber auch Lob für den gesamten Entwicklungsprozess.

Der Gastbeitrag erklärt den Sinn und Zweck einer DSFA und erläutert auch, welche nach wie vor gültigen Ergebnisse eine eigene DSFA, die das FIfF bereits im April veröffentlichte, erbracht hat. Eine DSFA ist dabei keine Fingerübung im akademischen Diskurs, sondern eine notwendige und gesetzliche Anforderung an Datenprojekte, die Informationen von Menschen verarbeiten – denn Datenschutz ist Grundrechtsschutz.

Eine ausführlichere Auseinandersetzung mit der Datenschutzfolgenabschätzung folgt im Laufe der Woche in Form eines Interviews mit Kirsten Bock.

Datenschutzfragen dezentraler Corona-Tracing-Apps

„Es geht nicht um Privatsphäre, sondern es geht darum, eine Technik sozial beherrschbar zu machen.“

Wilhelm Steinmüller (1934–2013)

Gesellschaftliche Implikationen durch Datenschutzfolgenabschätzungen diskutierbar machen

Mehrere Wochen kreiste die Diskussion zur die Eindämmung der Corona-Pandemie um den Einsatz technischer Hilfsmittel, insbesondere von sogenannten Corona-Tracing-Apps. Diese sollen automatisiert die epidemiologisch relevanten Kontaktereignisse von Nutzerïnnen aufzeichnen und es so erlauben, im Infektionsfall zeitnah und rückwirkend die exponierten Kontaktpersonen warnen und isolieren zu können. Bislang wird das sogenannte Contact-Tracing manuell von Mitarbeiterïnnen der Gesundheitsbehörden vollzogen, also etwa anhand der Erinnerung der Infizierten und anschließender Warnung per Telefon. In einigen Ländern, zum Beispiel China, werden auch weitere Informationsquellen genutzt wie beispielsweise Kreditkartendaten oder Reiseinformationen. Diese mühsame Arbeit kann, so die Vision, durch den Einsatz von Apps wesentlich beschleunigt werden.

Auch wenn die konkrete Tauglichkeit einer solchen App für diesen Zweck sowohl epidemiologisch als auch technisch noch umstritten ist und die Gefahr einer grundsätzlichen gesellschaftlichen Gewöhnung an Contact-Tracing besteht, soll es an dieser Stelle nicht um ein generelles „Ob“, sondern ein „Wie“ einer solchen App gehen. Denn erst bei der Betrachtung der konkreten technischen Umsetzung lassen sich individuelle und gesellschaftliche Konsequenzen analysieren. Die Erkenntnisse können dann wiederum in Form von Anforderungen zurück in die konkrete Ausgestaltung des Verfahrens fließen.

Datenschutz und seine Verankerung in der Gesetzgebung ist ein Garant der Grundrechte und Grundfreiheiten im digitalen Zeitalter. Er bezieht sich nicht nur auf individuelle, sondern auch auf kollektive Rechte. Datenschutz hält die funktionale Differenzierung moderner Gesellschaften aufrecht, indem er strukturelle Machtasymmetrien problematisiert und somit gesellschaftliche Grundfunktionen absichert.

Im Unterschied zu Fragen der IT-Sicherheit geht es dem Datenschutz weniger um externe Angriffe auf Systeme und Daten, sondern um Grundrechtseinschränkungen durch die Datenverarbeitung selbst. Im Fokus steht deshalb nicht primär die „Privatheit“ des einzelnen Datensubjekts, sondern die gesamtgesellschaftlichen, strukturellen Auswirkungen und Machteffekte einer Datenverarbeitung. Eine Datenschutzanalyse geht somit prinzipiell von der verarbeitenden Organisation als der primären Risikoquelle aus, um den Blick von dort schließlich auch auf Plattformen, Dienstleisterïnnen, Nutzerïnnen und externe Dritte zu richten.

Datenschutzfolgenabschätzung

Auch wenn die technischen Eigenschaften der Tracing-Apps, darunter sogar ihre genaue Zweckbestimmung, noch nicht abschließend ausgehandelt sind, müssen die datenschutz- und somit grundrechtsrelevanten Folgen dieses Vorhabens nach wie vor detailliert diskutiert werden. Für diese Art der Analyse gibt es in der DSGVO das Instrument der Datenschutzfolgenabschätzung. Dort heißt es in Art. 35 DSGVO:

(1) Hat eine Form der Verarbeitung, insbesondere bei Verwendung neuer Technologien, aufgrund der Art, des Umfangs, der Umstände und der Zwecke der Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge, so führt der Verantwortliche vorab eine Abschätzung der Folgen der vorgesehenen Verarbeitungsvorgänge für den Schutz personenbezogener Daten durch.

Für das methodische Vorgehen im Rahmen einer DSFA gibt es unterschiedliche Ansätze. In Deutschland wird dafür von der Konferenz der Datenschutzbeauftragten des Bundes und der Länder das von ihr ausgearbeitete „Standard-Datenschutzmodell” (SDM) empfohlen, an dem auch wir uns im Folgenden orientieren. Dieses verlangt zunächst eine Schwellwertanalyse, um zu klären, inwiefern eine DSFA für ein gegebenes Datenverarbeitungssystem nicht nur gesellschaftlich wünschenswert, sondern auch datenschutzrechtlich gefordert ist. Weil mit den Contact-Tracing-Apps sowohl eine neuartige Technologie als auch personenbezogene Daten in großem Umfang und im Infektionsfall sogar medizinische Daten verarbeitet werden, ist dies hier unzweifelhaft der Fall.

Trotzdem hatte noch bis Ende April keine verantwortliche Stelle eine DSFA für eine der in Deutschland diskutierten Apps vorgelegt. Um die gebotene Aufmerksamkeit auf dieses Thema zu legen, haben wir im April kurzerhand eine Muster-DSFA zur Corona-App erarbeitet und in die öffentliche Diskussion eingebracht.

Im ersten Schritt wird der Zweck des gesamten Datenverarbeitungsverfahrens definiert, in diesem Falle ausschließlich das Erkennen und Unterbrechen von Infektionsketten. Danach gilt es den Kontext der Verarbeitung herauszuarbeiten. Dies umfasst nicht nur die allgemeine gesellschaftliche und politische Lage sowie technische Umstände, sondern auch explizit die verschiedenen Akteure und ihre Interessen. Erst auf dieser Grundlage kann später eine fundierte Analyse von Risiken und Angriffsszenarien erstellt werden.

Sodann müssen Annahmen und Anwendungsfälle für die Verarbeitung erarbeitet werden, um daran anschließend die Verarbeitungstätigkeit im Detail zu beschreiben. Dabei ist zu beachten, dass Verfahren in Teilschritte zu zerlegen sind, von denen nicht alle technikgestützt ablaufen müssen. Im vorliegenden Falle umfasst das Verfahren nicht nur die App, sondern auch die dazugehörigen Serversysteme, Fachanwendungen und Infrastrukturbestandteile wie etwa Betriebssysteme oder technische Kommunikationsbeziehungen. Auf dieser Basis werden dann Rechtsgrundlagen und die Verantwortlichkeit der Verarbeitungstätigkeit diskutiert sowie rechtliche Anforderungen erarbeitet.

All diese Vorarbeiten kombinierend werden Schwachstellen, Gefahren und Risiken der Verarbeitung entwickelt. Damit sind Risiken bezüglich der Grundrechte der Betroffenen gemeint, und zwar aller Grundrechte. Auf die Risikoanalyse aufbauend werden dann Schutzmaßnahmen für die Rechte der Betroffenen bestimmt und zuletzt Empfehlungen für die Verantwortlichen aufgeführt. Die Empfehlungen umfassen insbesondere die besonders problematischen Aspekte, etwa Risiken, für die keine Schutzmaßnahmen existieren.

Zentral oder dezentral?

Aus Gründen der Minimierung des Grundrechtseingriffs und zur Vereinfachung der Analyse gehen wir in unserer DSFA von einem eng umrissenen Zweck für die Datenverarbeitung aus: die Warnung von Personen, die mit Infizierten Kontakt hatten. Die Grundfunktionalität einer solchen App wird im Idealfall umgesetzt, indem das Smartphone in regelmäßigen Abständen über den „Bluetooth Low Energy Beacons“-Standard wechselnde Zeichenfolgen (temporäre Kennungen, tempIDs) via Bluetooth versendet und entsprechend die temporären Kennungen (tempIDs) von anderen Apps empfängt, sofern diese örtlich nah genug sind. Diese Daten ermöglichen eine Kontaktnachverfolgung; aus Dauer und Nähe des Kontakts soll ein Ansteckungsrisiko berechnet werden. Ortsinformationen, also zum Beispiel der GPS-Standort, werden durch dieses System nicht erhoben.

An dieses grundlegende Prinzip zur Detektion von Kontaktereignissen mittels Bluetooth schließen sich nun technische Fragen an, in denen verschiedene Varianten diskutiert wurden. Im Mittelpunkt der Diskussion stand die Frage, ob die Berechnungen des individuellen Expositionsrisikos lokal auf den Mobiltelefonen der Nutzerïnnen oder serverseitig stattfindet. Damit hängt auch die Frage zusammen, wie genau die exponierten Nutzerïnnen kontaktiert werden, um sie zu warnen.

In der zentralen Architektur werden im Fall der positiven Testung alle Kontaktereignisse von der App der infizierten Person auf einen Server hochgeladen. Dieser Server berechnet das Expositionsrisiko für alle Kontakte dieser Person und informiert diese dann aktiv. Der Server hat in dieser Variante somit Kenntnis der Infizierten, derer Kontakte und des sozialen Graphen.

deckblatt dsfa

Die dezentrale Architektur dagegen sieht vor, dass im Falle der positiven Testung nur die von der Person in den vergangenen vierzehn Tagen ausgesendeten temporären Kennungen (tempIDs) auf den Server geladen werden. Die anderen Apps laden sich regelmäßig einen Datensatz aller tempIDs von infizierten Nutzerïnnen herunter und berechnen lokal auf ihrem Smartphone, ob ein Risiko der Ansteckung vorliegt. Der Server kennt in dieser Variante nur die temporären Kennungen der Infizierten, er kann weder ihre Kontakthistorie noch das Kontaktnetzwerk der Nutzerïnnen nachvollziehen. Aus diesem Grunde ist die dezentrale Variante deutlich datenschutzfreundlicher.

Unsere DSFA betrachtet nur den dezentralen, grundrechtsschonenderen Ansatz, der inzwischen von Ländern wie etwa Österreich, Schweiz, Estland und seit Ende April auch von Deutschland verfolgt wird.

Zentrale Erkenntnisse

Im Folgenden sollen vier wichtige Ergebnisse unserer DSFA vorgestellt werden.

1.

Die häufig beteuerte Freiwilligkeit der App-Nutzung ist ein voraussetzungsreiches Konstrukt, das sich in der Praxis als Illusion herausstellen kann. So ist vorstellbar und wird auch bereits diskutiert, dass die Nutzung der App als Bedingung für die individuelle Lockerung der Ausgangsbeschränkungen gelten könnte. Das Vorzeigen der App könnte als Zugangsbedingung für öffentliche oder private Gebäude, Räume oder Veranstaltungen dienen. Eine solche Verwendungsweise wäre mitunter nicht durch den Zweck des Systems gedeckt, könnte aber durch dritte Akteure (z. B. Arbeitgeber oder private Veranstalter) in Kraft gesetzt werden. Dieses Szenario würde eine implizite Nötigung zur Nutzung der App bedeuten und zu einer erheblichen Ungleichbehandlung der Nicht-Nutzerïnnen führen; die ohnehin vorhandene „digitale Schere“ zwischen Smartphone-Besitzerïnnen und -Nicht-Besitzerïnnen würde sich hiermit auf weitere Lebensbereiche ausweiten. Zudem könnte der Zweck des Systems unterminiert werden, wenn Nutzerïnnen aus Angst vor Nachteilen ihr Smartphone absichtlich nicht bei sich führten oder abwechselnd verschiedene Geräte nutzten. Nur durch eine flankierende Gesetzgebung, die diese und andere Zweckentfremdungen effektiv unterbindet, ist dieses Risiko abzumildern.

Hierbei ist darauf hinzuweisen, dass die informierte Einwilligung kein geeigneter rechtlicher Rahmen für eine freiwillige App-Nutzung ist. Denn die informierte Einwilligung externalisiert das Risiko der (Grundrechts-)Folgen sowie die Abwägung zwischen Nutzen und Folgen auf die Betroffenen. Dabei käme es darauf an, gerade diese Abwägung zum Gegenstand demokratischer Aushandlung zu machen. Als Rechtsgrundlage wäre deshalb ein Gesetz erforderlich, in dem die (demokratisch legitimierte und kontrollierte) Gesetzgeberïn die Verarbeitung festlegt und auch deren Grenzen definiert.

kirsten bock
Kirsten Bock Alle Rechte vorbehalten privat

2.

Ohne Intervenierbarkeit (Einschreitbarkeit) und enge Zweckbindung ist der Grundrechtsschutz gefährdet: Es besteht ein hohes Risiko fälschlich registrierter Expositionsereignisse (falsch Positive durch Wände, Masken oder Laborfehler), die zu Unrecht auferlegte Selbst-Quarantäne zur Folge hätten. Um dem zu begegnen, bedarf es rechtlicher und faktischer Möglichkeiten zur effektiven Einflussnahme, etwa das Zurückrufen falscher Infektionsmeldungen, die Löschung falsch registrierter Kontaktereignisse oder das Anfechten möglicher anderer Konsequenzen.

joerg pohle
Jörg Pohle

3.

Alle bislang besprochenen Varianten einer Corona-App unterliegen der DSGVO, denn sie verarbeiten personenbezogene Daten. Alle Daten auf einem Smartphone sind personenbezogen, nämlich bezogen auf die Nutzerïn des Gerätes. Die gilt unabhängig davon, ob Beteiligte die versendeten Zeichenfolgen auf eine Person zurückführen können oder ob das Gerät gut vor dem Zugriff Dritter abgesichert ist. Und weil nur diejenigen Personen Daten an den Server übertragen, die als infiziert diagnostiziert wurden, handelt es sich bei diesen hochgeladenen Daten sogar um Gesundheitsdaten.

Nur durch ein Zusammenspiel organisatorischer, rechtlicher und technischer Maßnahmen kann der Personenbezug wirksam und irreversibel von den hochgeladenen Daten abgetrennt werden, so dass sie letztlich auf dem Server nur noch als „infektions-indizierende Daten ohne Personenbezug“ ankommen. Dieses Anonymisierungsverfahren kann diverse Formen annehmen, muss jedoch kontinuierlich datenschutzrechtlich durch die zuständigen Aufsichtsbehörden prüfbar sein: Organisatorisch müssen die Verantwortlichen in strategischer und die Betreiberïn(nen) in operativer Hinsicht eine Mischstruktur etablieren. Die Verantwortliche – etwa das RKI – könnte strategisch beispielsweise zwei unterschiedliche Betreiberïnnen auswählen: Eine betreibt die Eingangsknoten im Netzwerk und trennt die Metadaten ab, darunter die IP-Adressen, die andere betreibt den eigentlichen Server. Auf der Ebene der Betreiberïnnen muss dann operativ auf eine angemessene Abteilungsstruktur und Funktionstrennung geachtet werden, die die informationelle Gewaltenteilung innerhalb der Organisation – also die funktionale Differenzierung – durchsetzen. Rechtlich müssen die Betreiberïnnen unabhängig sein, keine eigenen Interessen an den Daten haben und vor Pflichten zur Herausgabe von Daten geschützt sein, auch gegenüber staatlichen Sicherheitsorganen. Technisch muss die Betreiberïn die Trennung so umsetzen, dass die Uploads nicht protokolliert werden können, weder auf dem Server noch in ihrem Netzwerk. All diese Maßnahmen müssen durch ein Datenschutzmanagementsystem kontinuierlich prüfbar gemacht und auch geprüft werden.

rainer rehak
Rainer Rehak

4.

Die Rolle der Plattformanbieter Apple (iOS) und Google (Android) ist kritisch zu diskutieren und über den gesamten Verarbeitungsprozess hinweg zu begleiten. Eine Bluetooth-basierte Corona-Tracing-App ist aus technischen Gründen auf die Kooperation der Plattformanbieter angewiesen, da der Zugriff auf das Bluetooth-Modul der Geräte auf Betriebssystemebene ermöglicht werden muss. Diese Machtposition haben die Plattformanbieter in den vergangenen Wochen genutzt, um gegen zahlreiche Regierungen eine dezentrale und somit datenschutzfreundlichere Architektur zu erzwingen. Damit ist das Datenschutzrisiko, das von den Plattformbetreibern selbst ausgeht, in der öffentlichen Diskussion weitestgehend aus dem Blick geraten. Als Betriebssystemhersteller ist es prinzipiell möglich (und auch realistisch, wie die DSFA zeigt), dass Google und Apple an die Kontaktinformationen gelangen und daraus Informationen über Infektionsfälle und Expositionsrisiken ableiten können. Eine kritische Begleitung der Rolle von Apple und Google erfordert daher eine umfassende Sensibilisierung für dieses Problem und die rechtliche Verpflichtung der Unternehmen, sich datenschutzkonform zu verhalten.

rainer muehlhoff
Rainer Mühlhoff

Diskussion in gesellschaftlicher Breite

Insbesondere die quelloffene Entwicklung von Server und Apps nebst allen ihren Komponenten – beispielsweise als freie Software – ist eine wesentliche Voraussetzung dafür, dass nicht nur für Datenschutzaufsichtsbehörden die nötige Transparenz bezüglich der Umsetzung der Datenschutz-Grundsätze vorliegt, sondern auch für die Betroffenen und die Öffentlichkeit insgesamt. Diese Datenschutzfolgenabschätzung zeigt aber auch, dass eine Fokussierung allein auf die Quelloffenheit der Technik die durchaus größeren gesellschaftlichen Implikationen des gesamten Verfahrens verschleiern kann. Nur Datenschutzfolgenabschätzungen können Derartiges offenlegen und sollten in diesem, aber auch in anderen ähnlich folgenreichen Datenverarbeitungsprojekten veröffentlicht werden, damit sie nicht nur von den Datenschutz-Aufsichtsbehörden, sondern auch in gesellschaftlicher Breite und sozialwissenschaftlicher Tiefe diskutiert werden können.