Predictive Privacy: Wie wir den Datenschutz verbessern könnten

Rainer Mühlhoff

Zusammenfassung
Big Data und KI führen zu Diskriminierung und sozialer Ungleichheit. Das liegt auch daran, dass wir beim Datenschutz zu individualistisch denken, nach dem Prinzip "jeder kümmert sich um seine eigenen Daten". Predictive Privacy stellt einen kollektivistischen Ansatz im Datenschutz vor, der die DSGVO aktualisiert und mit Antidiskriminierung verbindet
Kurz-Vortrag
Deutsch
Conference

Durch Big Data und KI zeichnet sich eine neue Herausforderung für den Datenschutz ab. Das Hauptproblem ist nicht mehr der Schutz der Privatsphäre der Einzelnen, sondern die Verhinderung der Diskriminierung von algorithmisch geschaffenen Gruppen. Die liberale Idee der individuellen Privatsphäre wird von Technologien überholt, die die Daten einiger (typischerweise: der Privilegierten) nutzen, um Informationen über andere abzuschätzen, die nie um Zustimmung gebeten wurden. Da dies auf gesellschaftlicher Ebene geschieht, sind wir mit einer neuen Art von strukturellen Auswirkungen der Datenverarbeitung konfrontiert, die im Mittelpunkt des Datenschutzes stehen sollten. Zu diesen strukturellen Auswirkungen gehören soziale und wirtschaftliche Ungleichheit, Beziehungen der Ausbeutung sowie sexualisierte und rassistische Gewalt.

Viele der strukturellen Auswirkungen von Big Data und KI werden durch prädiktive Analysen verursacht - Anwendungen des maschinellen Lernens, die potenziell sensible Informationen (wie Geschlecht, Ethnie, Kreditrisiken, Gesundheit, psychologische Dispositionen usw.) über beliebige Personen abschätzen können, auch über diejenigen, die diese Informationen nicht selbst preisgegeben haben. Vorhersagemodelle nutzen die großen Mengen an potenziell sogar anonymen Daten, die mit Zustimmung vieler Nutzer*innen gesammelt werden, die glauben, "nichts zu verbergen" zu haben.

Das Konzept der prädiktiven Privatheit ist die Antwort auf prädiktive Analytik. Prädiktive Privatheit erweitert den gängigen Begriff der "Privatsphäre" um Informationen, die über Personen oder Gruppen vorhergesagt werden. Die Verletzung der prädiktiven Privatsphäre durch die unbefugte Nutzung vorhergesagter Informationen ist der Kern vieler Beispiele für algorithmische Diskriminierung und soziale Sortierung. In diesem Vortrag diskutiere ich Predictive Privacy als Ausgangspunkt für eine Aktualisierung der Allgemeinen Datenschutzgrundverordnung (DSGVO) mit dem Ziel, den Datenschutz zu einem effizienten Instrument der Antidiskriminierung zu machen.

Portait foto of Rainer Mühlhoff.
Professor für Ethik und kritische Theorien der Künstlichen Intelligenz