„Die Grenze ist die Wahrung der Selbstbestimmung des Einzelnen“

05 Mrz 2019
„Die Grenze ist die Wahrung der Selbstbestimmung des Einzelnen“
Prof. Dr. Peter Dabrock, Copyright: FAU/David Hartfiel

Von Valentine Auer

Die Förderung von Bildung. Eine Transformation der informierten Einwilligung und damit einhergehend eine tatsächliche Wahrung der Selbstbestimmung. Das sind die Voraussetzungen, die es laut Prof. Dr. Peter Dabrock benötigt, um die Potentiale von Künstlicher Intelligenz und Big Data im Gesundheitsbereich nutzen zu können. Der evangelische Theologe und Ethiker Peter Dabrock ist Vorsitzender des Deutschen Ethikrats und beschäftigt sich neben anderen Forschungsfragen mit Risiken und Möglichkeiten von Big Data im Gesundheitsbereich.

 

Herr Dabrock, können Sie zu Beginn ganz konkret Beispiele nennen, in denen der Einsatz von Künstlicher Intelligenz (KI) und Big Data nicht nur Sinn machen würde, sondern diese Technologien nicht einzusetzen verantwortungslos wäre?

Bevor ich darauf eingehe, ist es wichtig zu verstehen, dass es gerade einen Paradigmenwechsel gibt. Big Data bedeutet, dass man riesige Datenmengen sammelt, nach Mustern durchsucht, Prognosen zukünftiger Ereignisse ableitet und darauf aufbauend Handlungsempfehlungen gibt. Bis dato wurden die Bereiche, in denen gesundheitsrelevante Daten erzeugt werden, sehr strikt voneinander und von anderen Lebenssphären getrennt: medizinische Daten, Forschungsdaten, Daten von Krankenversicherungen, von Gesundheitsämtern, Social Media Daten und Fitnessdaten. Diese Trennung weiter aufrechtzuerhalten, wird jedoch immer schwieriger. Eine neue Herausforderung, mit der wir konfrontiert sind, als Datensubjekte über die Datenweitergabe eine Kontrolle zu behalten. Diese Voraussetzung ist notwendig, um die Potentiale dieser Technologien, die sich oft aus De- und Rekontextualisierung von Daten ergeben, zu nutzen.

 

Was sind nun diese Potentiale?

Beginnen wir mit dem elementaren Bereich. Ich besitze zum Beispiel eine Apple-Watch, die gesundheitsrelevante Daten aufzeichnet. In den USA ist die neueste Apple-Watch, die auch eine EKG-Funktion hat, bereits bei der FDA (Food and Drug Administration) zugelassen. Es ist nur eine Frage der Zeit, bis das bei uns auch so weit ist. Dadurch erhalten wir in Echtzeit gesundheitsrelevante Informationen und können – beispielsweise vernetzt mit unserem Hausarzt oder einer Digitalklinik – viel schneller Probleme identifizieren. Das kann so weit gehen, dass ein auffälliges EKG, das auf einen Herzinfarkt hindeutet, mit den Geolokalisationsdaten an eine Notrufzentrale weitergeleitet und dann ein Rettungsdienst geschickt wird. Im klassischen medizinischen Bereich sehe ich vor allem in der Onkologie große Chancen. Eine biomarkerbasierte und Big-Data-getriebene Medizin kann viel präzisere Prognosen und Therapievorschläge entwickeln als die bisherige. Wenn wir diese Potentiale nutzen wollen, braucht man einerseits viele Daten, muss jedoch auch die Datensouveränität des Einzelnen wahren. Denn nur wenn Vertrauen in die beteiligten Institutionen herrscht, sind Menschen bereit, sensible Daten zu spenden.

 

Wichtige Player am Datenmarkt sind aber vor allem große Technologie-Konzerne – auch im Gesundheitsbereich: Apple speichert Gesundheitsdaten, Facebook nutzt Algorithmen, um depressive und suizidgefährdete Personen zu erkennen. Gerade wurde bekannt, dass Menstruations- und Gesundheitsapps Daten an Facebook weitergeben und zwar ohne Zustimmung der Nutzer und Nutzerinnen. Auch in der Stellungnahme des Deutschen Ethikrats heißt es dazu, dass hier ein großes Missbrauchspotential vorliegt. Daher die Frage: Wo sind die Grenzen, wenn es um den Einsatz von Daten geht?

Ihre Frage hat ein Bias, der darin besteht zu sagen, dass die großen Konzerne böse und die kleinen gut wären. Abgesehen davon, dass Google sehr interessante Forschung im Bereich KI und Gesundheit macht, ist die Weitergabe von Daten ohne informierte Einwilligung ein allgemeines Problem. Das machen nicht nur die großen Unternehmen. Grundsätzlich ist es aber so, dass wir für eine Präzisionsmedizin viele Daten brauchen. Je mehr Daten, desto präzisere Muster kann man erkennen. Der Grundgedanke der Datensparsamkeit beißt sich mit dem Ansatz von Big Data. Bereits vor Big Data gab es das Problem, dass selbst aus aggregierten und anonymisierten Daten Person identifiziert werden konnten. Die Grenze der Datenverwendung ist für den Deutschen Ethikrat daher die Wahrung der Selbstbestimmung des Einzelnen. Um deutlich zu machen, dass wir in einer neuen Welt leben, wollten wir einen terminologischen Unterschied zum klassischen Datenschutz-Ansatz mit dem Ziel der informationellen Selbstbestimmung setzen. Uns geht es um Datensouveränität und sehen ihr Ziel in der Wahrung der informationellen Freiheitsgestaltung. Der Unterschied zum alten Datenschutzmodell besteht darin, einen Shift von einer Input-Orientierung des Datenschutzes – mit den Prinzipien der informierten Einwilligung, der Datensparsamkeit und der Zweckbindung – hin zu einer Output-Orientierung der Datensouveränität: Trotz der Überfülle an Daten muss man dem Individuum das Versprechen geben, bei relevanten Daten die Datenhoheit zu behalten. Wir müssen weg davon, einmal eine solche Zustimmung zu geben oder auf Seite 87 der Allgemeinen Geschäftsbedingung etwas zu akzeptieren, das man nicht will. Unser Vorschlag ist ein Modell, das die Weitergabe von Daten in Echtzeit nachvollziehbar macht. Das kann durch einen Datenagenten funktionieren, der wie eine Art Virus die eigenen Daten verfolgt und die Informationen an einen betrauten Datentreuhänder weitergibt, der mich bei einer Datennutzung, der ich nicht zustimmen möchte, informiert. Das ist technisch möglich und gibt uns die Chance, dass wir dann und nur dann in den Datenverwertungsprozess hineingrätschen, wenn es uns wirklich betrifft oder wichtig ist.

 

Auch wenn diese Steuerbarkeit der eigenen Daten durch den „Datenagenten“ gegeben ist, stellt sich für mich die Frage nach den Kompetenzen. Zum Beispiel bei der Nutzung von Fitness-Trackern: Auch Sie benutzen einen Fitness-Tracker, aber Sie setzen sich kritisch mit Big Data auseinander und kennen die Debatten rund um das Thema. Vielen Menschen, die ähnliche Apps auf ihrem Smartphone installieren, fehlt dieses Wissen und entsprechende Kompetenzen jedoch. Inwiefern kann hier noch eine Datensouveränität gewährleistet werden, wenn oftmals unklar ist, was mit ihren gesundheitsbezogenen Daten passiert?

Richtig. Zum einen ist die Gewährleistung der Datensouveränität nicht nur eine Forderung an den Einzelnen. Recht, Politik und datenverwertende Institutionen müssen durch Qualitätsstandards, aber auch durch privatheitsfreundliche Grundeinstellungen in die Pflicht genommen werden. Zum anderen muss die Transformation zur informationellen Freiheitsgestaltung in Kompetenzerwerbungsstrategien und weiteren Bildungsstrategien eingebettet sein. Zu den Kompetenzerwerbungsstrategien zählen Grundkenntnisse der Datenverarbeitung, informatische, ethische, medienwissenschaftliche und sozialpsychologische Grundkenntnisse. Je komplexer die Welt wird – und das wird sie unter Big Data und KI mit Sicherheit, auch weil die Komplexität verschleiert wird – desto wichtiger wird Bildung. Ich halte immer ein Plädoyer für Bildung, verstanden als Differenzkompetenz und Ambiguitätssensibilität, also als Fähigkeit, Dinge unterscheiden zu können und trotzdem Zweideutigkeit auszuhalten. Die Sonntagsrede, man müsse mehr in Bildung investieren, muss in den Alltag implementiert werden – sonst sehe ich eine große Gefahr, dass wir zu Objekten dieser Technologien werden.

 

Folgen wir Michel Foucaults Begriff der Disziplinarmacht spielt das Geständnis und die Beichte eine zentrale Rolle bei der Selbstprüfung, Selbstdisziplinierung und schließlich der Normierung von Verhalten. Das Geständnis könnte heute auch mit dem Hergeben von Daten gleichgesetzt werden, große Unternehmen haben die gouvernementale Führung inne. Sehen Sie diesen Trend zur Selbstdisziplinierung und Normierung im Gesundheitsbereich problematisch?

Aus meinem Plädoyer für Bildung als Aushalten von Zweideutigkeiten und der Stärkung von Differenzkompetenz hören Sie heraus, dass ich dieses Risiko der Selbstdisziplinierung ungemein sehe. Dieser Foucault‘sche Gedanke, schleichend in eine Selbstnormierung zu geraten, aus vorlaufendem Gehorsam Dinge zu verinnerlichen, die von impliziten Normgebern wie den großen Internetkonzernen vorgeschlagen werden, erfasst pointiert heutige Identitätsbildungsprozesse als auch Beziehungen der Menschen untereinander. So etwas geschah vermutlich durch die Menschheitsgeschichte hindurch, aber durch die exponentiell gesteigerten technischen Möglichkeiten von Big Data und KI kann man diese Normierungstendenzen hocheffektiv durchführen. Mich beunruhigen dabei vor allem zwei Dinge: Zum einen der drohende Kreativitätsverlust, also der Verlust von Erfahrungen des Geheimnisvollen, von Brüchen und Umwegen in einer Biographie, weil sich in der Big Data- und KI-Welt Zukunft aus der Muster-Erkennung der Vergangenheit ergibt, sich also aus dem Boden des Bisherigen ableitet. Am Beispiel der Musikempfehlungen, die sich aus meiner Hörgeschichte ergeben, kann man das verdeutlichen. Da zeichnen sich gewisse Hörmuster ab, und der Überraschungseffekt, etwas Neues zu finden, wird eingeschränkt. Im Prozess dieser entropischen Normalisierungstendenz kann aus Normalität eine implizite und dann irgendwann eine explizite Norm werden. Zum Beispiel bei Krankenversicherungen: In den USA werden Menschen, die ihre persönlichen Daten durch Fitness-Tracker an ihre Versicherung geben, belohnt. Sie erhalten bessere Tarife. Das könnte so weit gehen, bis diejenigen, die ihre Daten nicht weitergeben, sehr reich sein müssen, um sich die Versicherung ohne Weitergabe von Daten leisten zu können. Die Belohnung für eine Gruppe wird dann zu einer Bestrafung für die andere Gruppe. Diese Tendenz der Normalisierung, die es im Menschlichen immer schon gab, wird im Big-Data-Zeitalter technisch durchperfektioniert.

 

Der Philosoph Gilles Deleuze, der ebenfalls auf Foucaults Äußerungen aufbaut, spricht diesbezüglich von einer Kontrollgesellschaft. Im Essay „Postskriptum über die Kontrollgesellschaften“ schreibt er von „Kontrollformen mit freiheitlichem Aussehen“ und dass „weder zur Furcht noch zur Hoffnung“ Grund besteht, „sondern nur dazu, neue Waffen zu suchen“. Sie haben bereits von der Datensouveränität als informationelle Freiheitsgestaltung gesprochen. Ist die Form der Datensouveränität – wie sie der Deutsche Ethikrat vorschlägt – eine dieser Waffen oder Teil der Kontrollgesellschaft?

Ich würde gar nicht bezweifeln, dass auch ein solches Instrumentarium seine Zweideutigkeiten hat. Wenn man vorher ein Plädoyer für die Ambiguität hält und dann glauben würde, an einer Stelle die Quadratur des Kreises gefunden zu haben, setzt man sich selbst in einen performativen Widerspruch. Man muss sowohl die Chancen und Potentiale wahrnehmen als auch Risiken beachten. Und die Risiken gibt es, gerade weil Big-Data- und KI-basierte Techniken in vielen Bereich so bequem sind und Annehmlichkeiten erzeugen. Es besteht also die Gefahr, dass wir unter dieser Normalisierungsstrategie von App-basierten Assistenten mehr und mehr eingepampert werden. In diesem Kontext die Souveränität des Einzelnen stark zu machen und hochzuhalten, ist eine ungeheure gesellschaftliche und individuelle Aufgabe. Ich würde aber nicht sagen, dass weder zur Furcht noch zur Hoffnung Grund besteht. Zur Furcht besteht Grund. Mit Blick auf die von Deleuze propagierte Hoffnungslosigkeit möchte ich festhalten: Ich bin nicht optimistisch, aber hoffnungsfroh. Meine Hoffnungsfreude begründet sich daraus, dass ich doch ein Grundvertrauen darin habe, dass sich Menschen auf Dauer nicht einfach nur zu Objekten machen lassen, sondern sehr oft einen Riss im Gewebe der fixierenden Ordnungen gefunden haben, dass sie Widerstand leisten und sich nicht zur Gänze versklaven lassen. Und gerade deswegen muss man alles daran setzen, die Kompetenzen und die Bildung im Bereich Big Data zu fördern.

zurück zur Übersicht
Suche