Wem gehören sensible Gesundheitsdaten?

Wem gehören sensible Gesundheitsdaten?

Mithilfe Künstlicher Intelligenz stellt das AF Institute die Krebsforschung auf ein neues Level. Dabei geht es längst nicht mehr ausschließlich um technische Möglichkeiten, sondern auch um ethische Fragen, die nach Ant­worten verlangen. Professor Dr. Reinhard Riedl, Leiter des transdisziplinären Zentrums Digital Society der Berner Fachhochschule, geht im Dialog mit Mag. Erwin Bendl, Generalsekretär des AF Institutes, sowie Chef­techniker Jona Boeddinghaus der Frage nach, warum die Künstliche Intelligenz von heute den Datenschutz 
von morgen braucht. | von Mag. Julia Wolkerstorfer

 

Das Lösen medizinischer Probleme wird durch Künstliche Intelligenz erleichtert. Was zukünftig noch wichtiger wird, sind Top-Player, die High-End-Technologien mit ethischen Gesichtspunkten zu vereinen verstehen.

Riedl: Wofür steht das AF Institute?

Erwin Bendl, General­sekretär des AF Institutes

Bendl: Das 2016 gegründete AF Institute be­schäftigt sich mit dem Themenfeld der „Ethical Use“ von Künstlicher Intelligenz. Der Gründer des Institutes, Addison Fischer, war lange in der IT-Branche tätig und hat sich dort sehr intensiv für Datenschutzagenden starkgemacht.

Wir setzen mit dem Unternehmen einen Schwer­punkt im Gesundheitswesen, um gegenüber großen Playern wie Google einen Kontrapunkt zu setzen. Gerade in der Gesundheit dreht es sich um besonders sensible Daten, was stets die Frage mit sich bringt: Wem sollen diese Daten übergeben werden? Wir setzen uns hier sehr kritisch mit Lösungen auseinander, die höchstmöglichen Datenschutz garantieren.

 

Riedl: Welche Probleme lösen Sie für Ihre Kunden?

Bendl: Ein aktuelles Beispiel ist die Referenzierung von Arztbriefen. Das Gesundheitswesen ist mit einer sehr großen Menge an Arztbriefen konfrontiert. Es ist relativ einfach, standardisierte Daten zu erfassen. Bei qualitativen Daten, wie es bei Arztbefunden der Fall ist, wird das jedoch schon schwieriger, wenn es beispielsweise darum geht, wie die Ärztin bzw. der Arzt das Befinden der Patientinnen und Patienten einstuft. Derzeit arbeiten wir mit Daten mit Daten von 6.000 Patientinnen und Patienten mit jeweils 20.000 Spalten, die Varianzbreite der Diagnosen liegt bei acht. Das Wissen darüber, wie Kolleginnen und Kollegen in ähnlichen Fällen agiert haben, welche Diagnosen sie gestellt haben, ist enorm wertvoll.

Auf der anderen Seite steht beispielsweise unser Krebsforschungsregister, in welchem Krankheiten auf Basis Künstlicher Intelligenz gebündelt werden. Wir nutzen mathematische Modelle, um die Leukämieforschung zu unterstützen, und beobachten hier einen enormen Tempo­gewinn, den die Künstliche Intelligenz mit sich bringt. Im Zuge der Erstellung des Registers haben wir festgestellt, dass die Datenbasis fehlt. Wir wollten die Möglichkeit schaffen, diese Datenbasis herzustellen. Ziel ist es, Daten in standardisierter Form einzuholen und sie in weiterer Folge statistisch vernünftig auszuwerten, um beispielsweise Überlebensprognosen für bestimme Krebsarten konkreter zu definieren.

Ich bin in jungen Jahren selbst an Krebs er­krankt und war lange mit vagen Diagnosen konfrontiert. Es ist unendlich wertvoll, dass die Diagnostik in der Krebsforschung immer präziser wird. Künstliche Intelligenz eröffnet hier ungeahnte Türen, weil Aspekte im Vorfeld simuliert und so besser verstanden werden können. Wir sparen uns immens Zeit und müssen Dinge weniger direkt an den Patientinnen und Patienten anwenden.

 

Das AF Institute ist keine Daten­krake. Die Daten sollen bei denjenigen bleiben, denen sie gehören.

Erwin Bendl

 

Riedl: Wem wird dieses Register zur Ver­fügung stehen?

Bendl: Wir möchten es der österreichischen Gesellschaft anbieten. In Österreich verfügen wir über ein hochentwickeltes Gesundheits­system. Jetzt gilt es zu zeigen, was wir auf Basis unseres Standards erreichen können — in Europa gibt es derzeit zwei dominante technische Standards — um in einem nächsten Schritt die Implementierung abzuwickeln.

 

Reinhard Riedl im Expertendialog mit dem AF Institute.

Riedl: Sie setzen Ihre Schwerpunkte in Diagnostik und Therapie. Wie können sich Ärztinnen und Ärzte beispielsweise Ihr diagnostisches Labor vorstellen, das in Form eines 3D-Raumes installiert wird und Erkenntnisse multimedial unterstützt?

Boeddinghaus: Unsere Modelle sind insbesondere für die Forschung interessant. Wir kreieren eine virtuelle Realität, die es Onkologinnen und Onkologen ermöglicht, sich über interaktive Wege mehr Informationen zu holen. Im Fokus steht dabei die Entwicklung einer Virtual-
Reality-Applikation, die eine interaktive Simulation der Tumorbildung darstellt. Dabei dienen echte Daten als Grundlage, was es möglich macht, den komplexen Prozess der Tumor­bildung aus neuen Perspektiven zu betrachten.

 

Riedl: Ist die Nutzung des Werkzeugs schwierig?

Boeddinghaus: Uns ist die User Experience sehr wichtig: Künstliche Intelligenz soll in Form eines Assistenzsystems gestaltet sein und den Arzt bzw. die Ärztin unterstützen. Die Anwenderinnen und Anwender müssen sich im Medium zurechtfinden können, ohne ein technisches Studium absolviert zu haben. Sonst nützt die beste Technik nichts. Das System lernt — auf Basis maschinellen Lernens — durch Inputs der nutzenden Ärztinnen und Ärzte laufend dazu.

 

Riedl: Nach welchen Kriterien evaluieren Sie Ihre eigenen Leistungen?

Jona Boeddinghaus, Cheftechniker des AF Institutes.

Boeddinghaus: Wissenschaftliche Prozesse müssen strikt eingehalten werden, die Lösungen werden hinsichtlich des konkreten Nutzens für die Patientinnen und Patienten empirisch geprüft und weiterentwickelt. Es geht stets um die Frage: Arbeiten wir auf einer qualitativen Ebene ausreichend gut, um Sinnvolles beizutragen? Qualität und Nutzen müssen also stimmen und auf Basis empirischer Labor­ergebnisse überprüft werden.

 

Riedl: Der Markt ist in Bezug auf Data Science mittlerweile unüberschaubar. Viele Akteure kommen mit ähnlichen Ideen auf den Markt. Was sind Ihre besonderen Assets, die Sie von der Konkurrenz unterscheiden?

Bendl: Wir kaufen bei Algorithmen keine Stangenware zu, sondern entwickeln jeweils individuelle Algorithmen für das Problem bzw. für die Anforderung der Kundinnen und Kunden. Wir müssen uns ansehen, wer die großen Player sind: Es sind alle, die Daten sammeln, wie Google, Facebook oder Alibaba. Doch sind diese Mitbewerber die richtigen Player für den Umgang mit sensiblen Daten? Das AF Institute ist keine Datenkrake. Die Daten können und sollen bei denjenigen bleiben, denen sie gehören. Im Fokus unserer Datenschutzagenden steht der wirksame Schutz vor Reidentifizierung. Dabei stützen wir uns auf zwei Module, die jeweils für den Inhouse-Betrieb bzw. für jene Settings entwickelt wurden, in denen Daten an Dritte weitergegeben werden müssen. Eine Lösung, die den Datenschutz garantiert, ist die Methode der Differential Privacy, bei der keine Information über einzelne Daten gewonnen werden kann. Weltweit entwickelt sich das alles gerade erst. Wir sind vorne mit dabei, können diese Methoden grundlegend entwickeln, was uns von Großanbietern unterscheidet.

Die Philosophie des Institutsgründers und Daten­schützers Addison Fischer, der sich auf ähnlichem Data-Security-Parkett wie Max Schrems bewegt, schwingt bei uns stets mit. Das AF Institute ist in seinen Wurzeln stark geprägt von kritischen Datenschützern, die gegen Datensammler Schlagzeilen gemacht haben. Was uns darüber hinaus auszeichnet, ist unser stark interdisziplinärer Ansatz. Für uns ist klar, dass zur Entwicklung von Künstlicher Intelligenz nicht nur Mathematikerinnen und Mathematiker notwendig sind, sondern auch Psychologinnen und Psychologen, die stets auch den ethischen Aspekt berücksichtigen. Unser Kernteam besteht aus Datenwissenschafterinnen und Datenwissenschaftern, Informatikerinnen und Informatikern, Philosophinnen und Philosophen, Machine Learning sowie Personen aus dem Bereich Softwarearchitektur.

 

 

Die Reidentifizierung von Daten ist bei herkömmlichen Methoden wie der Anony­misierung erschreckend einfach.

Jona Boeddinghaus

 

 

Riedl: Differential Privacy gewährleistet, dass ein Rückschluss auf einzelne Daten­attribute nicht möglich ist. Wie funktioniert das auf der praktischen Ebene?

Boeddinghaus: Der Umgang mit hochsensiblen Daten verdient höchste kritische Aufmerksamkeit. Unsere Lösung verändert die Daten nicht, um sie später wieder hinauszugeben. Wir liefern eine Softwarelösung, welche die Daten dort lässt, wo sie sind. Im Fokus steht eine Schnittstelle, über die die Datenanalyse abgewickelt werden kann. Dabei gelangen keinerlei Informationen über einzelne Datenpunkte nach außen. Die Reidentifizierung von Daten ist bei herkömmlichen Methoden wie der Anonymisierung erschreckend einfach. Differential Privacy ein ein gutes, spannendes mathematisches Mittel, das den Abfluss von Information messbar macht. Die Quarantäne schließt die Daten sicher ein und ermöglicht eine Analyse, ohne dabei die Daten selbst zu manipulieren. Die Implementierung muss in einer Form abgewickelt werden, bei der selbst bei kleinen Datensätzen kein Rückschluss auf einzelne Daten zugelassen wird. Beispielsweise kann das Alter als exakter Mittelwert problematisch sein, daher wird lediglich ein verrauschter Mittelwert ausgegeben.

Bendl: Differential Privacy hat kürzlich die TÜV-Zertifizierung bekommen. Bisher gibt 
es in Europa kein Unternehmen, das in der Form mit hochsensiblen Daten agiert.

 

Riedl: Wie kann die diffuse Angst vor zu viel Datennutzung überwunden werden? Wie schaffen wir es, dass wir genügend Daten zur Verfügung haben, um Forschung vor­anzutreiben?

Bendl: Wir haben diese diffusen Ängste bei jeder neuen Technologie erlebt. Das ist ein sehr menschlicher Prozess. Es gab Skepsis und Kritik, als Kutschen von Autos abgelöst wurden oder Schreibmaschinen von Computern. Die Menschen wandten sich kritisch gegen Züge, weil sie vermuteten, dass der Mensch Geschwindigkeiten über 30 km/h nicht überleben würden. Heute besteht Skepsis gegenüber selbstfahrenden Autos. Bei allem Verständnis für bestehende Ängste der Menschen lohnt sich ein Blick auf die Kosten-Nutzen-Analyse 
neuer Technologien. Was bekommen wir? Worin liegt der fundamentale Nutzen für das Gesundheitswesen? Und was kostet es uns, wenn wir diese Technologien nicht nutzen sollten? Wir lernen bei jeder neuen Technologie dazu, auch dahingehend, wie wir mit Fehlentscheidungen umgehen. Die Frage 
ist: Sollen wir neue Technologien aufgeben, weil sie Restrisiken bergen? Wir wissen, dass Menschen Autounfälle haben. Verzichten 
wir deshalb aufs Autofahren?

Boeddinghaus: Wir sehen das auch am Beispiel der Pandemie und beobachten, dass Tracing-Apps durchaus erfolgreich sind. 16 Mio. Men­schen haben sich bereiterklärt, die Corona-Warn-App zu verwenden. Der Vor­teil für diese App wurde plötzlich sichtbar und greifbar. Nutzen kann letztendlich durch gemeinsamen Konsens hergestellt werden.

 

Riedl: Gibt es weitere ethische Aspekte, die Sie verfolgen?

Bendl: Ein wesentlicher roter Faden ist bei uns der Erkenntnisgewinn. Wir entwickeln keine Künstliche Intelligenz, die dann Entscheidungen trifft. Wir bieten assistierende Systeme, mit denen die Anwenderinnen und Anwender Erkenntnis gewinnen können. Die Entscheidungen selbst müssen die Ärztinnen und Ärzte treffen.

Boeddinghaus: Das Wichtigste ist, das Er­gebnis bewerten zu können: Kann ich als Mensch nachvollziehen, wie eine Entscheidung zustandekommt? Diese Nachvollziehbarkeit ist essenziell. Ich muss mir Gedanken darüber machen, wie ich etwas erklärbar machen und in Folge Vertrauen gewinnen kann. Im Bereich der Bildererkennung und der Audioerkennung ist Künstliche Intelligenz schon immens erfolgreich. Jetzt gilt es, die Anwendungen in der „echten“ Welt zu implementieren — erwachsene Lösungen, die das Gesundheitswesen bereichern werden.

 

Riedl: Was braucht es, damit im österreichischen Gesundheitswesen, aber auch global, das Potenzial der Künstlichen Intelligenz verstärkt genutzt wird, sodass es einen Push für aktuelle Entwicklungen gibt?

Bendl: In erster Linie braucht es politische Entscheidungen. Beispielsweise hängt die Etablierung eines zentralen Krebsforschungsregisters von der Politik ab und muss im Wesentlichen von ihr getragen werden. Es geht also auch um das Informieren der politischen Entscheidungsträger und darum, Gefahren versus Nutzen darzustellen. Letztendlich müssen wir uns auch immer die Frage stellen: Was wollen die Anwenderinnen und Anwender? Auf die Bedürfnisse der Userinnen und User muss extrem gehört werden, wenn wir Totgeburten vermeiden wollen. Letztendlich müssen wir in diesem Prozess aufrichtig 
bleiben und dürfen nichts erzählen, was 
nicht eintritt.

 

Scroll to Top