3 Fragen an…

Dr. Marco Fisichella

Mentor

Ich bin Experte für künstliche Intelligenz und verfüge über mehr als 14 Jahre Erfahrung in der Industrie und im akademischen Bereich. Als Forschungsgruppenleiter beim L3S bin ich für die Pionierforschung im Bereich der künstlichen Intelligenz in grundlegenden und anwendungsorientierten Bereichen zuständig. Am L3S leite ich die Forschungsgruppe, die sich auf künstliche Intelligenz und intelligente Systeme konzentriert. In dieser Funktion koordiniere und beaufsichtige ich weiterhin eigenständig Forschungsprojekte und sorge für deren reibungslose Durchführung. Ich setze mich weiterhin für neue Forschungsprojekte ein und verbreite unsere Ergebnisse durch Veröffentlichungen auf internationalen Konferenzen und in Fachzeitschriften.

1.

Was ist nötig, damit Forschungsergebnisse in die medizinische Praxis überführt werden können?

Für die Umsetzung von Forschungsergebnissen in die medizinische Praxis, insbesondere im Rahmen des föderierten Lernens (FL), benötigen wir skalierbare und datenschutzfreundliche Infrastrukturen, die eine institutionsübergreifende Zusammenarbeit ermöglichen, ohne die Vertraulichkeit der Daten zu gefährden. Es ist von entscheidender Bedeutung, dass die Modelle fair, interpretierbar und über Patientenpopulationen hinweg verallgemeinerbar sind. Dazu müssen Herausforderungen wie Nicht-IID-Daten, Verzerrungen bei der klinischen Entscheidungsfindung und die Interpretierbarkeit von KI-Vorhersagen gemeistert werden. Darüber hinaus ist die Anpassung an ethische Standards und rechtliche Rahmenbedingungen (z. B. GDPR) für den klinischen Einsatz unerlässlich.

2.

Wie können sensible Gesundheitsdaten geschützt werden, ohne den Zugang zu hochwertigen Daten für die medizinische Forschung einzuschränken?

Sensible Gesundheitsdaten können durch föderiertes Lernen geschützt werden, bei dem die Daten dezentralisiert bleiben und nur Modellaktualisierungen gemeinsam genutzt werden. Zur weiteren Stärkung des Datenschutzes können Techniken wie differentieller Datenschutz, Kausalmodellierung und Einflussfunktionsanalyse integriert werden. Diese Methoden verhindern das Entweichen von Informationen (z. B. Angriffe auf Mitgliedschaftsinferenzen) und ermöglichen gleichzeitig ein robustes, datenschutzkonformes Lernen aus qualitativ hochwertigen Datensätzen in verschiedenen Institutionen. Unser Projekt befasst sich speziell mit diesen Risiken, indem wir Methoden zum Schutz der kausalen Privatsphäre entwickeln, die über die traditionelle Anonymisierung hinausgehen.

3.

Welche Faktoren sind für Patienten am wichtigsten, um Vertrauen in KI-basierte Gesundheitstechnologien aufzubauen?

Vertrauen hängt von drei Schlüsselfaktoren ab: Datenschutz, Fairness und Interpretierbarkeit. Die Patienten brauchen die Gewissheit, dass ihre Daten nicht missbraucht werden, dass das Modell verschiedene demografische Gruppen gleich behandelt und dass klinische Empfehlungen verstanden und erklärt werden können. Unsere Forschung konzentriert sich auf interpretierbare und faire föderierte Modelle, die kausale Schlussfolgerungen verwenden, um Verzerrungen zu erkennen und zu mildern und Vorhersagen relevanten Datenquellen zuzuordnen. Eine transparente Kommunikation über diese Sicherheitsvorkehrungen und ein partizipativer Ansatz bei der Entwicklung von KI stärken das Vertrauen der Patienten weiter.