Infrastrukturen (auch) für Algorithmen
Mehr KI-Anwendungen braucht die Medizin!
Die Künstliche Intelligenz (KI) liefert ein Set an Tools, die die Medizin und die Gesundheitsforschung an vielen Stellen verändern werden bzw. dies schon tun. In der Diagnostik werden KI-Algorithmen immer umfangreicher zur Früherkennung von Krankheiten beitragen. Die dermatologische Onkologie ist dafür eines der prominentesten Beispiele, aber letztlich nur eines von vielen.
Jenseits von Früherkennungsszenarien treiben KI-Anwendungen die Automatisierung in der Bildgebung (weiter) voran, und sie optimieren die klinischen Entscheidungsprozesse. KI kann außerdem zu einem „Boost“ für die Personalisierung der medizinischen Therapie werden: Neue, umfangreiche Datenquellen liefern KI-gestützte Informationen zur individuellen Prognose oder dem zu erwartenden Therapieansprechen, die ohne KI schlicht nicht zur Verfügung stünden. In der datenbasierten Forschung schließlich helfen KI-Algorithmen, große Datenmengen zu analysieren und Muster zu erkennen, die für den nicht KI-gestützten Menschen unsichtbar sind. Sie können auch dazu beitragen, Patientinnen und Patienten für klinische Studien besser zu identifizieren. Und sie können die Erfassung studienrelevanter Outcome-Parameter unterstützen.
Erfolgsfaktoren: Ohne Explainability wird es in der Medizin nicht gehen
Gute Datenqualität und eine saubere Datenvorbereitung sind ein wichtiger Erfolgsfaktor für KI-Projekte in der Medizin. Es gilt: Garbage in, garbage out. Ein weiterer zentraler Erfolgsfaktor ist eine enge Kooperation von Expertinnen und Experten aus Medizin, KI-Entwicklung und Data Science. Ebenfalls nicht zu unterschätzen ist die regulatorische Compliance: Rechtliche Vorgaben, ethische Leitplanken und natürlich die Datenschutzanforderungen sind zu beachten.
Noch wichtiger als ohnehin schon in der digitalen Welt ist bei medizinischen Tools schließlich die Nutzerakzeptanz. Dabei geht es nicht nur um technische Usability, sondern auch um das Vertrauen in die Algorithmen und deren Empfehlungen. Ohne eine Verifizierbarkeit aller Entscheidungen/ Empfehlungen durch den jeweiligen Endnutzer wird es auf Dauer nicht gehen. „Explainability“ ist das Stichwort. Die zu gewährleisten, kann bei großen Sprachmodellen (LLMs) durchaus herausfordernd werden. Es gibt großen Forschungsbedarf, und die Explainability-Forschung braucht sowohl digitale als auch medizinische Kompetenz.
Herausforderungen: Die EU legt die Latte hoch
Stichwort Herausforderungen: Die Hürden, die einer zügigen Einführung von KI-Anwendungen entgegenstehen, sind mannigfaltig, und sie sind in Europa und speziell in Deutschland höher als beispielsweise in den USA oder in China. Neben der schon angesprochenen Vertrauensthematik sind die regulatorischen Anforderungen ein Kernthema. Europa hat sie mit der neuen Medical Device Regulation und mit dem – allerdings in der Umsetzung noch zu konkretisierenden – AI Act sehr hochgeschraubt.
Die US-Behörden agieren bei medizinischen KI-Anwendungen deutlich flexibler, sie haben erste, völlig neuartige Zulassungskonzepte entwickelt, die mit selbstlernenden KI-Systemen kompatibel sind. Eine weitere, große Herausforderung speziell auch im föderalen deutschen Gesundheitswesen ist die Datenverfügbarkeit. Dabei geht es nicht nur um die Größe der Datensätze, sondern auch um fehlende Standardisierung.
Explainable AI
Der Begriff „Explainable AI“ beschreibt ein Teilgebiet der KI-Forschung, das sich darum bemüht, KI-Anwendungen beizubringen, zu erläutern, wie sie zu ihren Antworten kommen. Das ist je nach Art der genutzten KI unterschiedlich schwierig. Insbesondere bei LLMs ist es eine große Herausforderung. Unmöglich ist es aber nicht, wie GPT-4-basierte Suchmaschinen wie Perplexity.ai zeigen, die mit Quellenangaben arbeiten. „Explainability“ gilt als zentraler Erfolgsfaktor für KI-Anwendungen in sensiblen Bereichen wie der Medizin.
KI aus Sicht der akademischen Forschung
Zusammenfassend: Wie stellt sich die Entwicklung medizinischer KI-Anwendungen aus Sicht der akademischen Forschung dar? Und wo kann eine auf Digitalisierung, Vernetzung und Verbundforschung spezialisierte Plattform wie die TMF helfen? Für akademische KI-Forscherinnen und -Forscher geht es im Wesentlichen um dreierlei:
- Es braucht mehr Wissen um die Relevanz von KI-Anwendungen für Versorgung und Forschung, zum einen, um den nötigen wissenschaftlichen Nachwuchs in das Themenfeld zu ziehen, zum anderen, um die Umsetzung KI-gestützter Versorgungsszenarien zu erleichtern und Skepsis abzubauen. Schulung und Ausbildung sind hier die Stichworte, auf allen Ebenen.
- Es braucht Zugang zu Daten in ausreichendem Umfang und in angemessener Qualität und Standardisierung, um sowohl eine KI-Entwicklung als auch eine KI-Validierung stemmen zu können.
- Es braucht Support-Infrastrukturen, die KI-Arbeitsgruppen bei der Bewältigung der regulatorischen Anforderungen unterstützen – auch damit eine bessere Wettbewerbsfähigkeit mit kommerziellen Unternehmen erreicht wird.
Bei allen drei Handlungsfeldern kann eine Organisation wie die TMF die akademischen Einrichtungen unterstützen. Der Zugang zu Daten hoher Qualität ist eine Frage von Infrastrukturen, und zwar vor allem organisatorisch-struktureller Infrastrukturen. Hier wurden seitens der TMF und anderen im Rahmen von Förderprojekten wie der MII Vorarbeiten geleistet, doch ist diese Arbeit noch längst nicht abgeschlossen. Noch leben wir in einer Welt der Dateninseln, und das hemmt die KI-Entwicklung ungemein.
Wichtig in diesem Zusammenhang ist, dass die Anforderungen an Datensätze für die KI-Entwicklung andere sind als an jene für die Versorgungsforschung. Eine BfArM-zentrierte Versorgungsforschungsinfrastruktur mit Abrechnungs- und ePA-Daten ist ohne Zweifel ein Fortschritt. Aber klinische KI-Anwendungen lassen sich damit nicht trainieren. Hier ist mehr nötig, die akademische Forschung muss das gemeinsam vorantreiben, und dieses gemeinsame Herangehen muss in irgendeiner Weise orchestriert werden.
Large Language Models
Large Language Models (LLMs, auch: große Sprachmodelle) sind komplexe künstliche neuronale Netzwerke, die auf die Verarbeitung und Erzeugung natürlicher Sprache spezialisiert sind. Insbesondere haben sie die Fähigkeit zur Generalisierung: Sie können Aufgaben lösen, ohne dafür spezifisch trainiert worden zu sein. Beispiele für bekannte LLMs sind GPT-4 von Open AI und LLaMA, ein Open-Source-LLM. Es gibt auch auf Medizin spezialisierte LLMs. Zu den Herausforderungen bei der Nutzung von LLMs in jeglichen Kontexten gehört die Neigung zu Bias bei entsprechend defizitären Trainingsdaten, das Fabulieren und ein Mangel an Transparenz und Nachvollziehbarkeit. Auch der Ressourcenbedarf von LLMs ist erheblich.
Über den Autor
PD Dr. Titus Brinker ist Dermatologe und forscht zu digitalmedizinischen Themen und Künstlicher Intelligenz (KI) am Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg. Er leitet dort die Abteilung „Digitale Prävention, Diagnostik und Therapiesteuerung“. Eines seiner Schwerpunktthemen ist Explainable Artificial Intelligence (XAI).