Fragen an Professor Schlaefer

 

Hamburg, im April 2021

 

 

 

Professor Alexander Schlaefer forscht an der Technischen Universität Hamburg (TUHH) an medizintechnischen Systemen. Er leitet das Institute of Medical Technology and Intelligent Systems, kurz mtec. Einer seiner Schwerpunkte ist das maschinelle Lernen. Hier beantwortet er einige Fragen der Schülerinnen zu seinem Vortrag am Programmtag Physik & TechnikUnter anderem spricht er über das Training und die Risiken von Künstlicher Intelligenz (KI) und seinem persönlichen Interesse für die Medizintechnik.

 

Alexander Schlaefer im  NAT-Zukunftsrat 2019, Copyright NAT, Claudia Höhne

 

Woran testet man Roboter, die später für Operationen an Menschen eingesetzt werden?

Grundsätzlich fallen alle Geräte und Systeme, die einen medizinischen Zweck erfüllen, unter das Medizinprodukterecht. Dort sind intensive Tests und ein sehr gut dokumentierter Entwicklungsprozess vorgeschrieben. Eine erste Evaluierung findet meist in Laborexperimenten und an Phantomen statt. Vor der Routineverwendung in der Klinik stehen Studien, bei denen die Systeme mit großen Aufwand in der realen Umgebung eingesetzt werden, um Nutzen und Risiken noch genauer abschätzen zu können.

 

Wie lernen KIs?

Ein Teilgebiet der künstlichen Intelligenz ist das maschinelle Lernen. Typischerweise versuchen die entsprechenden Verfahren den Zusammenhang zwischen bekannten Werten, wie Bildern oder Laborwerten, und einer Entscheidung ("Welche Diagnose?", "Wo ist der Tumor?") aus Daten abzuleiten. Oft wird dabei "überwachtes Lernen" eingesetzt. Das heißt, die Verfahren sehen die Eingabe und die als richtig angenommene Ausgabe, können also für jeden Eingabedatensatz feststellen, ob die berechnete Ausgabe richtig ist. Den Fehler versucht man so klein wie möglich zu machen, es wird also ein Optimierungsproblem aufgestellt und minimiert. Interessant ist, das "Auswendiglernen" natürlich auch funktioniert, aber nicht für neue, unbekannte Eingaben. Deshalb versucht man oft, das Auswendiglernen zu unterbinden, damit der erlernte Zusammenhang bzw. die gelernte Funktion auch auf neuen Datensätzen gut funktioniert.

 

Was wären die nächsten Schritte in der Robotertechnik im Einsatz bei der OP?

Kurzfristig wird vermutlich vor allem die Integration der Systeme in die klinischen Abläufe im Vordergrund stehen, um deren Einsatz effizienter zu machen. Aus Sicht der Forschung ist es mittel- und längerfristig interessant, auch medizinischer Robotersysteme teilweise autonomer agieren zu lassen.

 

Haben Sie sich schon immer für Medizin/ KI interessiert?

Schon recht lange. Ich hatte bereits vor meinem Studium angefangen, mich mit der Verarbeitung von Laborparametern zu beschäftigen. Im Studium habe ich habe mich früh mit KI beschäftigt, Kurse dazu besucht und dann als studentischer Mitarbeiter am Lehrstuhl für KI und später auch als Werkstudent in einer Klinik gearbeitet. Natürlich sollte man besonders am Anfang des Studiums die Pflichtveranstaltungen zügig absolvieren, auch als Grundlage für die weiteren Vorlesungen. Aber wer gut voran kommt und Interesse hat, sollte sich früh umsehen, welche Forschungsprojekte es an den Instituten und Lehrstühlen gibt. Wenn man motiviert und bereit ist, etwas Zeit zu investieren, kann man viel einfacher und schneller in einem Projekt mitwirken, als man das von außen vielleicht denkt - einfach fragen!

 

Wenn nun aber "nur" mit Bildern arbeitet, gibt es dann eine sichere Garantie für die Diagnose der KI? Müssen andere Faktoren dort nicht berücksichtigt werden?

Der Einwand ist vollkommen berechtigt: Bilder sind sehr wichtig, aber die Diagnosestellung ist in vielen Fällen sehr viel komplexer und eine gute Anamnese sowie Laborparameter spielen dafür beispielsweise ebenfalls eine wichtige Rolle. Auch diese Werte können - soweit digital verfügbar - von Lernverfahren berücksichtigt werden. Aber eine garantiert sichere Diagnose ist ohnehin nicht realistisch - weder durch Lernverfahren oder ein KI-System, noch durch Menschen.

 

Kann man KI hacken?

Es ist eine interessante Frage, inwieweit man KI "hacken" kann. Wenn man die Daten, anhand derer gelernt wird, manipuliert, wird der erlernte Zusammenhang falsch sein. Und Dinge, die nicht gelernt wurden, werden sehr wahrscheinlich auch nicht zu sinnvollen Ergebnissen führen - wenn Sie eine Vokabel noch nie gehört haben, liegen Sie bei der Übersetzung auch eher daneben. Insofern kann jede Manipulation der Trainingsdaten oder der Daten, die man dem Lernverfahren zur Bewertung zeigt, zu Fehlern führen. Aber: Praktisch sind in allen Daten auch Fehler und Ausreißer enthalten und es scheint viel gefährlicher, dass wir uns auf "gute Daten" verlassen und ganz ohne "hacken" eine "fehlerhafte KI" erzeugen. Und es ist auch kein Problem, welches nur maschinelle Lernverfahren betrifft: Die gezielte Beeinflussung von Entscheidungen durch falsche Daten oder "Fakten" ist vermutlich eher ein menschliches Problem.

 

Was macht man, wenn sich die Diagnose der KI mit der des Arztes nicht deckt? Kann es dann nicht viel mehr Fehldiagnosen geben, durch evtl. Übereinstimmungen bei verschiedenen Krankheiten?

Es ist in der Medizin teilweise durchaus üblich, unterschiedliche Meinungen und Erfahrungen bei der Diagnosestellung zusammenzubringen, beispielsweise in Tumor-Boards. Oft wird auch eine zweite Meinung eingeholt, das ist natürlich nur sinnvoll, wenn diese auch abweichen kann. Hier können also KI-Systeme einen Hinweis geben - und die Medizinerinnen und Mediziner würden im Zweifelsfall noch etwas genauer hinschauen, um ihre Einschätzung zu prüfen und zu bestätigen. Es ist teilweise auch möglich, KI-Systeme zu entwickeln, die selbst die Unsicherheit der Entscheidung bewerten und auch vorschlagen, welche weiteren Untersuchungsergebnisse helfen könnten, mehr Sicherheit zu gewinnen. Die Entscheidung und die Verantwortung sollten letztlich aber schon aus ethischen und rechtlichen Überlegungen beim Menschen bleiben.