Allein auf die Diagnose einer Künstlichen Intelligenz zu setzen, ist aus wissenschaftlicher Sicht nicht ratsam. Forscher arbeiten an einem medizinischen Begleiter, damit Diagnosen transparenter werden.

Eine Software diagnostiziert eine schwere Krankheit, aber sie kann die Entscheidung nicht erklären. Künstliche Intelligenz (KI) ist bereits heute in der Lage auf Basis von ausreichend Lerndaten, eine Diagnose zu stellen. Doch reicht es aus, auf das Urteilsvermögen einer KI zu setzen?

„Maschinelle Lernverfahren helfen bei der Diagnose. Sind ihre Entscheidungen jedoch nicht nachvollziehbar für Ärzte und Patienten, sind die Ergebnisse mit Vorsicht zu genießen und dürfen in vielen sicherheitskritischen Kontexten wie der Medizin auch nicht verwendet werden“, sagt Dr. Ute Schmid, Professorin für Angewandte Informatik, insbesondere Kognitive Systeme, an der Universität Bamberg. Seit September 2018 beteiligt sich ihre Forschergruppe an einem interdisziplinären und institutionsübergreifenden Projekt, das automatisierte Diagnosen anhand einiger Beispiele transparent machen soll.

Diagnose aus kombinierten Video- und Bilddaten

Der sogenannte „Transparente Begleiter für Medizinische Anwendungen“ besteht aus zwei Prototypen: Ein Modell erkennt auf Videos Schmerz von Patienten, die ihr Empfinden selbst nicht mitteilen können, und erklärt die Einordnung. Ein weiterer Prototyp, der gerade entsteht, diagnostiziert nachvollziehbar Darmkrebs auf Basis von Bilddaten aus der Mikroskopie.

Damit die Software sowohl eine Krankheit erkennen als auch die Entscheidung begründen kann, kombiniert das Forscherteam unterschiedliche informatische Methoden miteinander. Mithilfe von tiefen neuronalen Netzen, dem sogenannten Deep Learning, können große Mengen an Bildern klassifiziert werden. Allerdings geben solche Verfahren keine Auskunft darüber, wie sie zu der Entscheidung gelangt sind. Weitere Verfahren sehen in das tiefe neuronale Netz hinein und machen entscheidende Merkmale für den Menschen greifbar. Sie heben in den Bildern auffällige Stellen in dem betroffenen Darmgewebe hervor oder erklären durch Texte, warum ein bestimmter Ausschnitt der Gewebestruktur unter dem Mikroskop als krankhaft klassifiziert wurde.

An der Entwicklung des „Transparenten Begleiters für Medizinische Anwendungen“ sind verschiedene Forschergruppen beteiligt. Das Fraunhofer-Institut für Integrierte Schaltungen IIS aus Erlangen und das Fraunhofer Heinrich-Hertz Institut HHI aus Berlin erstellen ein Software-Programm mithilfe von Deep-Learning-Verfahren. Für die jeweiligen Anwendungsfälle wird die Expertise des Pathologischen Instituts der Universität Erlangen unter Zusammenarbeit mit Prof. Dr. Arndt Hartmann sowie die Expertise der Professur für Physiologische Psychologie Bamberg, geleitet durch den Schmerzforscher Prof. Dr. Stefan Lautenbacher, einbezogen. „Das Forschungsprojekt erfordert Wissen auf unterschiedlichen Gebieten“, schildert PD Dr.-Ing. Thomas Wittenberg vom Fraunhofer IIS, der das Gesamtprojekt koordiniert. „Dank der interdisziplinären Zusammenarbeit ist es uns möglich, Begleiter für verschiedene medizinische Experten zu entwickeln, die wichtige Kriterien wie Transparenz und Erklärbarkeit erfüllen und dabei gute Diagnose-Ergebnisse liefern.“

Gründe für die Entscheidung erklären

Hauptaufgabe des Bamberger Teams ist es, diejenige Komponente zu programmieren, welche die Entscheidung der tiefen neuronalen Netze verständlich erklärt. Die Forscher setzen auf eine sogenannte „Induktive Logische Programmierung“. Ihr Ziel ist, dass das System beispielsweise nicht nur meldet, eine Person empfinde Schmerzen. Zusätzlich zeigt es auf einem Monitor an, warum es zu dieser Einschätzung kommt. Ein Text führt die Gründe auf: Die Augenbrauen der Person sind gesenkt, die Wangen erhöht, die Augenlider zusammengezogen. Auf dem Bild werden die Gesichtspartien, die für die Entscheidung ausschlaggebend waren, durch Einfärbungen und Pfeile markiert. Das System schätzt auch ab, wie sicher es sich mit der Diagnose ist.

„Die behandelnden Mediziner entscheiden, ob sie die Einschätzung teilen“, sagt Bettina Finzel, wissenschaftliche Mitarbeiterin an der Universität Bamberg. „Sie können die Algorithmen beeinflussen, indem sie Ergänzungen und Korrekturen im System vornehmen. Dadurch lernt die Software ständig dazu und bezieht das wertvolle Wissen der Experten mit ein.“ Letztlich bleibt die Verantwortung beim Menschen, der von den Transparenten Begleitern unterstützt, nicht ersetzt wird. Außerdem könnten Mediziner mithilfe der Transparenten Begleiter in Zukunft aus- und weitergebildet werden. Das Bundesministerium für Bildung und Forschung fördert das Projekt bis August 2021 mit insgesamt 1,3 Mio. Euro. Davon gehen rund 290.000 Euro an die Universität Bamberg.

Autor: Hendrik Härter

(c)2019
Vogel Communications Group

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.

Vogel Communications Group