Künstliche Intelligenz (KI) ist in aller Munde. Algorithmen begegnen uns mittlerweile in fast allen Bereichen unseres Lebens - auch im Gesundheitswesen. Doch gerade in diesem hochsensiblen Feld reagieren viele Menschen noch skeptisch auf den Einsatz von KI-Technologien. Auch deshalb braucht es gerade dort hohe ethische Maßstäbe. Einer der sich sowohl mit Informatik als auch Ethik auskennt, ist Kevin Baum. Er ist stellvertretender Leiter des Forschungsbereichs Neuro-Mechanistische Modellierung am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken, hat neben Informatik aber auch Philosophie studiert. Außerdem hat er den saarländischen Thinktank für gute Digitalisierung Algoright e. V. gegründet. "Informatik und Ethik können aus meiner Sicht wechselseitig voneinander profitieren und gehören in der beobachtenden Bewertung genauso zwingend zusammen wie in der Forschung und der Praxis", sagt er. 

Kevin Baum

Porträtbild von Kevin Baum, Wissenschaftlicher Mitarbeiter an der Universität des Saarlandes, Informatiker und Philosoph Das Bild ist noch nicht vollständig geladen. Falls Sie dieses Bild drucken möchten, brechen Sie den Prozess ab und warten Sie, bis das Bild komplett geladen ist. Starten Sie dann den Druckprozess erneut.
Stellvertretender Leiter des Forschungsbereichs Neuro-Mechanistische Modellierung am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken und Philosoph.

Dass die neuen Technologien enormes Potenzial bieten, ist kein Geheimnis und wird auch von Baum nicht in Frage gestellt. Allerdings gibt es auch ein Missbrauchspotential - Stichwort totale Überwachung oder automatisierte Diskriminierung. "Vor allem aus diesem Grund gehört Ethik in die Ausbildung angehender Informatiker und Informatikerinnen sowie die öffentliche Debatte rund um die Digitalisierung", erklärt Baum. Denn schließlich trage jeder, der an diesen Entwicklungen arbeitet und forscht, moralische Verantwortung. "Das erfordert ethische Grundkompetenzen sowie eine Sensibilisierung", ergänzt der gebürtige Schwetzinger. Die Verknüpfung von Informatik und Ethik setzt er an der Universität des Saarlandes auch bereits praktisch um: Die Vorlesung "Ethics for Nerds", die 2020 vom Stifterverband für die Deutsche Wissenschaft e.V. mit der "Hochschulperle des Jahres" ausgezeichnet wurde, hat er mit ins Leben gerufen.

Riesige Chancen im Gesundheitswesen

Doch welche Vorteile sieht er durch KI im Gesundheitswesen? "Ob in Diagnostik, Therapie oder Prävention: In fast allen Bereichen verspricht das effiziente Lernen aus Daten einen großartigen Fortschritt. Insofern verspricht KI uns zu helfen, länger gesund zu bleiben und, falls nötig, wieder gesund zu werden", erläutert der Wahl-Saarländer und ergänzt: "Womöglich gelangen wir sogar zu einer praxistauglichen personalisierten Medizin."

Allerdings muss man auf diesem Weg auch die Leistungserbringer und im Besonderen die Ärzte mitnehmen. Gerade die äußern zum Teil immer wieder Bedenken und Ängste. Zumindest manchen davon kann Baum jedoch entgegnen: "Keine KI kann menschliche Zuwendung und Erfahrung ersetzen. Allerdings wird sie den Arbeitsalltag von Ärzten und Ärztinnen verändern, genau wie den vieler Experten in anderen Branchen", sagt er. Damit das Zusammenspiel gut gelingt, brauche es Fortbildungen jenseits der reinen Bedienkompetenz. Außerdem nimmt das Wissen darüber, was wie funktioniert, auch Ängste.

Drei Faktoren für gutes Zusammenspiel

Damit Ärztinnen und Ärzte gut und gerne mit diesen Technologien arbeiten können, dürfen diese nicht bevormundet werden und müssen weiterhin ihre Expertise einbringen können. Voraussetzung dafür ist, dass die Mediziner erkennen können, ob sie der Maschine vertrauen sollten, und in die Lage versetzt werden, entscheiden zu können, wann sie sich über sie hinwegsetzen sollen. Aus Baums Sicht sind dazu drei Voraussetzungen zu erfüllen: Transparenz, Nachvollziehbarkeit und Erklärbarkeit. "Wenn Transparenz gegeben ist, wissen wir beispielsweise welches KI-System mit welchen Eigenschaften verwendet wird, beispielsweise wie zuverlässig es ist. Wir brauchen aber auch Nachvollziehbarkeit, das heißt die Möglichkeit, jene Eigenschaften selbst zu überprüfen oder von unabhängigen Dritten überprüfen zu lassen. Und wir benötigen Erklärbarkeit, um herausfinden zu können, warum das System genau diese Empfehlung oder Einschätzung gibt, die es gibt", erläutert der Informatiker und Philosoph.

Regulierung notwendig

Nur unter diesen Voraussetzungen können die Verantwortlichen kompetent und verantwortungsvoll mit den Ergebnissen von KI-Technologien umgehen. Außerdem werden so auch die Systeme selbst kritisierbar und können verbessert werden, denn beispielsweise könnten dann sowohl individuelle, aber auch systematische Fehler und Ungleichbehandlungen erkannt und ausgebessert werden. Entsprechend sollten diese Voraussetzungen Teil einer zukünftigen Regulierung sein. Eine solche Regulierung ist für Kevin Baum vor allem wegen einer Sache wichtig: "Nur so gelangen wir zu dem Punkt, an dem wir die Chancen von KI und Digitalisierung selbst in einem so sensiblen Bereich wie der Gesundheitsvorsorge und Medizin wahrnehmen, ohne die Gefahren in Kauf nehmen zu müssen."