Gesundheitssystem:Dr. KI, zur Visite bitte!

Gehirnwellen und Kernspintomografie eines Kopfes PUBLICATIONxINxGERxSUIxAUTxONLY RoyxScott 11800019

Gehirnwellen und Kernspintomografie, bald online abrufbar? Wenn der Kopf derart durchleuchtet wird, ist bislang meist noch der Arzt vor Ort. Mit Hilfe künstlicher Intelligenz könnte sich das ändern.

(Foto: Ikon Images/imago)

Künstliche Intelligenz könnte Diagnosen verbessern, Therapien personalisieren, die Betreuung von Patienten optimieren und Ernstfällen vorbeugen, sagen Experten.

Von Jessica Braun, Berlin

Wenn Robin Farmanfarmaian vor einem Auditorium mit Hunderten Menschen einen ihrer Vorträge hält, wirkt sie gesund und energetisch. Nicht wie jemand, dem drei Organe fehlen. Doch die Healthtech-Expertin mit den langen blonden Locken hat eine lebenslange Krankheitsgeschichte mit mehr als 40 Krankenhausaufenthalten hinter sich. Es begann mit einer Fehldiagnose im Alter von 16 Jahren: "Ich wurde von den besten Ärzten untersucht und obwohl ich so jung war, zögerte keiner, mich zu operieren." Die Gründerin und Investorin ist überzeugt, dass es den behandelnden Experten an notwendigen Informationen fehlte: "Hätte es damals ein digitales Gesundheitssystem oder einfach nur den guten alten Dr. Google gegeben, wäre mir all das erspart geblieben."

Heute wirbt Farmanfarmaian für mehr Vertrauen in neue Technologien. Besonders große Hoffnung setzt sie in künstliche Intelligenz: "Stellen Sie sich vor, Sie hätten einen Computer, mit dem sich Ihr komplettes Genom, Ihre biometrischen Daten, Umweltfaktoren und Ihre persönliche Geschichte inklusive Ernährungs- und Aktivitätshistorie erfassen und analysieren ließe. Kein Mensch könnte eine solche Menge an Informationen effizient auswerten. Überlassen wir das einer KI, eröffnen sich uns bisher nicht gekannte Möglichkeiten."

In Kliniken in Essen oder Stanford unterstützen neuronale Netzwerke Ärzte bei Diagnosen

Das sehen auch Wirtschaftsexperten so. "Bis 2025 sind KI-Systeme in so ziemlich jedem Bereich des Gesundheitssektors denkbar, von der ganzheitlichen Versorgungssteuerung im Gesundheitswesen bis zu digitalen Avataren, die konkrete Patientenanfragen beantworten", prophezeit Harpreet Singh Buttar, Analyst bei Frost & Sullivan. Mit einem Gesamtvolumen von 667,1 Millionen US-Dollar im vergangenen Jahr ist Healthcare der sich am schnellsten entwickelnde Bereich des KI-Marktes. Bis 2022 soll er laut einer Analyse von Markets and Markets auf knapp 8 Milliarden US-Dollar anwachsen.

Schon heute berät künstliche Intelligenz Patienten in Gesundheitsfragen - etwa in der die App ADA oder der Facebook-Chatbot Izzy. In Kliniken in Essen, Stanford oder Tokio unterstützen neuronale Netzwerke die Ärzte bei ihren Diagnosen. Sie helfen, individuelle Therapien zu entwickeln, suchen nach neuen Medikamenten und strukturieren interne Abläufe.

"Die Möglichkeiten für innovative Ideen und Lösungsansätze wachsen täglich", sagt Eva Deutsch. Die Medizininformatikerin leitet bei IBM den Bereich Life Sciences Deutschland, Österreich und Schweiz. Mit ihrem Team ist sie für die Weiterentwicklung des medizinischen Super-Computers Watson zuständig. Neben Googles verschiedenen KI-Projekten ist Watson zurzeit der vielversprechendste Anwärter für den Posten als Assistenzarzt.

Einen Platz im Untersuchungszimmer hat KI schon seit 1976. Damals assistierte ein Programm erstmals erfolgreich bei der Diagnose von Bauchschmerzen. Auch bei herkömmlichen EKGs und Mammografien helfen Algorithmen dem Arzt, Unregelmäßigkeiten zu erkennen. Diese Programme sind jedoch nicht lernfähig. Auch, wenn sie den Herzschlag von 1000 Patienten erfasst haben, erkennen sie Aussetzer danach nicht besser. Anders die neuronalen Netzwerke von heute. "Sie müssen nicht mehr mit Wenn-dann-Regeln gefüttert werden, um zu Erkenntnissen zu gelangen", sagt Roland Roller, Experte für Sprachtechnologie am Deutschen Forschungszentrum für Künstliche Intelligenz. "Sie lernen selbständig. Ihre Arbeitsweise ähnelt dabei der des menschlichen Gehirns. Leistungsstarke Recheneinheiten werden wie Neuronen miteinander verknüpft." Wie ihr natürliches Vorbild lernen sie durch Erfahrung, indem sie die simulierten Neuronenverbindungen stärken oder schwächen. Experten nennen das "deep learning". Bekannt ist diese Verarbeitungsweise seit den Achtzigerjahren. Weil für ihre millionenfachen Wiederholungen viel Rechenleistung nötig ist, galt sie lange als ineffektiv. Den Durchbruch brachte 2012 der Einsatz von Grafikkarten, die sonst für die Simulation von 3-D-Welten in Computerspielen verwendet werden. Sie verbesserten die Genauigkeit bei der Bilderkennung immens und senkte die Kosten. Muttermal oder Hautkrebs? Mit jedem Foto, das eine KI einliest, "versteht" sie den Unterschied besser.

2015 begann der aus Solingen stammende KI-Experte Sebastian Thrun für Googles Forschungszweig Google X einen selbstlernenden Algorithmus zu entwickeln, der gutartige Veränderungen der Haut von bösartigen unterscheiden kann. Sein Team speiste die Maschine mit knapp 130 000 Fotos von über 2000 verschiedenen Hauterkrankungen. Zu jedem Bild eines Muttermals lernte der Algorithmus die Diagnose: Muttermal. Größe, Belichtung und Aufnahmewinkel der Bilder variierte. Doch die KI begriff. Beim ersten Test lag ihre Trefferquote bei 72 Prozent. Zwei ebenfalls getestete Dermatologen erreichten nur 66 Prozent.

Zuerst müssen die KI-Systeme jedoch lernen. "Für komplexe Probleme sind etliche Trainingsdaten nötig", sagt Sprachtechnologe Roller. Also Beispiele, anhand derer ein System relevante Charakteristiken und Muster identifizieren kann. Hunderttausende davon. 2015 kaufte IBM deshalb Explorys und Phytel, zwei Clouddienste aus dem Gesundheitssektor, sowie das Bildverarbeitungsunternehmen Merge Healthcare. Die Akquise erlaubt Watson Zugang zu Millionen von Krankenakten und Bildern. Vergleichbare Daten sind rar. Noch sind geschätzte 80 Prozent der weltweit erhobenen Daten für die neuronalen Netzwerke unsichtbar - sei es, weil diese analog erfasst wurden (heißt oft in unleserlicher Ärzteschrift) oder weil Datenbanken nicht kompatibel sind. Auch Datenschutz-Bestimmungen können den Austausch sensibler Patientendaten verhindern.

"Während sich Röntgenbilder relativ einfach anonymisieren lassen, ist dies zum Beispiel bei Diagnoseberichten zeitintensiv und kostenaufwendig", sagt Experte Roller. Dennoch könnte die vollständige Vernetzung der Prozesse im deutschen Gesundheitswesen erhebliche Kosten einsparen: laut dem Fraunhofer-Institut für System- und Innovationsforschung rund 9,6 Milliarden Euro jährlich. Nicht nur mittels schnellerer Diagnosen und individuellerer Therapien. Selbstlernende Systeme könnten anhand von Wetter- und Verkehrsdaten personelle Engpässe in der Ambulanz vorhersagen. Oder auch nur den Materialverbrauch überwachen und so das Personal entlasten. "Je vernetzter die Struktur ist, in der eine KI eingesetzt wird, umso größer ist das Anwendungsgebiet und die daraus resultierenden Möglichkeiten", sagt Eva Deutsch.

Vielleicht vollzieht sich die größte Revolution in der Medizin aber auch im Kleinen: mittels Smartphones und Wearables. Das Team, das mit dem Deutschen Sebastian Thrun an der Bilderkennung von Hautkrankheiten gearbeitet hat, möchte den Algorithmus Smartphone-kompatibel machen. "Jeder hätte dann einen Supercomputer mit etlichen Sensoren und einer Kamera in seiner Tasche", sagt Thruns Mitarbeiter Andre Esteva.

Auch Eva Deutsch sieht darin eine große Chance. Menschen, die weitab einer Arztpraxis leben, hätten den Hausarzt im Handy: Sprachgesteuerte Assistenten wie Siri und Cortana könnten anhand von Sprachmustern erkennen, ob es Anzeichen für Alzheimer gibt, der Bewegungssensor vor Parkinson warnen. Oder einem Schlaganfall vorbeugen. Krankheiten schon im Vorfeld zu verhindern, wäre noch disruptiver, als deren Behandlung zu verbessern.

In dieser Serie beleuchtet die SZ in den kommenden Wochen, wie Frauen die Gesundheitsbranche verändern. Auch die nächste Ausgabe des Frauenwirtschaftsmagazins Plan W beschäftigt sich mit diesem Thema. Es liegt am 23. September der Süddeutschen Zeitung bei.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: