Chat GPT für Ärzte Wenn die KI die Diagnose stellt
Müssen in der Medizin viele Daten ausgewertet werden, greifen Ärzte immer häufiger auf technische Unterstützung zurück. Ein Start-up aus Langen bietet auch komplette Diagnosen per KI an. Ganz ohne Risiko ist das nicht.
Ob beim Auswerten von Röntgenaufnahmen und MRT-Scans, der Überwachung chronischer Krankheiten oder dem Simulieren von chirurgischen Eingriffen: Künstliche Intelligenz (KI) kann in der Medizin in vielen Bereichen unterstützen.
Das Potenzial ist groß, doch zugleich warnen Ethiker vor einem zu sorglosen Umgang mit der Technologie.
Vera Rödel sieht vor allem die Chancen, die KI in Arztpraxen und Krankenhäusern bieten könne: schnellere und effizientere Diagnosen. Die Juristin und Gesundheitsmanagerin hat gemeinsam mit dem Neurologen Heinz Wiendl das in Langen (Offenbach) angesiedelte Start-up Valmed gegründet.
Als "Prof. Valmed" stellt KI-Anwendung Diagnosen
Ihre KI-Anwendung namens "Prof. Valmed" soll Ärzte und medizinisches Personal bei Diagnosen und der Auswahl passender Therapien unterstützen.
Ähnlich wie Chat GPT basiert die App auf einem Large Language Model (LLM), einem Sprachmodell, das große Datensätze auswerten und menschenähnlich kommunizieren kann.
KI beantwortet Fragen von Ärzten und Krankenschwestern
In einem Eingabefeld der App können Ärzte, Pfleger oder Krankenschwestern Fragen stellen. Etwa, ob sich zwei Medikamente miteinander vertragen oder eine Therapie aufgrund einer Schwangerschaft umgestellt werden sollte.
Auch bei unklaren Symptomkonstellationen könne die KI Anhaltspunkte geben, sagt Neurologe und Mitgründer Wiendl. "Ein typischer Anwendungsfall wäre hier die Notaufnahme." Bei aufwändigeren Therapien könne der Arzt zudem Empfehlungen für eine sichere Anwendung nachlesen.
Gründerin Rödel: "Halluzinieren ausgeschlossen"
"Der Unterschied zu Chat GPT ist, dass Halluzinieren ausgeschlossen wird", betont Rödel. Denn die KI beziehe sich ausschließlich auf einen kuratierten Datensatz, der aus 2,5 Millionen Einzeldokumenten bestehe.
Darunter seien die offiziellen Leitlinien, die Ärzte auch ohne KI in ihrem Alltag für Diagnosen heranziehen, sowie Fachliteratur. Die Quellen seien in der Antwort verlinkt und in der App nachlesbar.
"Prof. Valmed" bereits zugelassen
Technisch entwickelt hat "Prof. Valmed" der AI Quality and Testing Hub, den das Land Hessen mitfinanziert. Der Berufsverband Deutscher Neurologen und Pharmaunternehmen wie Sanofi haben die Entwicklung finanziert.
Kürzlich wurde die App als eine der ersten zur Unterstützung klinischer Entscheidungen zugelassen, wie das hessische Digitalministerium mitgeteilt hat.
Rechtliche Fragen offen
Bei KI-Anwendungen wie "Prof. Valmed", die Diagnosen und Medikationen vorschlagen, handele es sich aktuell um Pilotsysteme, deren berufsrechtliche Grundlage "noch nicht ganz sauber geklärt" sei, so Christian Sommerbrodt vom Hessischen Hausärzteverband.
Eine KI könne den Arzt verunsichern – ihn im Positiven von einer Fehldiagnose abbringen, aber ebenso durch eine falsch vorgeschlagene Therapie eine wichtige Behandlung verzögern.
"Wie jedes Medikament Nebenwirkungen hat, die wir in Kauf nehmen, kann jede KI Fehler machen – so wie Menschen im Übrigen auch", erklärt Christoph Hoog Antink, der den Lehrstuhl für Künstlich intelligente Systeme der Medizin an der TU Darmstadt leitet.
Die Systeme müssten daher ausgiebig getestet werden und es müsse sichergestellt sein, dass die KI sehr hohen Sicherheitsstandards genüge, appelliert er.
Fehldiagnosen nicht ausgeschlossen
Patientendaten seien in ihrer App nicht enthalten, sagt Gründerin Vera Rödel. Ihre KI lerne auch nicht wie andere Sprachmodelle aus dem, was die Nutzer eingeben.
Frei von Fehlern sei ihre App aber nicht, räumt Heinz Wiendl ein. Etwa ein Prozent der Antworten könnten potenziell ein Risiko mit sich bringen.
"Die Entscheidung liegt letztlich immer in der Hand des Arztes", betont er. Dieser kenne den Patienten und müsse die vorgeschlagenen Diagnosen in einen Kontext bringen. "Wir sprechen bei der KI von einem Co-Piloten."
Ethikrat: KI sollte immer nur Zweitmeinung sein
In einer Stellungnahme zu Künstlicher Intelligenz in der Medizin hat der Deutsche Ethikrat davor gewarnt, durch den Einsatz von KI die ärztliche Sorgfaltspflicht zu verletzen. Ärzte könnten zudem ihre eigene Kompetenz verlieren, wenn sie sich völlig auf eine KI verlassen.
Die KI könne außerdem nicht alle Lebensumstände eines Patienten berücksichtigen, die sich auf die Diagnose und Therapie auswirken können.
Stattdessen sollten Ärzte die KI als zweite Meinung betrachten. In KI-generierten Antworten solle zudem angegeben werden, wie wahrscheinlich eine gestellte Diagnose ist.
Zugriff auf "riesigen Informationsschatz"
Aus Sicht von Christoph Hoog Antink und Christian Sommerbrodt überwiegt trotz solcher Bedenken grundsätzlich der Nutzen. Da KI Zugriff auf einen "riesigen Informationsschatz" habe, könne sie Ärzten in ihrer täglichen Routine helfen, sagt Hoog Antink von der TU Darmstadt. "Insbesondere sehe ich die Möglichkeit, Ärzte in Ausbildung oder am Anfang Ihrer Karriere bei der Diagnose eher seltener Fälle zu unterstützen."
Angesichts der alternden Gesellschaft und der immer härter werdenden Arbeitsbedingungen im Gesundheitswesen stelle sich die Frage, "wie viele 'KI-Nebenwirkungen' wir in Kauf nehmen wollen, wenn die Alternative ist, dass wir zum Beispiel monatelang auf einen Termin beim Spezialisten warten", meint Hoog Antink. Letzteres würde Leid und Krankheitsverläufe verschlimmern.
"Sind wir bereit für KI?"
Durch KI könnten Ärzte auch bei administrativen Aufgaben viel Zeit sparen. Etwa, indem Sprachassistenten die Dokumentation übernehmen, sagt Sommerbrodt. Innerhalb der Ärzteschaft und bei Patienten sehe er allerdings eine grundlegende Skepsis gegenüber neuen Technologien.
"Die Technik ist längst so weit", sagt Sommerbrodt. Und auch für die rechtlichen Fragen und Datenschutz-Bedenken ließen sich in Zukunft Lösungen finden, ist er überzeugt. "Die eigentliche Frage ist, ob wir bereit für die Technik sind."