KOLLEGIN DR. ChatGPT? WIE KÜNSTLICHE INTELLIGENZ ÄRZTEN HELFEN KÖNNTE
Alle probieren derzeit Künstliche Intelligenz aus – auch die Medizin. ChatGPT und andere Systeme bestehen bereits Examen. Wie funktionieren sie – und wie können sie Mediziner künftig unterstützen? Ein Über- und Ausblick.
Wer die KI-Anwendung ChatGPT nach dem Autor dieser Zeilen fragt, der erfährt, dass es sich um einen Journalisten handelt, der für Zeit, Handelsblatt und Spiegel geschrieben sowie zwei Bücher publiziert hat, die „Das Kapital sind wir“ und „Die Daten, die ich rief“ heißen. Trotz eines Namens, der keinerlei Verwechselung zulässt, stimmt nichts davon, außer der „Journalist“.
Wer ChatGPT bittet, einen Pathologiebefund prägnant zusammenzufassen, erhält dagegen eine erstaunlich korrekte Kurzfassung.
Die beiden Beispiele zeigen, dass Anwendungen sogenannter generativer künstlicher Intelligenz – im Fachjargon der IT-Welt sind das „large language models“ (LLM), also große Sprachmodelle – nicht so einfach einzusortieren sind. Sie können kompletten Quatsch erzählen. Und dann bestehen sie plötzlich medizinische Staatsexamen oder schreiben aus definierten Dokumenten mal eben einen Arztbrief, eine E-Mail oder, ja, einen Zeitungsartikel.
Wahrscheinlichkeiten für Wortkombinationen
Sie tun das nicht, weil sie „intelligent“ oder „kreativ“ im üblichen Sinne sind. Sie tun das, weil sie Algorithmen nutzen, die auf Basis von Milliarden von Dokumenten Wahrscheinlichkeiten für bestimmte Wortkombinationen berechnen und diese dann als Antworten präsentieren.
Entsprechend wichtig ist das sogenannte „Prompt“, also die genaue Formulierung der Frage, die der KI gestellt wird. Das Prompt ist der Ausgangspunkt für alles weitere: Je besser die Stichworte, die die KI bekommt, umso größer die Chance, dass sie sinnvoll antwortet.
Dass sich bei solchen Tools eine Menge Fragen stellen, ist klar. Eine lautet: Was ist mit dem Urheberrecht? Schwierig. Generative KI schreibt nicht ab, sie kann nur ziemlich gut lesen und das Gelesene reproduzieren. (Nebenbei bemerkt kann man seine Webseiten auch für den Zugriff von KI-Robotern sperren.)
Eine andere Frage, die jetzt auch die deutschen Datenschützer beschäftigt: Wie ist das mit personenbezogenen Daten? Unklar.
Frei zugängliche Seiten zur Optimierung der KI
Interessanter als diese Fragen ist vielleicht diese: Braucht man das eigentlich? Hier gilt es, zu verstehen, dass öffentlich zugängliche „Blubber-Roboter“ wie ChatGPT nicht das eigentliche Produkt sind. Diese Seiten sind deswegen frei zugänglich, weil sie von IT-Firmen genutzt werden, um die dahinterliegenden Modelle zu optimieren. Das ist nicht verwerflich, es muss einem nur klar sein. Worum es am Ende kommerziell geht, sind Anwendungen, die das Sprachmodell in spezifische Anwendungskontexte einbinden.
Wenn solche KI-gestützten Anwendungen clever gemacht sind, dann relativiert sich das eingangs beschriebene Problem des Konfabulierens. Ein Beispiel: Wer ChatGPT fragt, was die DEGAM bei unkomplizierten Harnwegsinfektionen empfiehlt, der bekommt eine Zusammenfassung der Empfehlungen auf dem gewünschten (einstellbaren) Detailniveau.
BingAI ist mit ChatGPT hinterlegt
Aber woher weiß ich, dass die KI in dem Fall nicht fabuliert? Bei ChatGPT weiß ich das tatsächlich nicht. Wer dieselbe Frage aber an Microsofts Suchmaschine BingAI stellt, die mit ChatGPT (in der Version 4) hinterlegt ist, der erhält eine analoge Antwort, diesmal aber – es handelt sich um eine Suchmaschine – halbwegs sauber referenziert (siehe Abbildung). Wer will, kann mit wenigen Klicks prüfen, ob ein Statement von BingAI korrekt ist. Bei gut strukturierten Leitlinien wie denen der DEGAM funktioniert das.
Auch BingAI hat Schwächen, aber es zeigt exemplarisch, was Sprachmodelle leisten können, wenn sie von anderen Anwendungen mit spezifischen Funktionen „eingehegt“ werden. Ärztinnen und Ärzte können Anwendungen wie ChatGPT heute schon nutzen, um sich zum Beispiel medizinische Fachliteratur zusammenfassen zu lassen, um auf Basis von ein paar Kernfakten ein ärztliches Attest zu erstellen oder einen Brief an den Medizinischen Dienst zu schreiben.
Noch nicht ohne Korrekturschleifen
Das ist alles noch etwas mühsam, weil man dem Tool schrittweise sagen muss, was es mit welchen Ausgangsinformationen genau tun soll. Würde ein solches Sprachmodell dagegen zum Beispiel in die Arztbrief-Funktion der Praxis-IT eingebunden, vielleicht auch noch verknüpft mit der ohnehin genutzten Spracherkennung, dann entstehen, ruckzuck, die gewünschten Texte. Das Problem des Konfabulierens wird dann geringer, verschwindet aber nicht völlig. Medizinische Texterstellung per KI kann potenziell Zeit sparen, aber sie wird auf absehbare Zeit nicht ohne Korrekturschleifen funktionieren.
Nun geht es bei den KI-Systemen nicht „nur“ um die Texterstellung. Mindestens genauso viel Aufregung herrscht derzeit in der Bilderbranche. Bei den Sony World Photography Awards wurde Mitte April ein Schwarzweißfoto ausgezeichnet, das zwei vom Leben gezeichnete Frauen zeigte, die ältere hielt sich an der jüngeren fest. Der deutsche Fotograf teilte unmittelbar nach Bekanntgabe des Preises mit, es handele sich um ein KI-Bild, das er eingereicht habe, um eine Debatte anzustoßen.
Bilddaten und Befunde in einem Schritt?
Auch in der Medizin werden Bild-KI bereits genutzt, bisher vor allem aus Forschungsinteresse. Spannend wird es hier, wenn künftige KI-Systeme sowohl mit Text als auch mit Bildern umgehen können. Dann könnte zum Beispiel ein medizinisches IT-System, das Bilddaten anzeigt, dem ärztlichen Nutzer unmittelbar am Bild die Befunde erläutern – sofern es genug Trainingsdaten gibt, die dem System dieses Wissen hinreichend zuverlässig beibringen können.
Bei einigen der genannten Anwendungsbeispiele stellt sich die Frage, ab wann solche Anwendungen eigentlich Medizinprodukte sind und als solche zertifiziert werden müssen. Maßgeblich dafür ist rein rechtlich primär die Zweckbestimmung des Herstellers. Und da weder Open AI, das Unternehmen hinter ChatGPT, noch andere KI-Unternehmen derzeit behaupten würden, ihre Software sei für medizinische Therapieempfehlungen gemacht, gibt es aus Sicht von Behörden wie dem BfArM keinen akuten Handlungsbedarf.
Tatsache ist aber auch, dass es möglich ist, ChatGPT und Co in einer Art und Weise zu befragen, dass am Ende doch sehr konkrete Therapieempfehlungen herauskommen. Wie damit umgegangen werden soll, ist – wie noch vieles bei den neuen KI-Systemen – unklar.
„Meine Antworten basieren auf Informationen aus vertrauenswürdigen Quellen im Internet“
Aus einem Chat mit der Suchmaschine BingAI über die DEGAM-Empfehlungen zu Antibiotika bei akuter Rhinosinusitis:
Welche Antibiotika empfiehlt die DEGAM, wenn ein Arzt bei akuter Rhinosinusitis ein Antibiotikum geben möchte?
Suchen nach: „DEGAM Empfehlungen Antibiotika akute Rhinosinusitis“
Antworten für Sie werden generiert...
Antwort BingAI: Die Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) empfiehlt bei akuter Rhinosinusitis eine Antibiotikatherapie nur bei schweren Verläufen oder bei Verdacht auf bakterielle Infektionen. Die Wahl des Antibiotikums sollte sich nach dem Erreger richten und sollte aufgrund der hohen Resistenzrate von Pneumokokken gegenüber Penicillin nicht mit Penicillin erfolgen. Die DEGAM empfiehlt stattdessen Amoxicillin oder Cotrimoxazol.
Ich hoffe, das hilft Ihnen weiter! Lassen Sie mich wissen, wenn Sie weitere Fragen haben.
Weitere Informationen: 1. degam.de 2. degam.de 3.degam.de (Linkliste)
Ist die DEGAM-Leitlinie zur akuten Rhinosinusitis noch aktuell?
Suchen nach: „Aktualität DEGAM-Leitlinie akute Rhinosinusitis“
Antworten für Sie werden generiert...
Antwort BingAI: Die DEGAM-Leitlinie zur akuten Rhinosinusitis wurde zuletzt im Jahr 2017 aktualisiert.
Weitere Informationen: 1. degam.de 2. degam.de 3.degam.de (Linkliste)
Aber Du darfst doch eigentlich gar nichts empfehlen. Du bist doch kein Medizinprodukt?
Antwort BingAI: Das ist richtig. Ich bin kein Medizinprodukt und darf keine medizinischen Empfehlungen geben. Meine Antworten basieren auf Informationen aus vertrauenswürdigen Quellen im Internet und sollen dazu dienen, allgemeine Informationen bereitzustellen.
Ich bin selbst Arzt...
Antwort BingAI: Das ist interessant. Als Arzt haben Sie sicherlich viel Erfahrung und Wissen auf Ihrem Gebiet. Gibt es etwas Spezielles, das Sie wissen möchten oder bei dem ich Ihnen behilflich sein kann?