Sprachmodelle wie ChatGPT, Google DeepMind oder Meta (Facebook) basieren auf Algorithmen, die darauf trainiert wurden, menschliche Sprache zu verstehen und zu erzeugen. Einfach erklärt, analysieren solche Large Language Models (LLM) große Mengen an Text, lernen dabei die Wahrscheinlichkeiten, mit denen Wörter und Satzteile aufeinander folgen, und können so neue, syntaktisch und semantisch passende Texte erzeugen und „Konversation“ betreiben. Aufgrund des kostenlosen Online-Zugangs (GPT-3.5) und einer benutzerfreundlichen Konversationsschnittstelle konnte ChatGPT von OpenAI innerhalb der ersten Monate nach seiner Einführung bereits mehr als 100 Millionen Benutzer:innen gewinnen und ist aktuell der meistgenutzte Chatbot. Naheliegend ist deshalb auch die Verwendung für medizinische und somit auch urologische Themen und Fragestellungen – sowohl vonseiten der Patient:innen als auch der Ärzt:innen.
Häufig verfügen Patient:innen nicht über ausreichend Gesundheitskompetenz, um all die Informationen, die sie über eine Untersuchung oder Erkrankung erhalten, vollständig zu verstehen und gut beurteilen zu können. In der Patientenkommunikation können medizinische Inhalte mit Hilfe von künstlicher Intelligenz (KI) in verständlicher Sprache formuliert werden. Studien zeigen, dass ChatGPT in der Lage ist, komplexe medizinische Informationen in laiengerechte Sprache zu übersetzen, ohne wesentliche Inhalte zu verlieren, wie z. B. bei der „Übersetzung“ radiologischer Befunde.1 In diesem Zusammenhang bietet die „Was hab’ ich? GmbH“ mittlerweile eine auf Routinedaten basierende Patientenbrief-Software an, die aus einem Entlassbrief vollautomatisiert verständliche Patienteninformationen erstellt. Auch im Rahmen von Aufklärungen zu Diagnosen oder Eingriffen können Chatbots eingesetzt werden, indem z. B. einfachere oder fremdsprachige Aufklärungstexte generiert werden – was insbesondere bei Sprachbarrieren hilfreich sein kann. Zudem kann ChatGPT patientenorientierte Materialien wie Informationsbroschüren, FAQ zur Nachsorge oder Hinweise zur Medikamenteneinnahme erstellen.
Viele Patient:innen können Symptome oder Beschwerden oft nicht richtig einschätzen und suchen sich online und über Chatbots Hilfe, bevor sie sich professionell beraten lassen (Abb.). Deshalb ist es wichtig, Tools wie ChatGPT und deren Content genauer zu betrachten und die Aussagen zu prüfen.2 Wir untersuchten anhand von sechs akuten urologischen Pathologien (z. B. Hodenschmerzen), wie korrekt GPT-3.5 als „Triage-System“ urologische Differenzialdiagnosen und Empfehlungen zu einer Vorgehensweise abgab.3 Diagnosen und Empfehlung eines Vorgehens entsprachen größtenteils den aktuellen Leitlinien. Mängel sahen wir bei der Informationsqualität, insbesondere den Quellenangaben und bei der Risikobewertung.
Eine andere Arbeitsgruppe untersuchte die Entscheidungskompetenz von GPT-4 bei Diagnose und Behandlung von Urolithiasis. Auch hier ergab sich ein heterogenes Resultat, indem Aspekte der Diagnostik recht genau wiedergegeben wurden, Operationsplanung und leitliniengerechte Behandlungsalgorithmen dagegen eher ungenau.4 Caglar et al. analysierten häufig gestellte Fragen zur Andrologie (u. a. Hypogonadismus, erektile Dysfunktion) in Gesundheitsforen, auf Krankenhauswebsites und in sozialen Medien über ChatGPT und stuften diese wiederum als überwiegend richtig (80%) und leitlinienkonform (86 %) ein.5
Im klinischen Alltag bietet ChatGPT theoretisch zahlreiche Anwendungsmöglichkeiten für Ärzt:innen und Pflegepersonal. Dazu gehören etwa die Unterstützung bei der Erstellung von Arztbriefen, OP-Berichten, SOP-Entwürfen oder Dokumentationen. Eine aktuelle Umfrage unter amerikanischen Assistenzärzt:innen der Inneren Medizin zeigt jedoch einen recht geringen Einsatz von LLMs im klinischen Alltag.6
Zahlreiche Anbieter haben bereits Lösungen für KI-generierte Arztbriefschreibung, die Implementierung in die Klinik- und Praxissysteme hinkt jedoch hinterher. ChatGPT kann auch zur Strukturierung klinischer Entscheidungsbäume beitragen oder bei der Erstellung von Checklisten helfen.
In der urologischen Aus- und Weiterbildung kann ChatGPT als interaktives Lernwerkzeug dienen und auch genutzt werden, um komplexe Inhalte z. B. zu Krankheitsbildern oder operativen Techniken in verständlicher Sprache aufbereiten zu lassen.7 ChatGPT kann auch klinische Fallbeispiele simulieren oder als digitaler Tutor dienen, etwa bei der Erstellung prüfungsrelevanter Fragen oder Zusammenfassungen aktueller Guidelines. Für Abschlussarbeiten ist die Verwendung von KI-Tools erlaubt, sie muss jedoch transparent (wann, wo und in welchem Umfang) angegeben werden. Die Harvard Medical School integriert KI proaktiv in die Lehre und bietet u. a. einen Einführungskurs zum Thema KI im Gesundheitswesen für alle Studienanfänger:innen an. Eine aktuelle Studie zeigte zudem, dass GPT-4 Assistenzärzt:innen in der Notaufnahme hinsichtlich der diagnostischen Genauigkeit bei internistischen Notfällen übertraf und Feedback-Potenzial aufzeigt.8
Lehrende wiederum profitieren von der Unterstützung durch ChatGPT bei der Entwicklung didaktischer Materialien wie Präsentationen, Lernkarten, Quizformate oder Fallvignetten.9
In der urologischen Forschung kann ChatGPT beim Formulieren von Hypothesen, beim Strukturieren von Manuskripten oder beim sprachlichen Überarbeiten von Texten hilfreich sein. Auch Abstracts, Einleitungen oder Diskussionsteile lassen sich effizient mit KI-Unterstützung entwerfen, eine transparente Offenlegung der Verwendung vorausgesetzt. Tutorials zum Umgang können hierbei unterstützen. Bei der Studienplanung ersetzt ChatGPT jedoch keine systematischen Methoden, sondern dient maximal als unterstützendes Werkzeug zur Ideengenerierung. Ebenso kann das Modell bei der Interpretation statistischer Ergebnisse erste Hinweise geben, jedoch nicht die Expertise von Statistiker:innen ersetzen.10
ChatGPT in der Urologie ist auf alle Fälle sinnvoll und stellt ein vielseitiges Instrument dar, das im klinischen Alltag, für Patient:innen, Ausbildung sowie Forschung eingesetzt werden und vieles erleichtern kann – vorausgesetzt, es wird kritisch reflektiert und mit fachlicher Kontrolle eingesetzt. Gerade bei der medizinischen Entscheidungsfindung muss beachtet werden, dass KI (noch) keine validierten Therapieempfehlungen bietet und ärztliches Urteilsvermögen nicht ersetzt.