#12 KI Update – neue Erkenntnisse und Aufgaben für Chefärztinnen und Chefärzte
Shownotes
In der aktuellen Folge von „Level Up Klinikführung“ setzen wir unsere Gespräche über Künstliche Intelligenz (KI) in der Medizin fort. Dr. Benedict Carstensen begrüßt erneut Professor Kai Wehkamp, der bereits vor einem Jahr spannende Einblicke in die Theorie von KI bot. Diesmal beleuchtet Wehkamp, welche Fortschritte und Herausforderungen in den letzten zwölf Monaten zu beobachten waren. Gemeinsam diskutieren Wehkamp und Carstensen die Einsatzmöglichkeiten von Sprachmodellen und KI-Tools in der Radiologie und Dokumentation, aber auch die Grenzen und Risiken dieser Technologien. Ein besonderes Augenmerk liegt auf der Rolle der Chefärztinnen und Chefärzte bei der verantwortungsvollen Integration von KI in den Klinikalltag, ohne dabei die notwendige menschliche Expertise zu vernachlässigen. Erfahren Sie, wie KI die Medizin revolutioniert und was Chefärzte tun können, um für die Zukunft gerüstet zu sein.
Transkript anzeigen
00:00:04:
00:00:18: Liebe Kolleginnen und Kollegen, ich freue mich, dass Sie auch heute wieder mit dabei sind.
00:00:24: Ich habe schon einige Rückmeldungen zu den bisherigen Inhalten des Podcasts bekommen.
00:00:29: Und da kommt natürlich eins immer wieder mit rüber, das Interesse am Thema KI ist
00:00:35: groß.
00:00:36: Viele hoffen auf KI-Tools, die Belastung in Krankenhäusern rausnimmt und die medizinische Qualität weiter erhöht.
00:00:46: Deshalb habe ich heute einen Gast eingeladen, der bereits vor einem Jahr bei mir war, Professor Kai Wehkamp.
00:00:53: Kai ist Professor für angewandte künstliche Intelligenz in der Medizin.
00:00:58: Er war langjährig klinisch
00:01:01: als
00:01:01: Geschäftsführer der Oberarzt an der Uniklinik Kiel tätig und bringt diese klinisch-ärztliche Erfahrung nun in seine Tätigkeit als Berater und Geschäftsführer der Loman-Konzept GmbH ein.
00:01:16: Kai,
00:01:16: schön, dass du da bist.
00:01:19: Ja, vielen Dank für die Einladung.
00:01:21: Kai, als wir das letzte Mal miteinander gesprochen haben, ging es so ein bisschen um die Theorie von künstlicher Intelligenz, um verschiedene Lernen.
00:01:31: Typen.
00:01:32: Und breite Anwendung.
00:01:35: damals.
00:01:36: von KI Tools gab es wenig, wenn dann im diagnostischen Bereich vieles war in den Anfängen.
00:01:43: Und du hast ja schon so ein bisschen Lust auf die weitere Entwicklung gemacht.
00:01:47: Dementsprechend würde ich dich gern
00:01:49: fragen,
00:01:49: was hat sich in den letzten zwölf Monaten aus deiner Sicht ergeben?
00:01:55: Also... Man muss schon sagen, dass sich was verändert hat.
00:01:58: Und das haben, glaube ich, auch alle gemerkt.
00:02:00: Wir haben ja schon, das war schon, bevor wir das mal gesprochen haben, ging es so allmählich los, dass die large language Modelle, also quasi alles so, was sketchability-artig ist, immer mehr an Bedeutung gewonnen haben und sie auch immer mehr schon genutzt wurden.
00:02:13: Und das insbesondere in diesem Bereich hat sich einiges getan, was zumindest echte Veränderungen sind.
00:02:21: Wenn man so den Gesamtüberblick nimmt, dann sind das ja ganz viele verschiedene Bereiche, in denen KI angewendet werden kann.
00:02:26: Also zum Beispiel zur Bilderkennung, zur Verarbeitung von komplexeren Daten, also zum Beispiel alles, was wir so in der Klinischen Akte haben im Krankenhaus oder auch in der Praxis.
00:02:35: Und dann auch das ganze Thema rund um, wie man das in Sprache umwandeln, Sprache daraus lernen kann, Sprache daraus also generiert werden kann.
00:02:44: Und in diesem Bereich kann man wiederum trennen in den Teil, wo mit klinischen Daten gearbeitet wird, also aus irgendwelchen Daten oder Informationen, die wir vom Patienten haben, etwas mit KI passiert oder wo wir die Wissensdaten nehmen, also das, was wir quasi aus PubMed und Co.
00:03:00: kennen oder aus Leitlinien und wie das verarbeitet wird.
00:03:03: Und insbesondere in diesem Bereich, also wo es um Sprache geht, hat sich einiges getan und teilweise so direkt als medizinische Produkte und teilweise aber auch so ein bisschen, könnte man sagen, na ja, an der Medizin und auch an der Regulierung vorbei.
00:03:18: Also zum Beispiel, wenn Ärzte und Ärzte LGBT nutzen, um etwas besser zu formulieren.
00:03:24: Das ist so etwas, was es auch vor einem Jahr vermutlich schon gab, aber was immer mehr genutzt wird, weil einfach immer mehr sich dann beschäftigen.
00:03:31: Absolut grenzwertig, wenn es um Patiententaten dabei geht.
00:03:36: Aber die Effekte, die da sind, sind natürlich teilweise beeindruckend.
00:03:39: Und das, was ja relativ stark jetzt gerade kommt, ist das einfach gesprochen Systeme, die zuhören.
00:03:46: also dem Patientengespräch zuhören, Arzt-Patientgespräch zuhören und daraus dann Texte generieren.
00:03:52: So, und medizinische Arztbriefschreibung und so weiter.
00:03:55: Wir können vielleicht gleich mal ein bisschen mehr ins Detail gehen, aber hier hat sich dann also doch einiges getan und der große Vorteil dabei ist, dass man dafür halt nicht erstmal ein Datenstandard braucht, sondern relativ viel, relativ niedrigschwellig einführen kann.
00:04:08: Gibt aber auch eine ganze Reihe an Risiken, die, das ist so ein bisschen die Kehrseite, teilweise ein ganz schwer durch Prozessmaßnahmen, durch regulatorische Maßnahmen aufzufangen sind.
00:04:19: und das werden auch viele Chefärzte und Chefärzte und auch anderes Leitungspersonal im Krankenhaus merken, dass man da teilweise ein bisschen komisches Gefühl hat, weil es wird einfach irgendwie genutzt und selbst wenn ich das als offizielle Entwicklung habe, dann bin ich mir immer nicht so ganz sicher vielleicht.
00:04:36: ob es denn auch richtig genutzt wird und ob daraus bestimmte Risiken entstehen, die am Ende ja die medizinische Qualität schädigen und dann halt natürlich Patienten gefährden können.
00:04:45: Und das ist wichtig, dass man sich das immer wieder klar macht und sich auch immer wieder fragt, ist das wirklich für diesen Hilfe zugelassen und können wir das machen?
00:04:53: Ich würde mal gerne so einmal unterscheiden mit Entwicklungen, die noch so eine Art Projektcharakter haben, die sozusagen am Anfang von der Marktreife stehen und Produkten oder Tools, die quasi schon zugelassen sind oder die schon funktionieren, die auch letztlich jetzt eine Kollege oder eine Kollegin, die schon eine Abteilung leiten, einsetzen können.
00:05:20: Also, dass projektartig gerade ganz viel gemacht wird, das ist klar.
00:05:25: Das ist natürlich auch immer einfach ein Riesenaufwand und auch sehr individuell.
00:05:30: Also für jede Abteilung oder jede Klinik, jeder jeden Träger.
00:05:35: Ich würde trotzdem mal Ganz kurz fragen so aus dem Gesichtspunkt Low-Hanging-Fruits.
00:05:42: Also wie jetzt ChatGPT oder Patientendaten in ChatGPT eingeben, um ein Verlauf zu erzeugen oder einen medizinischen Sachverhalt noch mal besser zu formulieren.
00:05:56: Gibt es da aktuell schon Tools, die da hilfreich sein können und die man letztlich einfach abonnieren kann und nutzen kann?
00:06:04: Am Prominente ist es, vermute ich, jetzt gerade die HPT Health, was ja letzte Woche ganz aktuell gelauncht wurde und die ja zu postulieren.
00:06:12: Sie gehen ganz sicher mit den Daten um, aber hier ist es wichtig zu verstehen.
00:06:19: Ärzte als Arzt und Behandler dürfen wir hier auf keinen Fall Patienten Daten eingeben.
00:06:23: Und das gilt sowieso für GPD ganz grundsätzlich.
00:06:25: Also darauf hast du vermutlich auch abgezählt.
00:06:28: Und ich würde mich einfach nochmal klarstellen, dass das nämlich genau nicht geht.
00:06:31: Als Patient selber kann ich natürlich meinen Daten da eingeben und werden auch viele jetzt schon machen.
00:06:35: Und GPD ist ja sogar dafür vorgesehen, dass es sich in andere Anwendungen mit einloggt.
00:06:40: Aber das ist.
00:06:41: eher, wenn man es will, Patientenseitig.
00:06:42: Und es empowert quasi den Patienten darin, dass er letztendlich vielleicht seine eigene Daten auch besser versteht.
00:06:48: Das ist nicht das, was du meintest, genau.
00:06:51: Ich würde trotzdem Vollständigkeit halber erwähnen, was kann im Krankenhaus also genutzt werden.
00:06:56: Es gibt also ganz viele Anwendungen, die diese Einfälle... Es ist letztendlich, kann man sagen, einfach, gerade Bilderkennung und so weiter.
00:07:02: Da gibt es Zick-Anwendungen, inzwischen, die zugelassen sind.
00:07:04: In den USA sind es inzwischen fast thirteenhundert Anwendungen und dreiviertel davon sind aus der Radiologie.
00:07:10: Und auch in Deutschland sind viele zugelassen.
00:07:12: Und die werden ja auch schon genutzt, relativ unaufgeregt.
00:07:14: Radiologen kennen das, dass sie ständig neueste Techniken nutzen, digitale Techniken, überhaupt nichts Neues.
00:07:20: Und hier, also in sich, dass man sich mit diesen Innovationen auseinandersetzt und da, wo sie zugelassen sind und mehr Wert bringen, werden sie halt auch genutzt und teilweise müssen sie sogar auch genutzt werden.
00:07:30: Und das wird auch zunehmend kommen, da wo sie richtig gut sind, insbesondere so zu Verlaufsbeurteilen, ähnliches oder ganz konkrete Fragestellungen wie Lungenkrebsdiagnostik.
00:07:39: Dieser andere, etwas offene Bereich, also all das, was um Sprachmodelle geht, der ist, da fragt ich sogar, na ja, was ist Projekt, was ist denn jetzt richtig marktfähiges Produkt?
00:07:50: Und tatsächlich ist es so, dass die Hersteller gerade versuchen, die Herausforderungen haben, wie kriegen sie das Ganze eigentlich in die Kliniken rein, als Produkt, das sie verkaufen, ohne Medizinprodukt zu sein.
00:08:03: Denn für ein Medizinprodukt gelten ja ganz besondere Zulassungsvoraussetzungen, die die auch nicht mal ebenso zu erreichen sind, ähnlich wie für die Medikamentenzulassung, wo es man hier zwar nicht ganz so aufwändige Studien betreiben, aber man muss letztendlich nachweisen, dass das Produkt sicher ist und für diesen Zweck geeignet ist.
00:08:19: Und das ist nur für diesen Zweck eingesetzt wird, muss wiederum sichergestellt werden und ein regulativer Prozess hängt dahinter, der ein bisschen braucht.
00:08:26: Und das ist erst mal auch richtig so, weil es geht um Patientensicherheit, genauso für den Medikament wie für den Stent und so weiter, ist es richtig, dass das eingefordert wird.
00:08:34: Und jetzt aktuell ist ganz oft die Frage, Handelt es sich um ein Medizinprodukt oder nicht?
00:08:38: Also Beispiel, es gibt inzwischen Systeme, die man auch kaufen kann, die aus den medizinischen Daten, die wir im Krankenhausinformationssystem KISS haben, die daraus versuchen, automatisiert einen Arztbrief zu erstellen.
00:08:50: Jetzt ist die Frage, ist das ein Medizinprodukt oder nicht?
00:08:53: Und man steht hier in der Regel auf dem Standpunkt, nein, das ist kein Medizinprodukt.
00:08:56: Man nimmt ja nur das, was da ist, formuliert es und... Die Verantwortung liegt am Ende bei der Ärztin, beim Arzt, das Ganze zu überprüfen.
00:09:04: Insofern, das kann man auch aktuell gerade schon kaufen, aber es birgt genau eines der Risiken, die wir vorher beschrieben haben, nämlich die sind ja nur dafür da, damit sie einen Vorschlag machen und Ärztinnen und Ärzte sollen das Ganze dann überprüfen.
00:09:17: Wir alle wissen, aber die Zeit ist eigentlich dafür gar nicht da.
00:09:19: Das heißt, es wird ganz schnell so sein, dass die dann so genutzt werden.
00:09:22: Das heißt, hier haben wir irgendwie so ein Graubereich, wo es irgendwie schon Produkte gibt, die auch gekauft werden können, wo aber man sehr gut gucken muss, dass man an einen Anbieter gerät, der das Ganze auch seriös macht.
00:09:33: Und da gibt es durchaus ja einige.
00:09:35: Trotzdem ist hier auch gerade noch einiges in Entwicklung, aber da gibt es erste Tools, die richtig, richtig gut auch schon funktionieren.
00:09:40: Aber trotzdem natürlich auch die typischen Problemen von latschlängelschen Dänen haben, auf die wir da vielleicht noch mal eingehen sollten.
00:09:48: Ganz kurz,
00:09:48: auf welche Probleme?
00:09:49: Du warst gerade ein bisschen schnell.
00:09:50: Das müssen wir, glaube ich, noch mal... Okay,
00:09:52: die typischen Probleme.
00:09:54: Ich erzähle noch ein anderes Beispiel und dann gehe ich einmal kurz darauf ein.
00:09:57: Das andere, was auch jetzt wirklich schon zu kaufen ist, ist, dass es Systeme, die zuhören und dann daraus die Analyse z.B.
00:10:06: erstellen.
00:10:06: Also Kortei macht sowas im ambulanten Bereich, hat das Tomido als Add-on im Angebot.
00:10:14: bin ich ganz sicher, ob es da schon verkauft wird oder ob das ein Test ist.
00:10:17: Aber auf jeden Fall kann man es als Nierglasner da auch schon nutzen.
00:10:20: An der Charité läuft ein Projekt mit Azure von Microsoft, was also auch zuhört und dann das Ganze in Text umwandelt.
00:10:27: Und das ist teilweise schon ganz schön gut, muss man sagen.
00:10:30: Grundsätzlich ist es so, large language Modelle als bekannteste Beispiel, aber es gibt ja inzwischen zig andere, haben die Problematik, dass sie hallucinieren und zwar sehr überzeugend.
00:10:42: Und es ist unglaublich wichtig, dass man sich dessen bewusst ist.
00:10:45: Und das ist nicht ein kleines Problem, das ist hochrelevant.
00:10:47: Nur als ein Beispiel, ich habe kürzlich für ein Kongress Teilnehmer gesucht und wollte gern auch noch eine ganz spezielle Spezifikation haben.
00:10:54: Ich gehe mal hier nicht genau darauf ein und habe ein bisschen recherchiert, habe ein paar gefunden, dachte auch jetzt fahre ich noch mal Chatchapity.
00:11:00: Chatchapity hat mir absolut konfident eine Liste von zwölf Menschen ausgespuckt.
00:11:06: In dem Fall ging es um Chirogen, Chiruginnen, die sich auch mit KI beschäftigen.
00:11:11: Von den zwölf stimmte keiner.
00:11:14: Und es war mit Biografie und allem drin.
00:11:17: Und alle kennen ähnliche Beispiele.
00:11:19: Zwei waren zwar im Thema KI, aber waren keine Chirogen.
00:11:22: Und die anderen zehn waren komplett ausgedacht.
00:11:24: Es gab diese Menschen, ich habe es recherchiert.
00:11:26: Ich habe natürlich den Prompt auch nicht so gut gemacht.
00:11:27: Ich habe dann stärker gemacht, dann wurde er auch besser.
00:11:29: Dann war der Ergebnisse so, dass sich dann auch Chagopity sich korrigiert hat.
00:11:33: Man sollte zum Beispiel immer nach Quellen direkt fragen und so weiter.
00:11:37: Also Chatchi Pity hat sehr große Probleme damit in diesen Grenzbereichen.
00:11:41: Das gilt halt allgemein für large Language-Modelle.
00:11:44: Wenn ich einen Arztbrief generiere oder zuhöre, Chatchi Pity wird im Zweifel das schreiben, was es selber für am Wahrscheinlichsten hält.
00:11:51: Und es ist ganz wichtig, dass diese Systeme so gut sind, dass sie bei Unsicherheiten nicht anfangen zu hallucinieren, sondern dann halt auf diese Unsicherheiten hinweisen.
00:12:00: Da gibt es Anbieter, die genau darauf eingehen.
00:12:03: Und ich glaube schon, dass wir hier Systeme brauchen die, wenn wir sie auch auf unseren Kontext konkret trainiert sind.
00:12:10: Wenn es um Wissen geht, das ist ja die andere Seite, auch hier gibt es ja jetzt, also viele Ärzte fragen schon jetzt bei ChatGPT, wie behandle ich dies oder jenes?
00:12:18: Und früher haben sie über Wikipedia geguckt, geht einfach schneller, aber das ist hochgradig gefährlich.
00:12:23: Das ist keine Übertreibung.
00:12:25: Es gab eine sehr schöne Studie, ist gerade rausgekommen, noch ein Preprint, Harvard und Stanford haben mehrere Dutzend Sprachmodelle getestet.
00:12:35: die also für Wissen da sind, also wissensbasierte Sprachmodelle für Medizin, die No-Harm-Studie und konnten zeigen, dass bis zu... ...zweiundzwanzig Prozent der Antworten nicht nur nicht ganz richtig sind, sondern wirklich zu schweren Schäden führen können.
00:12:50: Und das ist schon ganz schön heftig, ne?
00:12:52: Ein, fünfte der Antworten sind gefährlich.
00:12:55: Und sie kommen aber so an, dass ich sie glaube.
00:12:58: dass ich denke, das ist schon richtig.
00:12:59: Und das Problem ist, es stimmt ja auch meistens, es stimmt halt nur bei den vielleicht zwanzig Prozent nicht und vielleicht sind Sanamente auch doch nur zehn.
00:13:06: Aber wenn ich soweit ich einfach mich darauf verlasse, wird das extrem schwierig.
00:13:11: Übrigens der Großteil durch Auslassungen.
00:13:13: Also, dass wichtige Dinge nicht dargestellt werden.
00:13:16: Also, es sind gar nicht nur Halluzinationen, sondern auch viel fehlende Inhalte.
00:13:19: Also, hochgradig kritisch.
00:13:21: Und im Problem, was unbedingt ganz gezielt angegangen werden muss durch diese Modelle.
00:13:25: Das ist auch, wenn man so will, die Gefahr an Chagopity Health und anderen, dass sie also... uns in trügerischer Sicherheit wiegen lassen.
00:13:32: Und es ist ja gerade noch so, gerade sind da draußen ja quasi noch ganz viele Ärzte und Ärzte, die wirklich Experten ihres Faches sind, wirklich evidenzbasiert alles gelernt haben und die dann auch so was mal challenge'n können, sagen dann ja, das stimmt ja aber nicht, was hier steht.
00:13:45: Aber wenn ich jetzt junge Assistenzarzt bin, dann merke ich das ja gar nicht.
00:13:49: Und das ist natürlich auch ein Problem der Ausbildung.
00:13:51: Also ist es wichtig, dass wir auch hier darauf achten, es muss evidenzbasiert bleiben.
00:13:55: Es müssen echte Evidenzen drin sein.
00:13:57: Übrigens bei dieser Noharm-Studie Und ich bin mich wirklich gefreut, schon toll, dass das beste Produkt tatsächlich aus Deutschland kam.
00:14:03: Also, Armbost, was ja viele kennen, ist ja ein Wissensdatenbank-Anbieter, der ursprünglich aus dem Medizinstudium kam, aber inzwischen ja auch Wissen aufbereitet für Ärzte auf Verharzniveau.
00:14:15: Und die haben am besten abgeschnitten.
00:14:16: In dieser, also es war kein Deutsches Studium, Stanford und Harvard, wie gesagt, dahinter, das beste Modell.
00:14:22: Deswegen so ist, weil darunter eine Medizin-Datenbank liegt, die von Menschen kuratiert wird.
00:14:28: Also darunter steckt quasi die Medizindatenbank, die auf aktuellen Leitlinien, deutschen Leitlinien, europäischen Leitlinien basiert auf dem, was aktuelle Studien zeigen, die vielleicht noch neuer sind als und wo letztendlich menschliche Experten, echte Ärzte und Ärzte dieser aktuellen Studien immer wieder überprüfen und sagen, das hier ist unsere Datenbasis und nur auf Basis dieser Datenbasis arbeitet das Sprachmodell, was dahintersteckt und nur dann wird es gut.
00:14:53: Also wenn ich da irgendwas mache, dann muss ich das machen und übrigens dieses KI-System quasi.
00:14:58: Wenn man so will, also ein Sprachmodell, eine Fidget-Dipetie, was dann auf dieser Ambos-Datenbank basiert, ist interessanterweise in den USA schon zugelassen von Ambos.
00:15:05: In Deutschland noch nicht, weil in Deutschland alles wieder ein bisschen schwieriger ist, kommt aber hoffentlich auch in die nächsten Monaten hier.
00:15:10: Und dann haben wir, wenn man so will, das sichere KI-System für Wissensdaten auch hier zur Verfügung, wird auch seinen Preis haben, aber der ist glaube ich auch berechtigt, wenn man bedenkt, was dahinter steckt, wenn man das Ganze einfach nur auf... Basis von allen wissen, was im Internet es macht.
00:15:25: Es ist natürlich billiger, als wenn man wirklich Experten hat, die das Brotein, aber leider braucht man das.
00:15:30: Eine kurze Zwischenfrage.
00:15:31: Es gibt ja auch die Integration von Ambus in Chatchi PT.
00:15:36: Kennst du die Integration?
00:15:38: Also ich kenne die in Microsoft.
00:15:40: Ich weiß nicht, ob es in Azure ist, aber auf jeden Fall da, ich glaube in Azure.
00:15:43: Das ist ein teilweise ähnlicher Konzept.
00:15:45: Also man muss ja immer bei Latin Language Modellen zwischen zwei Dingen unterscheiden.
00:15:49: Das eine ist quasi die Engine, also dass die Technik, die quasi dann, die sei jetzt so formuliert, war einfach gesprochen in Pomf verarbeitet.
00:15:57: Und dann ist mal die Frage, worauf basiert das?
00:15:59: auf der Datenbank?
00:16:00: Und die Engine kann man kombinieren mit verschiedenen Datenbanken.
00:16:03: Das heißt, also so einfach gesprochen, quasi das Chatchivity System.
00:16:08: Die Engine kann man auch nutzen, um auf Ambus-Daten oder auf New Wikipedia-Daten oder nur auf die Bibel oder was auch immer zuzugreifen, je nachdem, was man gerne da drunter hat.
00:16:19: Schön,
00:16:19: Ambus und die Bibel in einem Satz zu bringen.
00:16:23: Kai, du kannst das.
00:16:24: Da habe ich vielleicht nur einen, weil du hast gefragt, was hat sich verändert?
00:16:27: Ich habe jetzt immer positive Sachen gesagt, aber ehrlich gesagt, ich glaube, eine ganz wichtige Erkenntnis des letzten Jahres ist auch, dass wir merken, die... Systeme stoßen an ihre Grenzen.
00:16:37: Also, gerade was dieses Thema Halluzination und so weiter angeht, die Systeme werden da gar nicht mehr deutlich besser.
00:16:45: Das heißt, wir müssen uns vermutlich darauf einstellen, dass da quasi immer eine gewisse Ecke bleibt, die das System nicht kann.
00:16:51: Und deswegen ist es unglaublich wichtig, dass wir weiterhin Menschen haben, die das überschauen können.
00:16:56: Das vermutlich auch diese Erkenntnis gab dem letzten Jahr.
00:16:58: Das ist dann doch teilweise halt die Fehler.
00:17:02: Das
00:17:02: würde ich nämlich auch gerne nochmal ganz konkret benennen.
00:17:05: Also so wirklich die Erkenntnis aus dem letzten Jahr.
00:17:09: Wenn du es mal wirklich in einen, zwei Sätzen sagen kannst, was war für dich wirklich die Erkenntnis, vielleicht in welchem Bereich es besonders gut funktioniert, welche Entwicklungen besonders neu interessant sind oder was auch einfach Limitationen sind, die man frühzeitig noch nicht so richtig auf dem Schirm hatte.
00:17:26: Also alles, was mit Bild erkennen und so hat es schon funktioniert, ziemlich gut.
00:17:30: Und da kann man eigentlich schon Haken dran machen, auch schon letztes Jahr, dass sowas klappt ganz gut.
00:17:36: Also wunderbar.
00:17:37: Und das wird auch noch besser werden.
00:17:38: Trotzdem werden wir weiter in Radiologen brauchen, die den Gesamtblick haben und so weiter.
00:17:42: Was jetzt aufs Letzte Jahr mich besonders beschäftigt hat und beeindruckt, aber auch teilweise beunruhigt, ist letztendlich das, was mit Sprachmodellen möglich ist.
00:17:51: Auf der einen Seite, auf der anderen Seite aber auch, welche ungelösten Limitationen dahinter sind und die dann durchaus gelöst werden können.
00:18:00: Aber wo man sehr gut darauf achten muss, dass das auch passiert.
00:18:04: Man könnte sagen, es gibt jetzt Habe ich viel Rammsch auf dem Markt, ich viel Rammsch bezeichnen, aber es ist nicht dafür gedacht, Medizin zu machen.
00:18:15: Das heißt, es gibt günstige Systeme, die aber nicht richtig gut sind.
00:18:18: Die sind völlig ausreichend für den Haus gebraucht, für alles Mögliche.
00:18:21: Aber sie sind halt nicht richtig gut und das ist ein großer Gefahr.
00:18:24: Wir werden quasi überflütet mit allgemeiner KI.
00:18:31: Die aber gut genug für alles Mögliche ist, aber nicht für Expertenmedizin und deswegen ist das Licht und Schatten toll, was die können, auch wenn sich jetzt, finde ich, so unglaublich viel nicht mehr getan hat im letzten Jahr da, bei den normalen, frei verfügbaren Systemen.
00:18:44: Toll, was jetzt passiert im Bereich spezialisierter Language Modelle, also wie zum Beispiel das System von Ambus, wo auch, wo man auch noch trotzdem ein bisschen kritisch sein muss, nicht so, dass da jetzt automatisch immer alles stimmt, aber es ist halt deutlich besser.
00:18:55: Und wenn wir mal ehrlich sind, wenn man das benutzt, Ich glaube, es gibt keinen Arzt, der da nicht besser wird, vielleicht nicht in der eigenen Expertise, da ist man meistens, ja, weiß man hoffentlich alles, aber gerade wenn es um die Randbereiche geht, die man nicht täglich sieht, dann kriegt man damit schon ein bisschen Superkräfte.
00:19:09: Aber auf der einen Seite Schatten, es ist immer eine Gefahr dabei, wenn man zu unkritisch damit umgeht.
00:19:13: Und das, insofern haben wir eigentlich diesen Zwiespalt.
00:19:16: Wir haben irgendwie eine gewisse Form von Hype, wo wir schon letztes Jahr, glaube ich, gesagt haben, muss man mal aufpassen.
00:19:22: Ich finde, es verdichtet sich.
00:19:24: dass wir merken, also ich kann zwar einiges, aber es kann bestimmt nicht alles.
00:19:27: Also zumindest sind wir da weit entfernt.
00:19:29: Es ist auch nicht so, dass es gerade linear oder exponentiell weitergeht.
00:19:31: Alles ständig besser und besser wird, sondern manche Sachen lassen sich einfach nicht trainieren, weil aber die Daten nicht da sind.
00:19:38: Daten werden auch nie da sein oder die Daten sind zu schlecht und so weiter.
00:19:41: Also trotzdem ist es toll, aber muss einfach kritisch bleiben.
00:19:45: Und die große Herausforderung, dass das, was mir schon Sorge macht, ist, dass es so schwierig ist, dass so in Griff zu kriegen, so zu regulieren, dass gute Medizin dabei rauskommt.
00:19:53: Also wie schaffe ich es denn künftig, dass Ärzte weiter gut ausgebildet werden, weiterhin wachsam bleiben und kritisch damit umgehen?
00:20:01: Das ist wirklich eine Herausforderung und teilweise auch umgelöst.
00:20:05: Selbst wenn ein Auto so gut vorstellt, man rollt immer mal im Lenkrad, aber wie machen wir das denn in der Medizin, dass wir immer wieder selber nachdenken müssen und das auch sicherstellen, wenn ich bei mir in der Klinik so was implementiere?
00:20:16: Also was mir ... Da so ein bisschen einfällt, als Judge.
00:20:20: H.P.T.
00:20:20: Health wurde jetzt ja auch erst mal für Patienten und Patientin gelauncht, also gar nicht für den medizinischen Bereich, sicherlich aus strategischen Gründen oder unter anderem auch aus strategischen Gründen.
00:20:33: Aber wenn wir jetzt mal uns an die Anfangszeiten von Google erinnern, wo Ärztinnen und Ärzte wir dann genervt waren, dass Patienten mit gegoogelten Wissen kamen und da schon in so eine gewisse ... Ja, in so eine gewisse Drucksituation kamen, uns zu erklären, warum wir vielleicht irgendwas nicht machen, was die irgendwo recherchiert und gelesen hatten.
00:20:58: Oder warum wir was machen, was sie nicht gelesen hatten.
00:21:01: Und die neue, ich nenn's mal KI-Zeit, die bringt ja diesen Faktor auf ein ganz anderes Level.
00:21:09: Also, wenn man da personalisierte Patientendaten als Patient auch selbst eingibt.
00:21:15: Und dann schlägt der XY vor.
00:21:17: wovon ein Teil richtig ist, ein Teil nicht, ein Teil vielleicht auch für einen anderen Kontext richtig.
00:21:23: Weil es mit anderen Trainingsdaten gefüttert wurde, dann bringt es natürlich auch Ärztinnen und Ärzte wieder in so eine Drucksituation, wo man auch erst mal wieder relativieren muss, wo man vielleicht auch teilweise gar nicht relativieren kann.
00:21:36: In meiner Arztpraxis kommen manchmal Menschen, die auf sozialen Medien, also beispielsweise Instagram, was ... gesehen haben, irgendein neues Präparat, irgendein neues Vitamin und es sind dann ganz überzeugt, dass sie genau das brauchen oder das nicht brauchen.
00:21:54: Und es ist ganz schwer gegen sowas zu argumentieren.
00:21:58: Und es kostet dann einfach wieder Zeit und das ist letztlich Zeit, die dann auch im Gesundheitswesen dann irgendwie kostentechnisch abgebildet wird.
00:22:05: Also ich finde es schon spannend, die Probleme verschieben sich so ein bisschen, einfach diese nötige Zeiteffizienz, die wir vielleicht uns über KI-Tools irgendwann wieder erholen können.
00:22:17: Die können sozusagen durch KI-Tools auf Patientenseite gegebenenfalls wieder rausgeholt oder beziehungsweise neu generiert werden.
00:22:25: So im Sinne von, da wird wieder mehr Informations- oder Kontextualisierungsbedarf bei Ärztinnen und Ärzten geschaffen und das muss dann wieder mit Patienten besprochen werden.
00:22:37: Also vielleicht auch noch so ein Aspekt, den man häufig nicht so bedenkt, aber ich Erlebt es tatsächlich auch als ein häufig nicht benanntes Problem?
00:22:45: Ja, also ein guter Punkt, den wir auch einmal einordnen sollten und das ist gar nicht so leicht, weil da ja ganz unterschiedliche Interessen letztendlich auch wieder mit reinhängen.
00:22:55: Also erst mal müssen wir ja festhalten, warum wir hier Medizin machen.
00:23:01: ist ja für den Patienten.
00:23:02: Also wir wollen, dass es Patienten besser geht, dass sie gesünder sind, weniger leiden und so weiter.
00:23:07: Und dafür ist an sich auch Einigkeit besteht, glaube ich, darüber, dass optimalerweise wir einen möglichst gut aufgeklärten Patienten haben, der möglichst viel von seinen eigenen Erkrankungen versteht.
00:23:18: Und deswegen auch alles, was rund um ihn passiert, besser einordnen kann.
00:23:21: Das heißt, eigentlich ist das auf jeden Fall das Ziel.
00:23:24: Dann müssen wir, glaube ich, auch noch festhalten, dass Ärzte ganz schön viel wissen, aber nicht alles.
00:23:29: Und wir alle kennen, glaube ich, Beispiele, sei es für uns selbst, sei es für andere Kollegen, wo wir halt Lücken hatten.
00:23:35: Und wir müssen uns auch klarmachen, dass es teilweise einfach auch unsere Eitelkeit ja angreift oder verletzt, wenn da ein Patient ist, der plötzlich etwas vielleicht sogar weiß, was ich nicht weiß.
00:23:45: Und das kennen wir, glaube ich, auch als Kollegen untereinander, dass man manchmal einen Kollegen auf irgendwas hinweist, wo er vielleicht daneben lag, weil er Wissen nicht hatte.
00:23:52: Und es gibt Kollege und Kollegen, die das dann überspielen und dann offensiv quasi in Gegen und Gegenwehr gehen und das nicht wahrhaben wollen.
00:23:59: Und es gibt andere, die sich freuen dürfen, denn hinweist.
00:24:02: Und so muss die Medizinkultur auch sein, dass wir versunderlich besser zu werden.
00:24:06: Und natürlich ist es gar nicht so leicht, damit umzugehen, wenn ein Patient sitzt, der plötzlich vielleicht Ja, weiß als ich, weil er sich mit einem Thema auseinandergesetzt hat.
00:24:13: Was ich eigentlich, was nicht in meinem Bereich ist, was jetzt auch plötzlich relevant ist, aber ich habe nicht damit rechnen, ich konnte mich darauf vorbereiten.
00:24:20: Und dann weiß es halt vielleicht gerade mal nicht.
00:24:21: Das sind ja durchaus reale Situationen, die wir, glaube ich, auch von früher immer mal kennen.
00:24:25: Das ist... dann ja eigentlich erst mal gut, weil vielleicht dadurch besser Medizin beim Patienten ankommt.
00:24:30: Aber du hast recht, es gibt natürlich auch diese Patienten, die dann irgendwie da völlig falsch liegen und denken, in diese Richtung muss man jetzt Diagnostik machen und so weiter.
00:24:39: In alle Richtungen gibt es das ja von über Diagnostik bis unter Diagnostik.
00:24:42: Sie wollen etwas nicht oder sie wollen etwas.
00:24:45: Das hatten wir vorher auch schon, Wikipedia und Co.
00:24:47: Jetzt kommt es über die KI.
00:24:48: Ich glaube, die Qualität davon wird jetzt besser werden, trotz allem.
00:24:54: Und natürlich hat er trotzdem gar nicht so schlecht.
00:24:56: Und anders wird dann noch besser sein, obwohl er sich primär an Ärzte und Ärzte richtet und sowieso noch viel dezidiertere Informationen gibt, was was leicht dir und so weiter angeht.
00:25:03: Also an sich empowern wir den Patienten.
00:25:05: Und natürlich wird es nerven, natürlich wird es teilweise mehr Arbeit erst mal machen, weil wir mehr erklären müssen.
00:25:09: Aber eigentlich ist es eine gute Sache und ich glaube für die für die medizinische Versorgung, für die Gesundheit insgesamt der richtige Weg ist, wir brauchen den Emportenpatienten.
00:25:17: Wir brauchen den Patienten, der mehr versteht.
00:25:20: Da müssen wir unsere quasi unsere Befindlichkeiten loslassen und sagen erst mal ist das gut.
00:25:26: Es senkt den Status des Expertenarztes ab.
00:25:29: Beziehungsweise hebt den Patienten ran.
00:25:30: Das ist etwas, was wir vielleicht erst mal nicht unbedingt mögen, aber an sich ist das genau die richtige Entwicklung.
00:25:35: Nur so kann Medizin besser werden.
00:25:37: Und das verändert so ein bisschen unsere Rolle, weil wir dann nicht mehr nur glänzen können mit exklusiven Wissen, aber eigentlich ist es halt für die Versorgung der richtige Weg, den wir uns stellen müssen.
00:25:45: Auf der kriegen wir erst recht Superpower mit der KI dahinter und müssen uns halt auch nutzen und müssen aber auch kürzeln.
00:25:52: Ich glaube auch übrigens, dass die Medizinkultur genau in diese Richtung schon längens geht.
00:25:55: Wir sind da ja heute schon ganz woanders als vor zwanzig Jahren, wo man quasi keinen Chefarzt kritisieren, durfte.
00:26:00: alle Chefärzte, die ich heutzutage kenne, egal ob älter oder jünger, als ich, haben da eher eine ganz andere Kultur, die evidenzbasierter ist, die auf Kritik eingeht und die sagt, also nicht alle, die kennen fast alle, die sagt, wir müssen offenbar reden können, auch Fehler ansprechen können, müssen Diagnosen und alles Mögliche infrage stellen dürfen, damit halt was möglichst gut rauskommt.
00:26:20: Dafür hilft das Ganze.
00:26:22: An das Beispiel ist übrigens KI-basierte Dokumentation.
00:26:25: Er schafft teilweise ganz schön lange Texte.
00:26:28: Weil man nicht mehr schnell in Schnellschrift als Arzt fast schon stenografiert und nur fünf Sexorte in den Rechner-Tipp, die man auch ganz schnell lesen kann, kommt plötzlich lange Text dabei raus.
00:26:38: Ganz schlimm ist es, wo einfach nur Sprache aufgezeichnet wird und man jetzt gerade rein dektieren kann.
00:26:43: Da hat man plötzlich so einen langen Lex und niemand im Dienst hat mehr Zeit, das zu lesen.
00:26:47: Aber auch wir als nächstes die KI, die das wir zusammenfasst, damit wir im Dienst einen schnellen Überblick verschaffen können.
00:26:51: Also wir sind gerade in der In-between-Zeit, die wirklich Licht und Schatten hat und wo wir jetzt echt gucken müssen, dass in die richtige Richtung geht.
00:26:57: Dafür ist ärztliche Expertise wichtig, die darf sich da jetzt nicht raushalten.
00:27:00: Ja,
00:27:01: also ich finde schön, dass du nochmal ärztliche Expertise, also gar nicht so kompetenz, sondern Expertise tatsächlich.
00:27:07: glaube ich, ist auch so das Stichwort, also Erfahrungen einfach Dinge gesehen haben, Dinge einordnen können.
00:27:14: Mir ging es, glaube ich, gerade nicht um die gekränkte Eitelkeit von Ärztinnen und Ärzten.
00:27:18: Mir ging es eher um diesen Missmatch von Zeit, die Patientinnen und Patienten mit beispielsweise einem ChatGPT Health verbringen können.
00:27:31: baut Vertrauen auf.
00:27:33: Ich weiß nicht, inwiefern Patientinnen und Patienten über Halluzinierungsphänomene Bescheid wissen, wie viel sozusagen die dann wirklich ungefiltert als Wahrheit übernehmen.
00:27:44: Das wird sicherlich auch unterschiedlich sein von von Mensch zu Mensch.
00:27:49: Aber wenn man jetzt drei, vier, fünf Stunden mit medizinischen Problemen, mit personalisierten Daten, mit dem Denken, dass es sich auf das Wissen der ganzen Menschheit bezieht.
00:28:00: Dann gehe ich zum Arzt auf Ärztin und der hat sechs Minuten Zeit, um mit mir meine kardiale Situation zu besprechen.
00:28:08: Das ist für alle Beteiligten gegebenenfalls unbefriedigende Situation, weil häufig einfach viele Dimensionen auch besprochen werden könnten und eigentlich auch sollten, um die Patienten auch wirklich abzuholen.
00:28:21: Und das birgt einfach nur die Gefahr.
00:28:23: Natürlich, je besser die Informationen sind, mit denen die Patientinnen und Patienten dann kommen.
00:28:29: Desto im Idealfall einfacher ist es für die Behandler.
00:28:34: Aber auch selbst dann gibt es ja immer wieder die Situation, dass auch Leitlinienempfehlungen gar nicht bei uns finanziell in der GKVA abgedeckt sind.
00:28:45: Und das schafft natürlich auch wieder so ein bisschen Konfliktpotenzial.
00:28:48: Da sind sicherlich ein paar unlösbare Probleme, aber... Die Alternative zu sagen, da haben wir lieber einen Patienten, der gar keine Ahnung hat und der dann nur staunt über die tollen Sachen, die wir ihm erzählen, das ist es ja nun mal auch nicht.
00:28:59: Insofern an sich wollen wir halt genau diesen Patienten und es verändert die Rolle von uns.
00:29:03: Es verändert die ärztliche Rolle definitiv.
00:29:06: Der Patient wird zunehmend, das ist jetzt schon der Fall, das Gefühl haben.
00:29:10: Na ja, also das, was ich da im Internet gelesen habe, bei JetDipTee oder Co, hat mir eigentlich mehr weitergebracht.
00:29:15: Aber trotz allem, diese Erfahrung da einzubringen und als Arzt, ich hab halt schon solche Patienten wirklich gesehen, das ist schon noch mal ein großer Unterschied, etwas nur zu lesen.
00:29:24: Das ist ja letztendlich genau der gleiche Unterschied, warum wir nicht am Ende des Studiums tollerzisch schon sind, weil wir, es steht zwar alles im Lehrbuch, ja, JetDipTee weiß auch nicht mehr, als ein Lehrbuch, so steht halt da drin.
00:29:35: Aber das, was die ärztliche Expertise ausmacht, ist ja dann, ganz wesentlich auch die Erfahrung.
00:29:42: Und das ist auch das, was wir einbremen können und worauf wir ja Erfahrung bringt, auch Nachteile.
00:29:47: Mit Erfahrung hat man fast zweitausend Jahre lang einen Malerlass gemacht, also aber evidenzbasierte Erfahrung quasi oder Evidenzbasiertheit und Erfahrung, das ist ja das, was gute Medizin ausmacht.
00:29:58: Vielleicht noch ein letzter Gesichtspunkt oder Gedanke, also eine meiner Erkenntnisse von letzten Jahr.
00:30:06: waren.
00:30:07: Ich habe natürlich auch viel mit KI Tools getestet in verschiedenen Bereichen und habe immer den Eindruck, so die bisherige KI oder die bisherigen KI Tools, die ich sage mal auf dem Markt oder Marktreif zur Verfügung stehen, die wirken häufig über so eine Art Produktivitätsfaktor.
00:30:27: Also ich kann mal schnell eine Präsentation erstellen.
00:30:30: Ich kann mal schnell einen Text erstellen.
00:30:33: Ich kann mal schnell eine Recherche machen, was ich aber gemerkt habe und was sich auch so ein bisschen vielleicht auch miterklären kann, durch was wir gerade besprochen haben, ist, wenn man so die letzten Qualitätspunkte rausholen möchte, dann ist enorm viel, ich nenn's mal humane, Intelligenz nötig.
00:30:54: Und vielleicht ist das auch mitten Grund, warum wir in der Medizin, wo wir einfach einen hohen Qualitätsanspruch haben, uns reichen häufig keine achtzigprozentigen Lösungen.
00:31:04: Wir haben es vorhin schon gesagt, wenn zwanzig Prozent der Entscheidungen Fehlentscheidungen sind und Patienten schaden, ist es nicht akzeptabel.
00:31:13: Es gibt ja dieses Pareto-Prinzip, dass man mit zwanzig Prozent des Arbeitsaufwandes auch achtzig Prozent der Leistung eben erzeugt.
00:31:23: Den Eindruck manchmal ist die KI-Technologie heutzutage so eine Art Beispiel für das Pareto-Prinzip oder vielleicht sogar noch weniger.
00:31:31: mit weniger als einem Prozent des Arbeitsaufwandes kann ich, achtzig, neunzig Prozent sozusagen, der Leistung auch oder das Outcomes produzieren.
00:31:40: Meine Frage ist A. Erst mal so eine Einordnung dieser Erkenntnis, würdest du die teilen?
00:31:45: und B. Was erwartest du in Zukunft?
00:31:48: Also wird das kontinuierlichen Problemen sein oder wovon gehst du aus?
00:31:56: Ja, also wenn wir diese Latschengen-Schwundelle von der Stange nehmen, also die Tragibilty, da wird das vermutlich so bleiben.
00:32:04: Man muss sich ja immer wieder klarmachen, worauf basieren.
00:32:06: Die basieren auf dem Wissen, was sie im Internet gefunden haben.
00:32:09: So.
00:32:10: Und wenn ich da irgendwie eine Frage stelle, Anfang des Jahres habe ich irgendwie eine Frage zum Krankenhaus- und Transmissionsfonds gestellt, da war halt noch kaum Wissen.
00:32:18: Das, was daraus kam, war... Quatsch, stimmt einfach nicht, weil, woher sollte das System das auch wissen?
00:32:23: Oder kürzlich habe ich ein Ethik-Kapitel geschrieben, Ethik und KI und habe dann auch nochmal Chatiboutique gefragt, was es so meint.
00:32:29: Und es war alles so auf vornebene.
00:32:31: Man versteht in den Vorenden drin.
00:32:33: Es war alles irgendwie mau.
00:32:35: Und andere Bereiche kann es wiederum ganz gut.
00:32:37: Also es ist halt von bis.
00:32:39: Und gerade im Detail hast du völlig recht, fehlt es dann oft und ist dann vor allem sehr abgetroschen, das was man hat.
00:32:45: Aber manchmal ist es auch ganz toll.
00:32:47: Ich vermute, dass sich das einfach aufgrund der Technik auch nicht ändern lassen wird, weil dafür müsste man ja das Wissen, auf dem es basiert, menschlich bewerten.
00:32:55: Das tut man, wenn man ein Wissensdatenbank darunter hat, die menschlich kuratiert ist.
00:33:00: Aber... Wenn man sagt, ich nehme das ganze Internetwissen und sag vielleicht, wie Peter, wir müssen mehrseits arrest oder so, dann passiert das halt nicht.
00:33:07: So wird das halt auch bleiben.
00:33:08: Also man merkt das auch wirklich, je nachdem, was man so viele Fragen da reingebt, wenn das Wissen ist, was eher so aus irgendwelchen Internetforen kommt, dann sind die Antworten oft katastrophal und wirklich, also, ja, nicht zu viele Beispiele gehen, aber da findet man was.
00:33:25: was ein bisschen trotz einem noch zuhört sich das Problem ist, das merken glaube ich auch alle ja schon, und da gibt es ja inzwischen zig Studien, diese kognitive Auslagerung, dass wir also, dass wir bestimmte Sachen gar nicht mehr selber denken und sagen, ich kipps in Statuity ein, und das ist, also muss man brauchen, so ein bisschen Selbstdisziplin, dass man merkt dann oft, das Ergebnis, ja auf die Idee wäre ich auch schon selbst gekommen, denkt man, und dann, warum hat man es dann überhaupt eingegeben, und ist es nicht viel schöner, dann einmal selber nachzudenken, das macht nämlich auch Spaß.
00:33:51: Also, Empfehlung jetzt, gerade wenn es nicht um nur medizinische Dinge geht, sondern auch andere.
00:33:56: Ich finde es immer gut, so mache ich es inzwischen auch, dass ich selber Vorarbeiter mir Konzepte mache und die lasse ich dann noch mal Challenge und sage, hier fällt dir dazu noch was ein und dann wird es richtig, da hilft es schon auch dann toll.
00:34:07: Dann kommen wir mal echt noch ein paar ganz gute Ideen.
00:34:09: Und wenn das System dann sagt, total toll, besser hätte ich es nicht machen können, dann freut man sich auch.
00:34:13: Ja,
00:34:14: dieses Challengenlassen, Sparring.
00:34:17: Dinge weiterentwickeln oder von einer anderen Perspektive noch mal aufzeigen lassen.
00:34:21: Das finde ich klappt ganz gut.
00:34:23: Ja, ja.
00:34:24: Und das ist insofern schon eine tolle Entwicklung, was es da gibt.
00:34:27: Und die Hauptherausforderung ist jetzt, wie kriegen wir das Ganze so gebahnt, dass gute Mediziner daraus kommen.
00:34:34: Und das ist wirklich nicht trivial.
00:34:37: Also diese Sicherheit reinzukriegen, dass wir aufmerksam bleiben, dass wir unsere Expertise behalten, die weiterhin nötig sein wird.
00:34:45: Und nicht einfach unser Wissen einfach nur komplett auslagern, sondern es da benutzen, wo es hilft, aber trotzdem das rein.
00:34:52: Und das ist, also jetzt, wenn wir nochmal einen Chefärzt zurückdenken, das ist... Wirklich was, wo man jetzt erstmal die richtige Kultur, auch Ausbildungskultur finden muss, weder verbieten, noch zu viel nutzen, nicht zu viel vertrauen.
00:35:04: Und das, es wird dort zur Regulierung hoffentlich geben, aber bislang gibt sie nicht, uns auch schwierig die Gut zu machen.
00:35:10: Es hängt wohl schon auch in der Verantwortung der einzelnen Abteilung, das gut zu gestalten und das ist nicht leicht.
00:35:15: Am Ende braucht es halt eine KI-Medizin-Kultur, die im Sinne der Patientenversorgung das Ganze gut gestaltet, aber natürlich auch im Sinne der Effizienz, weil wir haben ja nun mal nur bedingt Zeit.
00:35:25: Ja, zu.
00:35:26: KI-Medizinkultur, da kann man ja einen eigenen Podcast drüber machen.
00:35:31: Ja, aber tatsächlich genau, also auf der einen Seite will man Effizienz, auf der anderen Seite braucht man diese Lernerfahrung, weil wir gerade schon rausgearbeitet haben, diese Expertise ist das, was uns gerade ganz stark abhebt.
00:35:45: und wenn man die Expertise nicht mehr erlangen kann, dadurch, dass man einfach schon frühzeitig kognitive Prozesse auslagert.
00:35:55: Und gar nicht mehr Dinge so richtig Intus lernen kann, wie jetzt früher.
00:35:59: Dann kann es schon schwierig sein.
00:36:01: Ich meine, da denkt glaube ich jeder so ein bisschen an die Taschenrechnerregel früher in der Schule, dass man gesagt hat, okay, Taschenrechner gibt es aber ab der und der Klasse.
00:36:10: Sehr gutes Beispiel.
00:36:11: Der Taschenrechner ist ein super Vergleich, weil es auch zeigt, dass es nicht KI eigentlich das Thema ist, sondern Technik.
00:36:18: Und an sich, dass wir Fähigkeiten abgeben, ist ja völlig in Ordnung.
00:36:20: Dass wir nicht mehr so gut körperlich untersuchen können wie früher, weil wir einfach jetzt tolle Ölschweingeräte haben, ist schon okay.
00:36:25: Die Medizin ist euch nicht schlechter geworden.
00:36:27: Naja, besser.
00:36:28: Aber trotzdem sind wir natürlich auch technisch abhängig.
00:36:30: Aber jetzt mal gucken.
00:36:32: Und was auch wichtig ist immer natürlich der Vergleich mit dem Status quo.
00:36:35: Ist ja nicht so, dass bislang die Medizin perfekt war und jetzt wird sie durch die KI schlechter, sondern ist ja eher so, die Medizin hat den Anspruch an Perfektion.
00:36:43: Da kommt sie aber eigentlich überhaupt nicht ran, weil wir schaffen es gar nicht, das ganze Wissen ständig zu verarbeiten.
00:36:49: Dann könnte man unterbrochen, bei ein paar Meter rumhängen und dann auch noch die Evidenz bewerten und Patienten natürlich auch noch versorgen, damit man auch die Erfahrung sammelt.
00:36:55: Also es geht ja nicht.
00:36:57: Weder hinter dem Wissen noch hinter dem Daten, die Patienten produzieren oder die wir diagnostisch rauskriegen können, kommen wir hinterher.
00:37:04: finanzielle personelle Ressourcen, auch im Sinne von weiterführender Diagnostik und Therapie, medizine suboptimal, genauso wie übrigens auch der Straßenverkehr suboptimal ist und vielleicht besser wäre mit selbstfahrenden Autos, trotzdem lassen wir selbstfahrende Autos nicht zu, weil sie hat ab und zu mal Fehler machen, auch wenn Menschen viel mehr Fehler machen.
00:37:20: Und auch da brauchen wir natürlich eine Gesamtgesellschaft, die Diskussion, die glaube ich auch jetzt, ich glaube, die geht gerade los schon.
00:37:28: Trotzdem wollen wir eigentlich in der Medizin diesen Anspruch an Perfektion halten und ich denke auch, dass ist das richtige Ziel.
00:37:35: Super.
00:37:36: Als du das letzte Mal so eine Art Fazit gezogen hast in unserer letzten Folge, was du Chefärztin und Chefärztin empfiehlst, hattest du damals gesagt, es geht darum, KI ready zu werden, so bisschen schon die Daten zu strukturieren, damit man später dann KI-Tools gut ansetzen lassen kann.
00:37:57: Was wäre denn heute so ein bisschen nach den letzten zwölf Monaten für dich jetzt so die Haupthausaufgabe für Ärztinnen und Chefärzten?
00:38:07: Ist es eher so,
00:38:09: wie
00:38:10: kann ich KI gestalten, dass man trotzdem lernt und effizient ist oder ist es doch eher, wie werde ich KI ready?
00:38:18: Also ich glaube, dass das, was ich letzte Jahr gesagt habe, weiterhin relevant ist, weil KI trotzdem nicht alles ist.
00:38:25: Also die Strukturierung der Medizin und dazu gehört auch die Daten.
00:38:30: Das ist weiterhin wichtig.
00:38:32: So, nur ich brauche vernünftige Daten für alles Mögliche, nicht nur für Maschine des Lernen-KI, sondern auch um vernünftige Prozesse darauf abzubilden und so weiter.
00:38:41: Das heißt, es ist weiterhin, finde ich, die eine der ganz wichtigen Aufgaben jedes Krankenhauses, dass ich, wenn es noch nicht soweit ist, alles digitalisieren.
00:38:49: So.
00:38:50: denn nur mit digitalen Daten kann ich fünftig arbeiten.
00:38:52: Das ist nun mal die Basis.
00:38:54: Es gibt wunderbare Anwendungen, wo ich das gar nicht unbedingt für muss, weil ich halt quasi an dem Ansätze, was ich rede und am Ende kann ich sogar per Copy und Paste irgendwo rein rüber kopieren.
00:39:04: Das ist etwas, was man wunderbar ja auch, wo man wirklich sich jetzt beschäftigen kann.
00:39:08: Was gibt es dafür Anbieter, was sind die Systeme, dass ich gehe davon aus, dass wenn man einem Jahr, falls in einem Jahr widersprechen, dass dann es sich noch weiter verbreitet hat und überall KI quasi zuhört.
00:39:19: oder zumindest ist nicht für ihn überall, aber in sehr vielen Stellen.
00:39:23: Aber das eine entlastet uns nicht von dem anderen.
00:39:26: Also, wenn wir jetzt diese Möglichkeiten durch Sprachmodelle sehen, dann ist es, glaube ich, sehr wichtig, das, was wir tun können.
00:39:32: Wir müssen die Geräte kritisch beurteilen und wir müssen sie vernünftig in unsere medizinische Versorgungsprozesse so eingedannt, dass dabei weiterhin gute Medizin rauskommt.
00:39:41: Und dazu gehört schon eine gewisse Form der Ausbildungskai-Kultur und der medizinischen Praxis.
00:39:49: die das also sicherstellt, weil wir das nicht nur technisch lösen können, sondern da ist weiter in unsere Verantwortung gefragt, die ja sowieso in der Medizin immer gefragt ist, aber hier auch ganz wichtig ist.
00:39:59: Also diesen Verantwortungsteil können wir nicht auslagern.
00:40:02: Wir sollten gucken, was da geht und das auch gerne nutzen, aber müssen immer den Gesamtprozess im Auge halten.
00:40:07: Nicht nur die einzelne Aufgabe, wie dokumentiere ich, sondern auch, wie wird damit weitergearbeitet, was für Medizin kommt dabei raus und was bedeutet, dass wir nur so für die Gesamtbogen auch der Ausbildung und da gibt es halt noch nicht so viele Best Practices, insofern spannend, was sich da jetzt tut.
00:40:22: Super
00:40:22: Kai.
00:40:23: Ich
00:40:23: würde auch das jetzt schon als Abschlusssatz gelten lassen.
00:40:29: Ich bedank mich herzlich, dass du heute da warst, dass wir jetzt nochmal so ein bisschen rekapitulieren konnten, was in den letzten zwölf Monaten im Bereich KI sich entwickelt hat, wo wir da gerade stehen und was jetzt die Aufgaben sind.
00:40:42: Kai, herzlichen Dank.
00:40:44: Ich freu mich schon.
00:40:45: Wir sehen uns vermutlich nächsten Januar wieder.
00:40:47: Ja, wenn ich freu.
00:40:49: Auf den Gesundheitswirtschafts-Hörstück vielleicht.
00:40:50: Also ja, vielen Dank für das Interview und die guten Fragen.
00:40:53: Und wir sehen da ist noch viel, viel, was man diskutieren kann.
00:40:55: Ich wünsch dir was und an alle Kolleginnen und Kollegen.
00:40:58: Machen's es gut und bis zur nächsten Episode.
00:41:01: Tschüss.
00:41:01: Tschüss
00:41:02: auch von mir.
00:41:02: Sie wollen keine Folge verpassen?
00:41:08: Dann abonnieren Sie jetzt Level Up Klinikführung.
00:41:12: Weitere spannende Themen finden Sie auf cb.ivw.de, dem Online-Portal zum CB-Chefärztebrief.
Neuer Kommentar