Quelle des Nachdrucks des Artikels: AI DreamWorks
Originalquelle: Qubits
Bildquelle: Erstellt von Unbounded AI
Nachdem ich drei Jahre lang an einer „seltsamen Krankheit“ gelitten hatte und erfolglos eine medizinische Behandlung in Anspruch genommen hatte, wurde diese schließlich von ChatGPT erfolgreich diagnostiziert!
Dies ist eine echte Erfahrung, die einem 4-jährigen Jungen widerfahren ist.
Nach einer bestimmten Übung verspürte er starke Schmerzen im Körper. Ihre Mutter ging mit ihr zu 17 Ärzten, von der Pädiatrie über die Orthopädie bis hin zu verschiedenen Fachärzten. Sie unterzog sich auch einer Reihe von Untersuchungen wie einer MRT, aber niemand konnte die Ursache wirklich finden.
Seine Mutter versuchte ohne große Hoffnungen, Hilfe bei ChatGPT zu suchen, doch dieser gab auf der Grundlage der Beschreibung und des Inspektionsberichts direkt den richtigen Rat.
Sobald das Thema aufkam, stand es ganz oben auf der Zhihu-Hotlist und auch die Popularität auf Reddit stieg auf 2,3.000.
Einige Internetnutzer sagten, dass GPT dieses Mal wirklich aufregend sei:
Jede Arztpraxis könnte mit einem KI-Assistenten ausgestattet werden und diesen mit den eigenen Diagnosen abgleichen.
Einige Internetnutzer wenden sich auch an Googles speziell trainiertes medizinisches Diagnosehilfsmodell Med-PaLM und möchten dessen Diagnoseergebnisse erfahren:
Dies ist eine nahezu perfekte Testaufgabe für große Modelle.
Also, was genau ist los?
Was ist das für eine „seltsame Krankheit“?
Der Protagonist der Geschichte heißt Alex und seine Mutter Courtney hat zwei Kinder.
Eines Tages im Jahr 2020 sagte Alex‘ Kindermädchen zu Courtney, dass Alex jeden Tag Schmerzmittel nehmen müsse, sonst würde er vor Schmerzen zusammenbrechen.
Dann begann Alex mit den Zähnen zu knirschen und seine Eltern brachten beides miteinander in Verbindung, da sie dachten, es könnten Schmerzen durch den Zahnersatz oder Karies sein.
Also brachte seine Mutter Alex zum Zahnarzt und Alex‘ dreijährige Suche nach einem Zahnarzt begann offiziell.
Der Zahnarzt stellte nach der Untersuchung keine Probleme fest, empfahl ihnen jedoch, einen Kieferorthopäden aufzusuchen, der auf die Behandlung von Atemwegsobstruktionen spezialisiert ist, da Alex mit den Zähnen knirschte.
Der Kieferorthopäde stellte fest, dass Alex‘ Oberkiefer zu klein war und dadurch Atembeschwerden verursachte, und setzte Alex daher einen Expander ein. Diese Behandlung war tatsächlich wirksam und seine Mutter dachte einmal, dass Alex‘ Krankheit bald geheilt sein würde.
Es macht Sinn, aber die Realität ist oft unlogisch.
Die Mutter stellte bald fest, dass der erst vierjährige Alex plötzlich aufgehört hatte zu wachsen.
Diesmal suchte die Mutter Hilfe bei einem Kinderarzt.
Der Arzt vermutete, dass Alex möglicherweise vom neuen Coronavirus befallen war, doch seine Mutter war mit dieser Erklärung nicht zufrieden. Dennoch brachte die Mutter Alex Anfang 2021 zu einer Nachuntersuchung.
Der Arzt teilte seiner Mutter mit, dass Alex „ein wenig größer geworden“ sei, stellte jedoch fest, dass Alex‘ linker und rechter Fuß ein wenig ungleichgewichtig waren, und empfahl ihnen, sich für eine Physiotherapie zu entscheiden.
Diesmal glaubte die Mutter dem Arzt, doch bevor die Physiotherapie beginnen konnte, bekam Alex erneut Kopfschmerzen, die immer schlimmer wurden.
Die Physiotherapie musste vorerst unterbrochen werden und Alex‘ Mutter ging mit ihm zu einem Neurologen, der feststellte, dass Alex an Migräne litt.
Alex kämpfte nicht nur mit Kopfschmerzen, sondern litt auch unter Erschöpfungssymptomen. Deshalb wurde er zu einem HNO-Arzt gebracht, um zu prüfen, ob eine Nebenhöhlenentzündung seinen Schlaf beeinträchtigte.
Nach all dem begann Alex schließlich mit der Physiotherapie und sein Physiotherapeut glaubte, dass Alex möglicherweise an einer angeborenen Krankheit namens Chiari-Malformation leide.
Diese angeborene Störung verursacht Anomalien im Gehirn, wo der Schädel auf die Wirbelsäule trifft.
Die Mutter begann, das Problem zu untersuchen und ging mit Alex zu einem neuen Kinderarzt, einem Kinderinternisten, einem Internisten für Erwachsene und einem Muskel-Skelett-Arzt.
Am Ende hatte Alex nicht weniger als 17 Ärzte aufgesucht und war in fast jeder Abteilung, die ihm einfiel. Er wurde sogar in die Notaufnahme gebracht, aber sie konnten immer noch nicht herausfinden, was mit ihm los war.
Bis ChatGPT dem ganzen Vorfall eine 180-Grad-Wende gab.
Mit der Absicht, es auszuprobieren, registrierte meine Mutter ein ChatGPT-Konto.
Sie trug Alex‘ Symptome und die Notizen aus dem MRT-Bericht ein, darunter auch die Einzelheit, dass Alex nicht im Schneidersitz sitzen konnte.
ChatGPT stellte die Diagnose: Tethered-Cord-Syndrom (TCS).
Natürlich glaubte Courtney es nicht sofort. Nachdem sie die Antwort erhalten hatte, fand sie zunächst auf Facebook eine Kommunikationsgruppe für Eltern erkrankter Kinder.
Nach der Lektüre der Diskussion war die Mutter der Meinung, dass diese Symptome denen von Alex sehr ähnlich seien.
Diese Entdeckung entfachte das fast erloschene Feuer der Hoffnung neu. Die Mutter erinnerte sich im Nachhinein, dass sie eine ganze Nacht vor dem Computer gesessen und alles erlebt habe.
Aufgrund dieser Schlussfolgerung und Alex‘ MRT-Bericht fand ich einen Neurochirurgen.
Dieses Mal haben wir endlich die richtige Person gefunden. Der Neurochirurg warf einen Blick auf das MRT, kam zu demselben Schluss wie ChatGPT und wies auf die genaue Stelle der Verankerung hin.
Danach lief alles reibungsloser. Alex wurde operiert und erholt sich derzeit.
Warum bekam Alex also erst beim 18. Arzt endlich eine Diagnose?
Zunächst einmal hat es etwas mit Alex selbst zu tun.
Bei Menschen mit TCS kommt es häufig zu einem Riss im Rücken, bei Alex war dies jedoch nicht der Fall. Es handelt sich um eine Erkrankung, die als okkultes Tethered-Cord-Syndrom (OTCS) bezeichnet wird.
Obwohl TCS eine seltene Krankheit ist, ist die Inzidenzrate bei Neugeborenen nicht niedrig und liegt bei etwa 0,005 bis 0,025 %, was höher ist als die Inzidenzrate von Leukämie.
△Chen Yingge, Mi Yang. Ein Fall von mehreren fetalen Entwicklungsstörungen während der Schwangerschaft[J]. Fortschritte in der klinischen Medizin, 2023, 13(2)
Doch OTCS ist viel seltener – so selten, dass seine Häufigkeit noch nicht einmal berechnet wurde.
Doch am Ende der Geschichte fällte der Chirurg nach Sichtung der MRT-Bilder schnell ein Urteil.
Der Grund, warum die Diagnose nicht früher bestätigt wurde, könnte darin liegen, dass der falsche Arzt konsultiert wurde: Von den 17 Ärzten war keiner in der Chirurgie tätig.
Das ist natürlich normal. Schließlich handelt es sich um Fachärzte, die sich in ihrem jeweiligen Fachgebiet gut auskennen (entsprechend den Allgemeinmedizinern), und es ist unvermeidlich, dass ihnen ein umfassendes Verständnis von Wissen außerhalb ihres Fachgebiets fehlt.
Doch dadurch wurde auch ein Problem aufgedeckt. Angesichts unerklärlicher Probleme zogen diese Ärzte eine interdisziplinäre Konsultation nicht in Erwägung und es ist nicht bekannt, ob sie sich umfassend nach Alex‘ Krankengeschichte erkundigt hatten.
In den Worten von Mutter Courtney war niemand bereit, die „größeren Fragen“ zu beantworten und niemand wollte Hinweise zur Diagnose geben.
Die Wissensdatenbank von ChatGPT ist zumindest viel umfangreicher als die von Fachleuten auf bestimmten Gebieten. Es betrachtet Alex‘ Situation umfassender und kommt schließlich zum richtigen Schluss.
War die erfolgreiche Diagnose von ChatGPT dieses Mal also nur ein Zufall oder verfügt es tatsächlich über die erforderliche Diagnosefähigkeit?
Kann KI zur Diagnose eingesetzt werden?
Tatsächlich ist es nicht das erste Mal, dass jemand ChatGPT oder GPT-4 als Tool zur Krankheitsdiagnose verwendet hat.
Kurz nach der Veröffentlichung von GPT-4 konnte beispielsweise jemand damit einen Fall bei seinem eigenen Hund erfolgreich diagnostizieren, und dieses Erlebnis wurde online zu einem heißen Thema.
Er berichtete GPT-4 über die Symptome des Hundes seit dem ersten Ausbruch der Krankheit, den Behandlungsverlauf und jeden Bluttestbericht:
Am 20. hatte der Hund hohes Fieber von 41,5 Grad Celsius. Der Arzt diagnostizierte aufgrund der Bluttestergebnisse (Bluttestergebnisse beigefügt) eine Babesiose bei Hunden. Er wurde die nächsten drei Tage mit Antibiotika behandelt. Am 24. wurde er mit Antibiotika behandelt, aber sein Zahnfleisch wurde blass (neue Bluttestergebnisse beigefügt).
GPT-4 gab schnell das Erkennungsergebnis bekannt und gab im Gespräch an, dass dies die folgenden zwei Gründe haben könnte:
1. Hämolyse: Zerstörung der roten Blutkörperchen aus verschiedenen Gründen, wie z. B. immunvermittelte hämolytische Anämie (IMHA), Toxine oder andere Infektionen als Babesiose. 2. Blutverlust: Innere oder äußere Blutungen, die durch ein Trauma, eine Operation oder Magen-Darm-Probleme (wie Geschwüre oder Parasiten) verursacht werden können.
Die endgültige Diagnose des Arztes zeigte, dass der Hund tatsächlich an immunvermittelter hämolytischer Anämie (IMHA) litt und nach der Einnahme der richtigen Medikamente gerettet werden konnte.
Darüber hinaus haben einige Internetnutzer ihre Erfahrungen mit der Rettung durch ChatGPT (GPT-4) beschrieben.
Nach dem Besuch im Fitnessstudio hatte er überall Muskelkater. Nachdem er GPT-4 zu seinen Symptomen befragt hatte, erhielt er die Antwort „Rhabdomyolyse“. Er ging sofort ins Krankenhaus und rettete sein Leben.
Einige wissenschaftliche Untersuchungen haben jedoch auch darauf hingewiesen, dass weder ChatGPT noch GPT-4 ein absolut zuverlässiger KI-Arzt sind.
Eine in JAMA veröffentlichte Studie des Brigham and Women's Hospital (BWH), einem Partnerkrankenhaus der Harvard University, zeigte beispielsweise, dass ChatGPT bei der Abgabe von Empfehlungen zur Krebsbehandlung nur in 62 % der Fälle völlig richtig lag.
In den übrigen Fällen enthielten 34 % der Empfehlungen mindestens eine oder mehrere Antworten, die nicht mit der richtigen Diagnose übereinstimmten, und in 2 % der Fälle wurde eine unplausible Diagnose gestellt.
In diesem Zusammenhang geht die Studie davon aus, dass die Diagnose nicht vollständig an ChatGPT oder GPT-4 übergeben werden kann. Schließlich können sie sich im Diagnoseprozess noch immer nicht mit professionellen Ärzten messen.
(Einige Internetnutzer wiesen jedoch darauf hin, dass der Grund, warum ChatGPT keine erfolgreiche Diagnose stellen konnte, möglicherweise auch mit den Trainingsdaten zusammenhängt und Behandlungsinformationen nach 2021 nicht enthalten sind.)
In diesem Zusammenhang ist Andrew Beam, Assistenzprofessor für Epidemiologie an der Harvard University, der Ansicht, dass die Auswirkungen von ChatGPT und GPT-4 aus zwei Blickwinkeln betrachtet werden sollten:
Einerseits sind sie besser als manche gewöhnliche Diagnosesoftware oder Google-Suchmaschine, insbesondere die GPT-4-Version. Andererseits ist es unwahrscheinlich, dass sie derzeit Kliniker mit entsprechender Fachkompetenz ersetzen können. Denn bei KI ist es durchaus möglich, dass sie Informationen fälscht, wenn sie die Antwort nicht findet, und aufgrund von „Halluzinationen“ zu falschen Ergebnissen gelangt.
Jesse M. Ehrenfeld, Präsident der American Medical Association (AMA), sagte, dass die letztendliche Verantwortung immer noch beim Arzt liege, auch wenn KI die Ergebnisse diagnostizieren könne.
Um die oben genannten Punkte zusammenzufassen: Jeder kann KI zur Unterstützung bei der Diagnose von Krankheiten nutzen, was besser ist als Suchmaschinen, aber letztendlich muss man immer noch ins Krankenhaus gehen und einen Arzt aufsuchen, um eine bestätigte Diagnose zu erhalten.
Wenn Sie also vorhaben, ein großes Modell zu verwenden, um „einen Arzt zu fragen“, welches große Modell ist das beste?
Einige Internetnutzer nutzten sich selbst als Fallbeispiele, um zu testen, ob verschiedene große Sprachmodelle über Diagnosefunktionen verfügen, und glaubten schließlich, dass GPT-4 kompetenter sei:
Ich habe mehrere Ärzte wegen der Ursache meines chronischen Hustens konsultiert, aber schließlich über einen YouTube-Kanal erfahren, dass ich an LPR (latenter laryngopharyngealer Reflux) leide. Ich habe das große Modell in meinem eigenen Fall getestet und GPT-4 war das einzige, das eine erfolgreiche Diagnose stellte. Obwohl Claude 2 der Antwort nahe war, war er nicht in der Lage, eine vollständige eigenständige Diagnose zu stellen.
Haben Sie schon einmal versucht, KI zur Diagnose Ihres Zustands zu nutzen? Wie empfinden Sie die Wirkung?
Verwandter Artikel: [1]https://www.today.com/health/mom-chatgpt-diagnosis-pain-rcna101843[2]https://www.reddit.com/r/ChatGPT/comments/16gfrwp/a_boy_saw_17_doctors_over_3_years_for_chronic/[3]https://news.harvard.edu/gazette/story/2023/08/need-cancer-treatment-advice-forget-chatgpt/

