-
Tagesaktuelle Anekdote..
Autor: ersinet 16.03.23 - 19:02
Ich bin im Moment schwerer krank. Wochenlang habe ich auch mit Hilfe von ChatGPT aber auch Literatur nach möglichen Krankheiten gesucht, die es sein könnten weil ich noch auf einen Termin bei Spezialisten gewartet habe. Ich hatte am Ende knapp 50 Möglichkeiten bis ich dann den Termin bei einer sehr kompetenten Ärztin hatte. Nach einem kurzen Gespräch hatte sie schon einen Verdacht. Eine äußerst seltene Krankheit auf die ChatGPT nie gekommen wäre. Das Labor bestätigte dann ihre Vermutung. Kurz: Wenn die "KI" selbst bei 50 Versuchen falsch liegt und ein Mensch beim ersten Versuch trifft sehe ich ehrlich gesagt noch nicht den Untergang der Menschheit
-
Re: Tagesaktuelle Anekdote..
Autor: KlugKacka 16.03.23 - 19:08
Verdammt viele verlassen sich aber zu sehr auf die Technik, siehe Navigation oder wo die ganze Meute rumheult weil ChatGPT das nicht kann.
Es ist einfach nur ein Chatpartner, mehr nicht. Verdammt gut, aber nicht mehr. -
Re: Tagesaktuelle Anekdote..
Autor: ersinet 16.03.23 - 19:17
Die Leute verlassen sich drauf weil man ihnen erzählt wie toll die KI ist. Erst kürzlich bei LANZ gehört , dass Ärzte schon bald in Dilemmas geraten werden. An meinem Beispiel sieht man , dass sich Ärzte nicht einen Hauch von Sorgen machen müssen.
-
Re: Tagesaktuelle Anekdote..
Autor: 3dgamer 16.03.23 - 20:17
Das Beispiel ist Quatsch. KI lebt von Mustererkennung....hier gar nicht zur Anwendung gekommen. Hört sich nebenbei total konstruiert an.
-
Re: Tagesaktuelle Anekdote..
Autor: Petra Minaler 17.03.23 - 10:23
Das ist doch genau das Problem! Es reicht halt nicht, davon auszugehen, dass es immer ein bekanntes Muster gibt, das man "nur noch" finden muss. Es gibt viele Aufgabenstellungen, die sich wunderbar so lösen lassen (optische Qualitätskontrolle in der Produktion, Erkennung von abweichendem Verhalten in Datenströmen, ...), aber wenn es darum geht, mit Verstand an eine Aufgabe zu gehen, dann stößt man an eine Grenzen, da es sich bei den heutigen KIs um schwache KIs handelt, die eben kein Verständnis davon haben, welche Aufgabe sie lösen sollen, sondern am Ende halt "nur" mit Statistiken und Wahrscheinlichkeiten arbeiten.
-
Re: Tagesaktuelle Anekdote..
Autor: mnementh 17.03.23 - 10:32
ersinet schrieb:
--------------------------------------------------------------------------------
> Ich bin im Moment schwerer krank. Wochenlang habe ich auch mit Hilfe von
> ChatGPT aber auch Literatur nach möglichen Krankheiten gesucht, die es sein
> könnten weil ich noch auf einen Termin bei Spezialisten gewartet habe. Ich
> hatte am Ende knapp 50 Möglichkeiten bis ich dann den Termin bei einer sehr
> kompetenten Ärztin hatte. Nach einem kurzen Gespräch hatte sie schon einen
> Verdacht. Eine äußerst seltene Krankheit auf die ChatGPT nie gekommen wäre.
> Das Labor bestätigte dann ihre Vermutung. Kurz: Wenn die "KI" selbst bei 50
> Versuchen falsch liegt und ein Mensch beim ersten Versuch trifft sehe ich
> ehrlich gesagt noch nicht den Untergang der Menschheit
Arzt wäre auch das letzte, wo ich ein Einsatzgebiet für ein *Sprachmodell* sehe. Journalismus dagegen... ich sehe etwas wie ChatGPT durchaus in der Lage Deine Pressemitteilung oder die normalen 0815-Artikel über allen möglichen Kram zu generieren. -
Re: Tagesaktuelle Anekdote..
Autor: koelnerdom 17.03.23 - 11:51
Du hast einfach keinen Bock auf Journalisten, oder?
Dabei ist es da genauso wie bei jeder anderen Berufsgruppe: es gibt gute und es gibt schlechte ... -
Re: Tagesaktuelle Anekdote..
Autor: mnementh 17.03.23 - 13:03
koelnerdom schrieb:
--------------------------------------------------------------------------------
> Du hast einfach keinen Bock auf Journalisten, oder?
>
> Dabei ist es da genauso wie bei jeder anderen Berufsgruppe: es gibt gute
> und es gibt schlechte ...
Was heißt keinen Bock? Es ist nun einmal faktisch so, dass was die aktuellen Sprachmodelle können keine andere Berufsgruppe so gut abdeckt wie Journalisten. Wenn die KIs in selbstfahrenden Autos besser wird (und rechtliche Probleme gelöst werden) sind LKW-Fahrer und Taxifahrer betroffen. Wenn Copilot und Co. besser werden dann Programmierer. Wenn die Bildgenerierungs-KIs besser werden dann Zeichner. Und so weiter.
Aber worüber wir aktuell in 2023 diskutieren sind *Sprachmodelle*. Und was die können ist halt das was Journalisten die ganze Zeit machen. Außer Recherche wie Latour oder Wallraff, aber das machen eh die wenigsten Journalisten. -
Re: Tagesaktuelle Anekdote..
Autor: ersinet 17.03.23 - 18:26
*gelöscht*
1 mal bearbeitet, zuletzt am 17.03.23 18:28 durch ersinet. -
Re: Tagesaktuelle Anekdote..
Autor: ersinet 17.03.23 - 18:27
3dgamer schrieb:
--------------------------------------------------------------------------------
> Das Beispiel ist Quatsch. KI lebt von Mustererkennung....hier gar nicht zur
> Anwendung gekommen. Hört sich nebenbei total konstruiert an.
Wieso ist mein Beitrag "Quatsch" und konstruiert? Drück dich bitte präziser aus. Es ist eine wahrheitsgemäße Anekdote gewesen, nicht mehr und nicht weniger. Wenn meine Fragestellung an sich falsch war soll mir das ChatGPT sagen. Außerdem gab es wie gesagt gerade erst bei LANZ "Experten" wie Sasha Lobo die bereits mit ChatGPT4 ein Problem für Ärzte prophezeit haben. -
Re: Tagesaktuelle Anekdote..
Autor: linomas 17.03.23 - 19:46
Glückwunsch zu der guten Ärztin. Das Glück hat nicht jeder Patient.
Möglicherweise hätte es derzeit noch jemand gebraucht, der die KI mit besseren Daten füttert. Dazu benötigt es dann aber keinen Spitzenmediziner oder Spezialisten. Das kann auch der Hausarzt -
Re: Tagesaktuelle Anekdote..
Autor: guppytastisch 19.03.23 - 13:01
Wäre ChatGPT speziell mit medizinischen Daten gefüttert bis zum Anschlag, würde es mich nicht wundern, wenn es in vielen Fällen bessere Diagnosen machen würde. Auf dem jetzigen Versagen zu schließen, dass solche Systeme nix taugen, ist mMn irgendwie naiv.
-
Re: Tagesaktuelle Anekdote..
Autor: gadthrawn 20.03.23 - 12:22
ersinet schrieb:
--------------------------------------------------------------------------------
> Die Leute verlassen sich drauf weil man ihnen erzählt wie toll die KI ist.
> Erst kürzlich bei LANZ gehört , dass Ärzte schon bald in Dilemmas geraten
> werden. An meinem Beispiel sieht man , dass sich Ärzte nicht einen Hauch
> von Sorgen machen müssen.
Sei mal vorsichtig. es gibt echte medizinische Diagnostiksysteme - das ist ChatGPT aber eben genau nicht.
Gerade bei Tumorerkennung wird gerne Bilderkennung mit KI genutzt... -
Re: Tagesaktuelle Anekdote..
Autor: gadthrawn 20.03.23 - 12:29
mnementh schrieb:
------------------------
> Arzt wäre auch das letzte, wo ich ein Einsatzgebiet für ein *Sprachmodell*
> sehe.
Lustigerweise wird es gerade da schon lange und häufig verwendet.
Um z.B. Sprache logisch zu erkennen - solche Sachen wie Dragon Dictate machen das mittlerweile wegen der Rechenlast und Modellgröße online. Rein Sprache zu erkennen war zu oft Fehlerhaft, mit dem Kontext kommt noch ein funktionierender Satz raus, wenn es größtenteils falsch erkannt worden wäre.
Schön erkennt man das bei googles online Diktierfunktion die einen Satz ändert, je mehr sie glaubt zu erkennen. Dann wird ein falsches Wort aus dem Kontext korrigiert.
Ansonsten ist KI bei Bilderkennung oft mit dabei, bei der Visualisierung von Daten, -
Re: Tagesaktuelle Anekdote..
Autor: dy. 28.03.23 - 04:01
ersinet schrieb:
--------------------------------------------------------------------------------
> 3dgamer schrieb:
> ---------------------------------------------------------------------------
> -----
> > Das Beispiel ist Quatsch. KI lebt von Mustererkennung....hier gar nicht
> zur
> > Anwendung gekommen. Hört sich nebenbei total konstruiert an.
>
> Wieso ist mein Beitrag "Quatsch" und konstruiert? Drück dich bitte präziser
> aus. Es ist eine wahrheitsgemäße Anekdote gewesen, nicht mehr und nicht
> weniger. Wenn meine Fragestellung an sich falsch war soll mir das ChatGPT
> sagen. Außerdem gab es wie gesagt gerade erst bei LANZ "Experten" wie Sasha
> Lobo die bereits mit ChatGPT4 ein Problem für Ärzte prophezeit haben.
"Sasha Lobo bei Lanz" - Ja wie kann da denn bitte etwas anderes als lupenreines Faktenwissen von unseren Vorzeigeexperten kommen? Wer bei dieser Konstellation etwas anderes als absoluten Blödsinn erwartet, dem ist auch nicht mehr zu helfen. Der Lobo ist doch dafür bekannt furchtbar starke Meinungen basierend auf erschreckend wenig Faktenwissen zu verbreiten. Dies mal vorweg.
Wir benutzen hier (große Uniklinik) KI z.B. zum erkennen von Krebsstrukturen in Bildgebenden Verfahren, die mit bloßen Auge nicht erkennbar wären; zur Auswertung von Gewebsmaterial usw. - das ist eine riesen Chance in der Krebsvorsorge -u. Diagnostik. Auch Kollegen in anderen Bereichen forschen vermehrt mit ChatGPT. Momentan beschränkt sich der Anwendungsbereich allerdings eher auf spezielle Sonderfälle und kleine Teilbereiche - ein "Ersetzen" von Ärzten scheint nichtmal am Horizont erkennbar.
Aber ein paar Gedanken zur Thematik an sich:
Letztendlich ist Diagnostik auch nur Anamnese, eine anhand der Symptome statt findende Fokussuche und Ausschluss von Differentialdiagnosen. Die Arbeit von Ärzten ist so runtergebrochen auch nur ein abzuarbeitender Algorithmus. Aber der Algorithmus muss erstmal mit den richtigen Informationen gefüttert werden.
Wie Ihr Beispiel so schön zeigt hat der Patient oftmals kein Gefühl dafür, welche Symptome aus einem großen Symptomkomplex wichtig sind, wie diese in Zusammenhang zu bringen sind und wie schnell aus einen Grundverdacht nur anhand der richtig angeforderten Laborparameter / Bildgebenden Verfahren auch seltene Krankheiten ohne großes "Können" zweifelsfrei diagnostizierbar sind. Oder mit anderen Worten: Der Patient weiß überhaupt nicht, welche "Frage" er stellen soll und das Modell kann ja bitteschön nicht riechen, was sie _eigentlich_ sagen wollten. Fühle mich an Douglas Adams erinnert.
Es liegt nun an der Erfahrung und dem Wissen des Arztes, was er aus Ihren Symptomen macht um überhaupt auf die richtige Fragestellung zu kommen. Und meiner Meinung nach ist momentan noch die Anamnese durch einen Arzt nicht zu ersetzen, das ist ungleich mehr als ein bloßes Abfragen von Symptomen, das kann ein Eingabeprompt nicht ersetzen.
Therapeutisch ist es für den Arzt dann oftmals "einfach"; man nehme die Therapie, welche evidenzbasierend gerade on Vogue ist (Das heißt z.B. in der Onkologie die Therapie, welche den besten Mittelweg aus Lebensqualität und Überlebensrate geht), ändert diese ggf. anhand evtl. vorhandener Comorbiditäten ab und reagiert auf Komplikationen mit wiederum angepassten gängigen Maßnahmen. Das ist reines Faktenwissen und Abwägen, was dem Pat. zuzumuten ist.
Letzteres ist auch nicht durch eine Maschine zu ersetzen mMn.
Ich denke an einzelnen Punkten im Prozess kann K.I. eingreifen und wertvolle Zusammenhänge und Faktenwissen liefern, die ein Arzt leicht übersehen könnte. Das ist aber immer eine Bereicherung und ich sehe hier nicht das Problem für Ärzte.
Den enormen Einfluss, den menschlicher Kontakt, Empathie und eine Vertrauensperson und Ansprechpartner auf den Heilungsprozess hat kann eine KI eh nicht ersetzen, das hat ein Herr Lobo überhaupt nicht auf seinem Schirm.
Aber klar ist: Ihr Beispiel ist so schwammig formuliert und so anekdotisch, dass es mal so überhaupt gar keine Aussagekraft hat, anhand DESSEN zur Schlussfolgerung zu kommen, dass KI ja eh nix taugt zeugt nur von fehlendem Wissen.



