-
ChatGPT (GPT-4) hat das Problem mit Halluzinationen ganz gut im Griff
Autor: Samon 19.02.24 - 16:10
Meiner Erfahrung nach, halluziniert die (kostenpflichtige) ChatGPT-Variante nur noch selten und sagt ehrlich, wenn sie etwas nicht weiß oder gibt dann unspezifische, aber immerhin korrekte Antworten. Zu Halluzinationen kommt es aber ab- und zu auch hier noch. Aber das Verhältnis hat sich im Laufe der Zeit doch deutlich verbessert.
-
Re: ChatGPT (GPT-4) hat das Problem mit Halluzinationen ganz gut im Griff
Autor: Z101 19.02.24 - 19:38
Samon schrieb:
--------------------------------------------------------------------------------
> Meiner Erfahrung nach, halluziniert die (kostenpflichtige) ChatGPT-Variante
> nur noch selten und sagt ehrlich, wenn sie etwas nicht weiß oder gibt dann
> unspezifische, aber immerhin korrekte Antworten. Zu Halluzinationen kommt
> es aber ab- und zu auch hier noch. Aber das Verhältnis hat sich im Laufe
> der Zeit doch deutlich verbessert.
Macht keinen grossen Unterschied ob nun 30% oder 80% der Antworten halluziniert sind. Man kann den Ergebnissen halt nicht trauen und muss sowieso selber nachforschen. -
Re: ChatGPT (GPT-4) hat das Problem mit Halluzinationen ganz gut im Griff
Autor: Samon 19.02.24 - 21:15
Nein, es sind vielleicht noch 5% der Antworten halluziniert.



