-
Man muss CUDA nicht nutzen
Autor: AvailableLight 20.02.24 - 15:48
Sondern kann gerne alles von scratch selbst schreiben, was natürlich deutlich mehr Arbeit ist. Daher ist die Kritik nichts weiter als ein PR-Buschgeklopfe für seine eigene Firma. Interessant wäre jetzt noch gewesen, sein Framework und dessen Implementationsaufwand CUDA gegenüberzustellen. Würde vermutlich keinen Blumentopf gewinnen.
-
Re: Man muss CUDA nicht nutzen
Autor: yinyangkoi 20.02.24 - 21:14
Nein kann man eben nicht
-
Re: Man muss CUDA nicht nutzen
Autor: yinyangkoi 20.02.24 - 22:49
yinyangkoi schrieb:
--------------------------------------------------------------------------------
> Nein kann man eben nicht
Weil es nicht realistisch ist
1 mal bearbeitet, zuletzt am 20.02.24 22:52 durch yinyangkoi. -
Re: Man muss CUDA nicht nutzen
Autor: AvailableLight 21.02.24 - 20:03
yinyangkoi schrieb:
--------------------------------------------------------------------------------
> yinyangkoi schrieb:
> ---------------------------------------------------------------------------
> -----
> > Nein kann man eben nicht
>
> Weil es nicht realistisch ist
Ist schon klar, nur kann man sich dann im gleichen Atemzug eben auch nicht darüber beschweren wie grottig sumpfig CUDA wäre, wenn es den sota darstellt. In CUDA steckt so viel Arbeit, dass es für Nvidias Billionenbewertung maßgeblich mitverantwortlich ist, weil ausnahmslos alle Konkurrenten schlechter sind. Wenn dann ein potenzieller Konkurrent um die Ecke kommt und erzählt, was das für ein Sumpf ist, macht er sich einfach nur lächerlich. Das heisst natürlich nicht, dass man keine Kritik üben darf oder Verbesserungsvorschläge geben könnte. Nur stellt "Sumpf" keine dar, sondern eine Abwertung.



