1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Big Navi (RDNA2): Radeon RX 6900 XT…

Tja leider wohl bei dem GPU Compute hinter NVidia

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: nuclear 28.10.20 - 19:04

    AMD hat hier sicherlich sehr gute Karten zum Spielen vorgestellt. Leider hat NVidia mit der neuen Architektur die Latte zumindest in der reinen FP32 Rohperformance ein gutes Stück höher gelegen.

    Auch gibt es keine Informationen über den integrierten Encoder.

    Nun stehe ich von dem Dilemma. Entweder weniger Speicher (10GB bei der 3080) oder mehr Speicher aber langsamer und schlechtere Unterstützung bei der 6800XT. Ich hoffe AMD verbessert die Performance mit ROCm.

    Eine entsprechende Workstationkarte lohnt sich leider bei mir nicht, da es alles private Projekte sind die ich damit mache.

  2. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: ms (Golem.de) 28.10.20 - 19:06

    Welche schlechtere Unterstützung? Und was ist wo langsamer?

    Marc Sauter, Sr Editor
    Golem.de

  3. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: nuclear 28.10.20 - 19:12

    Die meisten Programme nutzen CUDA. Ins besondere im Deep leaning Bereich findet man ja eigentlich nur CUDA. OpenCL oder ROCm ist sehr selten.

    Und langsamer: die Radeon VII ist von der Rohleistung ähnlich einer 2080TI, sieht aber vor allem bei dem Training entsprechender Neuronaler Netze kein Land gegen diese.

    Ich hoffe das sich das nun geändert hat, aber die neue Struktur von NVidia ist einfach in diesem Bereich super.



    1 mal bearbeitet, zuletzt am 28.10.20 19:14 durch nuclear.

  4. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: ms (Golem.de) 28.10.20 - 19:14

    Ah, davon sprichst du.

    Marc Sauter, Sr Editor
    Golem.de

  5. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: booyakasha 28.10.20 - 19:50

    Es gibt doch 3080 partnerkarten mit 12GB GDDR6

  6. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: nuclear 28.10.20 - 19:57

    Wo das denn? Und vor allem wie? Das kann ja gar nicht funktionieren, da es ja noch kein GDDR6X mit entsprechend großen Bausteinen gibt.
    Die werden ja erst Q1/Q2 2021 erwartet.

    Die RTX3090 hat deswegen ja beidseitige Bestückung, da es eben nicht die Bausteine gibt.

  7. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Ach 28.10.20 - 20:00

    Geht mir im Prinzip genauso. Wenn du allerdings noch ein bisschen Geduld mitbringst? Denn während wir uns hier austauschen kocht schon wieder der nächste Bunch an Gerüchten auf. Ein weiteres mal über eine Ergänzung zur 3080, diesmal in Form eines => deutlich erweiterten TI-Ablegers. Zwar befürchte ich, dass speziell diese Karte mein Budget sprengen könnte, allerdings wird die dann den nötigen Freiraum schaffen für die schon öfters besprochene 3070Ti. Finde beide Ableger glaubhaft, weil sich beide genau mit dem nVidia Verhaltensmuster der vergangenen paar Jahre decken würden.

  8. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: nuclear 28.10.20 - 20:16

    Ich denke auch, dass eine 3080TI kommen wird. Die Frage ist nur wann. Die Gerüchte sagen ja auch das diese dann ebenfalls bei TSMC gefertigt werden. Vor Mitte Q2 würde ich aber nicht damit rechnen.

    Das Problem ist halt, dass man dann immer mehr warten kann. Wenn dann NVidia die angekündigt haben wird AMD auch wieder was neues in der Pipeline haben.

    Ggf hole ich mir echt einfach eine der Workstation Karten. Die Instinct sollen ja eine angepasste Architektur haben, nur etwas Spiele sollten darauf auch laufen.

  9. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Schattenwerk 28.10.20 - 20:16

    nuclear schrieb:
    --------------------------------------------------------------------------------
    > Die meisten Programme nutzen CUDA. Ins besondere im Deep leaning Bereich
    > findet man ja eigentlich nur CUDA. OpenCL oder ROCm ist sehr selten.

    Interessiert bei einer für Gaming beworbenen Grafikkarte wo genau?

    > Und langsamer: die Radeon VII ist von der Rohleistung ähnlich einer 2080TI,
    > sieht aber vor allem bei dem Training entsprechender Neuronaler Netze kein
    > Land gegen diese.

    Wer CUDA, KI etc. will, kauft halt nvidia. Und keine Gaming GPU.

  10. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Schattenwerk 28.10.20 - 20:18

    Das halte ich für ein Gerücht und bitte um Belege.

    Es gibt gar keine 3080 mit GDDR6, allenfalls GDDR6X und dann nicht mit 10 GB

  11. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: nuclear 28.10.20 - 20:30

    > Interessiert bei einer für Gaming beworbenen Grafikkarte wo
    > genau?
    Der Vorteil ist einfach, dass man die Karten so eben auch nicht nur für das Gaming nutzen kann. Viele Programme können durch die GPU beschleunigt werden. Wieso sollte man es also nicht tun? Nur weil da Gaming drauf steht?

    > Wer CUDA, KI etc. will, kauft halt nvidia. Und keine Gaming GPU.
    Aha und die NVidia GPU ist keine Gaming GPU? Es ist einfach ein Vorteil den NVidia zusätzlich zu der reinen Leistung bietet. Es ist ja kein entweder oder.

  12. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Ach 28.10.20 - 20:36

    Mitte Q2 wäre aber ganz schön übel, nicht nur für uns sondern ebenso für nVidia. Das würde mich jetzt aber auch sehr ratlos machen. Motto erst mal abwarten, ob das wirklich so kommt, und was mit der 3070 noch passieren wird. Die 3070 ist, untypisch für nVida, ja das absolute Schlusslicht der aktuellen Kartengeneration.

    Von der aktuellen Instinkt erwarte ich mir allerdings keine Wunder. Als ich gestern nach schaute waren das DirectCompute, OpenGL, OpenCL und Vulkan, also ganz normal(oder hab ich da was übersehen?), und die Instinct sind doch bestimmt äußerst kostspielig?

  13. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Schattenwerk 28.10.20 - 20:42

    nuclear schrieb:
    --------------------------------------------------------------------------------
    > > Interessiert bei einer für Gaming beworbenen Grafikkarte wo
    > > genau?
    > Der Vorteil ist einfach, dass man die Karten so eben auch nicht nur für das
    > Gaming nutzen kann. Viele Programme können durch die GPU beschleunigt
    > werden. Wieso sollte man es also nicht tun? Nur weil da Gaming drauf
    > steht?

    Wenn du mit einem Gaming-Produkt mehr machen kannst als beworben ist, dann ist das vielleicht schön, interessiert jedoch die eigentliche Zielgruppe nicht. Sicherlich ist das für einen Gamer mit KI-Hobby-Bestrebungen interessant seine Karte auf für KI zu nutzen.

    Jedoch sind 99,5% (geschätzt) der Gamer solche Funktionen egal. Und wieso soll dann ein Gamer mehr für eine Funktion zahlen, welche er nicht benötigt? Die AMD-Karten sind ja günstiger.

    Für professionelle Zwecke oder Forschung greift man eh nicht zu einer 3080, eher zur 3090 oder halt den Business-Modellen, da 10 GB RAM bei komplexen Modellen so oder so zu wenig sind. Spreche aus Erfahrung.

    > Aha und die NVidia GPU ist keine Gaming GPU? Es ist einfach ein Vorteil den
    > NVidia zusätzlich zu der reinen Leistung bietet. Es ist ja kein entweder
    > oder.

    Jo, wie oben geschrieben: Ein Feature, dass der Gamer i.d.R. nicht benötigt und daher zur günstigeren AMD greifen kann.

  14. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: theFiend 28.10.20 - 20:57

    Ach schrieb:
    --------------------------------------------------------------------------------
    > Mitte Q2 wäre aber ganz schön übel, nicht nur für uns sondern ebenso für
    > nVidia.

    Naja, wenn man überlegt das es mit hoher wahrscheinlichkeit überhaupt bis Q1 dauern wird bis sie die Lieferengpässe wirklich behoben haben, halte ich Q2 auch nicht für so unmöglich. Das was mit erhöhtem Speicher kommt, ist halt so sicher wie das Amen in der Kirche.
    Ist also kein aktueller Handlungsbedarf bei der Grafikkarte gegeben und es muss Nvidia sein, dann würd ich das halbe Jahr noch abwarten.

    > Die 3070 ist, untypisch für nVida, ja das absolute Schlusslicht der
    > aktuellen Kartengeneration.

    Kamen die darunter liegenden Varianten 1060 und 2060 nicht auch erst immer etwas später die letzten Jahre? Hab das jetzt nicht so genau verfolgt, aber ich glaub das war doch auch so?

  15. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Ach 28.10.20 - 21:24

    theFiend schrieb:
    --------------------------------------------------------------------------------

    > Naja, wenn man überlegt das es mit hoher wahrscheinlichkeit überhaupt bis
    > Q1 dauern wird bis sie die Lieferengpässe wirklich behoben haben, halte ich
    > Q2 auch nicht für so unmöglich. Das was mit erhöhtem Speicher kommt, ist
    > halt so sicher wie das Amen in der Kirche.
    > Ist also kein aktueller Handlungsbedarf bei der Grafikkarte gegeben und es
    > muss Nvidia sein, dann würd ich das halbe Jahr noch abwarten.

    Wollte eigentlich demnächst aufrüsten mit Schwerpunkt auf Compute Leistung. Da müsste sich dann so einiges verschieben.

    > Kamen die darunter liegenden Varianten 1060 und 2060 nicht auch erst immer
    > etwas später die letzten Jahre? Hab das jetzt nicht so genau verfolgt, aber
    > ich glaub das war doch auch so?

    Die XX60 kommen seit inzwischen über einer Dekade immer ein paar Monate bis zu einem halben Jahr später, schon klar :] . Mit untypisch meine ich, dass die 3070 dieses mal gegenüber auch der Konkurrenz das absolute Schlusslicht darstellt.

  16. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: TheNX 28.10.20 - 21:32

    Nvidia begrenzt künstlich die Compute-Leistung bei den neuen 30x0 Karten ganz massiv im Vergleich zur theoretisch möglichen Rohleistung. Es gibt entsprechende Benchmarks im Internet.

    AMD macht dies meines Wissens nach nicht.

    Von daher finde ich das bezgl. Compute-Leistung das alles nicht ganz so eindeutig.

  17. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: DASPRiD 28.10.20 - 21:36

    Schattenwerk schrieb:
    --------------------------------------------------------------------------------
    > Wenn du mit einem Gaming-Produkt mehr machen kannst als beworben ist, dann
    > ist das vielleicht schön, interessiert jedoch die eigentliche Zielgruppe
    > nicht. Sicherlich ist das für einen Gamer mit KI-Hobby-Bestrebungen
    > interessant seine Karte auf für KI zu nutzen.

    Also ich nutze natürlich meine GPU hauptsächlich zum Zocken, aber ich mache auch ab und zu was in Blender (OptiX) oder auch mal was in Unity. Unity's eigener Lightmapper ist recht Müll, also nimmt man Bakery. Dieser funktioniert aber nur mit NVIDIA-Karten.

    Also klar, für den reinen Consumer sind die AMD-Karten wohl ganz nett, keine Frage. Aber sobald man irgendwas in Richtung Content-Production macht, sind NVIDIA-Karten mehr oder weniger Pflicht.

  18. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: zilti 28.10.20 - 21:40

    DASPRiD schrieb:
    --------------------------------------------------------------------------------
    > Also ich nutze natürlich meine GPU hauptsächlich zum Zocken, aber ich mache
    > auch ab und zu was in Blender (OptiX) oder auch mal was in Unity. Unity's
    > eigener Lightmapper ist recht Müll, also nimmt man Bakery. Dieser
    > funktioniert aber nur mit NVIDIA-Karten.
    >
    > Also klar, für den reinen Consumer sind die AMD-Karten wohl ganz nett,
    > keine Frage. Aber sobald man irgendwas in Richtung Content-Production
    > macht, sind NVIDIA-Karten mehr oder weniger Pflicht.

    Und du unterstützt diesen proprietären Müll auch noch, gratuliere.

  19. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: gruffi 28.10.20 - 22:00

    Für Computing hat AMD eine andere Architektur, CDNA. Da wird man bald die erste Generation vorstellen.

  20. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: DASPRiD 28.10.20 - 22:09

    zilti schrieb:
    --------------------------------------------------------------------------------
    > Und du unterstützt diesen proprietären Müll auch noch, gratuliere.

    Und die Alternative ist? Unity Lightmapping, dass qualitativ schlechtere Ergebnisse liefert, und für's Lightmapping 2-3 Stunden braucht, statt Bakery, dass objektiv bessere Ergebnisse in unter einer Minute liefert?

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Chemische Fabrik Budenheim KG, Budenheim
  2. operational services GmbH & Co. KG, Frankfurt am Main, Berlin, Dresden, München
  3. ESWE Versorgungs AG, Wiesbaden
  4. TECE GmbH, Emsdetten

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. externe Festplatten und SSDs günstiger, Apple generalüberholt reduziert)
  2. 166,99€ (Bestpreis!)
  3. (u. a. Asus ROG Strix B450-F Gaming-Mainboard für 98,95€)
  4. 69,99€ (Bestpreis!)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Astronomie: Arecibo wird abgerissen
Astronomie
Arecibo wird abgerissen

Das weltberühmte Radioteleskop ist nicht mehr zu retten. Reparaturarbeiten wären lebensgefährlich.

  1. Astronomie Zweites Kabel von Arecibo-Radioteleskop kaputt
  2. Die Zukunft des Universums Wie alles endet
  3. Astronomie Gibt es Leben auf der Venus?

iPhone 12 Pro Max im Test: Das Display macht den Hauptunterschied
iPhone 12 Pro Max im Test
Das Display macht den Hauptunterschied

Das iPhone 12 Pro Max ist größer als das 12 Pro und hat eine etwas bessere Kamera - grundsätzlich liegen die beiden Topmodelle von Apple aber nah beieinander, wie unser Test zeigt. Käufer des iPhone 12 Pro müssen keine Angst haben, etwas zu verpassen.
Ein Test von Tobias Költzsch

  1. Touchscreen und Hörgeräte iOS 14.2.1 beseitigt iPhone-12-Fehler
  2. iPhone Magsafe ist nicht gleich Magsafe
  3. Displayprobleme Grünstich beim iPhone 12 aufgetaucht

Energy Robotics: Ein kopfloser Hund für 74.500 US-Dollar
Energy Robotics
Ein kopfloser Hund für 74.500 US-Dollar

Als eines der ersten deutschen Unternehmen setzt Energy Robotics den Roboterhund Spot ein. Sein Vorteil: Er ist vollautomatisch und langweilt sich nie.
Ein Bericht von Werner Pluta

  1. Kickstarter Nibble ist ein vierbeiniger Laufroboter im Mini-Format
  2. Boston Dynamics Roboterhunde scannen ein Werk von Ford
  3. Robotik Laborroboter forscht selbstständig