1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Big Navi (RDNA2): Radeon RX 6900 XT…
  6. Thema

Tja leider wohl bei dem GPU Compute hinter NVidia

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: brainDotExe 28.10.20 - 22:53

    AMD ist mit GCN jahrelang die Schiene gefahren. Eine Architektur für Gaming und Compute.
    Das hat die ersten zwei Generationen gut hingehauen, man war im Gaming Highend gleichauf mit Nvidia.
    Nur danach hat man gesehen, dass Nvidia durch eine reine Gaming Architektur enorme Vorteile hatte.

    Mit RDNA hat man sich dann entschlossen wieder eine separate Gamig Architektur zu haben. Vermutlich auf Wunsch von Microsoft/Sony.
    GCN wird als CDNA weiterentwickelt und stellt die Compute Architektur dar.



    1 mal bearbeitet, zuletzt am 28.10.20 23:00 durch brainDotExe.

  2. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: subjord 28.10.20 - 23:05

    brainDotExe schrieb:
    --------------------------------------------------------------------------------
    > AMD ist mit GCN jahrelang die Schiene gefahren. Eine Architektur für Gaming
    > und Compute.
    > Das hat die ersten zwei Generationen gut hingehauen, man war im Gaming
    > Highend gleichauf mit Nvidia.
    > Nur danach hat man gesehen, dass Nvidia durch eine reine Gaming Architektur
    > enorme Vorteile hatte.
    >
    > Mit RDNA hat man sich dann entschlossen wieder eine separate Gamig
    > Architektur zu haben. Vermutlich auf Wunsch von Microsoft/Sony.
    > GCN wird als CDNA weiterentwickelt und stellt die Compute Architektur dar.

    Ich würde für Berechnungen auch die Normalen Grafikkarten von Nvidia nehmen. Was für eine andere Architektur meinst du? Die Quattros? Ich weiß nicht ob die sich so richtig lohnen. Die haben tendentiell ein deutlich schlechteres Preis Leistungsverhältnis (gerade im Bereich KI haben sie sogar trotz des höheren Preises eine schlechtere Leistung).

  3. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: brainDotExe 28.10.20 - 23:43

    subjord schrieb:
    --------------------------------------------------------------------------------
    > Was für eine andere Architektur meinst du? Die Quattros? Ich weiß
    > nicht ob die sich so richtig lohnen. Die haben tendentiell ein deutlich
    > schlechteres Preis Leistungsverhältnis (gerade im Bereich KI haben sie
    > sogar trotz des höheren Preises eine schlechtere Leistung).
    Mit Pascal/Turing (Gaming) und Volta (Compute) ist NVidia eine Zeit lang zweigleisig gefahren.



    1 mal bearbeitet, zuletzt am 28.10.20 23:44 durch brainDotExe.

  4. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Gucky 29.10.20 - 06:51

    AMD und Nvidia....
    Ich will mal ein paar Dinge aufzeigen:
    AMD hat nur Spiele-FPS gezeigt.
    AMD hat KEINE Raytracing Performance gezeigt.
    Desweiteren hat AMD nur FPS mit einem auf die AMD GPU abgestimmtes System gezeigt (Smart Memory)

    Wer ohne ein komplettes AMD System inklusive Ryzen 5000 ähnliche Werte erwartet der irrt.
    Nvidia ist immernoch besser in Raytracing.
    Außerdem hat Nvidia DLSS, vorallem in Raytracing Titeln, welches den FPS Loss von Raytracing aufhebt. AMD hat sowas nicht und wird in Raytracing nicht so gut darstehen.
    AMD RIS ist nicht das gleiche wie DLSS...
    Für 1080p und 1440p sind 8GB bzw 10GB RAM ausreichend, für 4k würde auch 10GB ausreichen, ist aber möglicherweise nicht komplett Future proof. Die 16GB von AMD wären da besser.
    Die 3090 von Nvidia ist VIEL zu teuer...

    Nvidia hielt sich noch ein wenig zurück und hat auf AMD gewartet...mal sehen wie die Antwort ist.
    AMD könnte möglicherweise auch eine gut gebinnte 6900XTX als Gegen-Antwort haben.

    Fazit:
    Da ich ein Fan von Raytracing bin, tendiere ich zu Nvidia.
    Leute die auf Raytracing verzichten können, rate ich eher zu AMD. XD

    P.S. Aktuell bin ich aus auf 1080p 60-120fps mit Raytracing. Aber auch ein Limit von 800¤.
    Ich versuche immernoch eine 3080 FE zu bekommen, würde aber auch eine 3070 FE nehmen.

  5. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Trollversteher 29.10.20 - 07:43

    >Und du unterstützt diesen proprietären Müll auch noch, gratuliere.

    Sorry, aber das ist die Art von völlig unprofessioneller Einstellung, die ich an manch einem OpenSource Enthusiasten so sehr kritisiere.
    Arbeitswerkzeug ist Arbeitswerkzeug, und Ideologie hat da nix zu suchen - ist ja nicht so, dass NVidia Regenwälder abholzt oder kleine Kinder in Sklavenarbeit schuften lässt, oder andere moralische Vergehen begeht, die einen Boykott möglicherweise rechtfertigen könnten.

    Wenn es um Arbeitswerkzeug geht, dann zählt nur das beste Werkzeug für die Aufgabe die vor einem liegt. Wenn ich die Wahl habe, einen Makita oder einen 6,95¤ Noname-Baumarkt Akkubohrer bei einem Heimwerker-Projekt zu benutzen, dann nutze ich den Makita Akkubohrer, Punkt. Egal ob die möglicherweise Patente halten, die deren Konkurrenz davon abhalten die gleiche Technik in ihre Geräte einzubauen, solange die Firma sich nicht wirklich irgenwelcher schweren Menschrechtsverletzungen oder Umweltverschmutzungen schuldig macht, wähle ich das Werkzeug das für den Job am besten geeignet ist, und nicht nach irgendwelchen ideologischen oder fanboyesquen Vorstellungen.

  6. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: brainDotExe 29.10.20 - 08:15

    Gucky schrieb:
    --------------------------------------------------------------------------------
    > AMD und Nvidia....
    > Ich will mal ein paar Dinge aufzeigen:
    > AMD hat nur Spiele-FPS gezeigt.
    Darauf kommt es unterm Strich an.

    > AMD hat KEINE Raytracing Performance gezeigt.
    Wird wahrscheinlich daran liegen, dass man dort nicht an Ampere rankommt. Wird wahrscheinlich etwas über Turin Niveau liegen.

    > Desweiteren hat AMD nur FPS mit einem auf die AMD GPU abgestimmtes System
    > gezeigt (Smart Memory)
    Nicht bei der RX 6800 XT.

    > Nvidia ist immernoch besser in Raytracing.
    > Außerdem hat Nvidia DLSS, vorallem in Raytracing Titeln, welches den FPS
    > Loss von Raytracing aufhebt.
    Es sind beides keine Killer Features welche für eine große Kundenbasis interessant sind. Sieht man daran, wie wenige Spiele es unterstützen.

    > AMD hat sowas nicht und wird in Raytracing
    > nicht so gut darstehen.
    > AMD RIS ist nicht das gleiche wie DLSS...
    AMD arbeitet an "Super Resolution", welches der Gegenpart dazu sein soll.

    > Fazit:
    > Da ich ein Fan von Raytracing bin, tendiere ich zu Nvidia.
    > Leute die auf Raytracing verzichten können, rate ich eher zu AMD. XD
    Ich will hauptsächlich viele FPS in 1080p. Raytracing da wo es sinnvoll und möglich ist. Werde trotzdem AMD kaufen, da ich die Ideologie von Nvidia nicht gutheißen kann.

    Wird wahrscheinlich eine RX 6800 oder RX 6800 XT werden.

  7. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Dampfplauderer 29.10.20 - 08:25

    Gucky schrieb:
    --------------------------------------------------------------------------------
    > Außerdem hat Nvidia DLSS, vorallem in Raytracing Titeln, welches den FPS
    > Loss von Raytracing aufhebt.

    Ah ja, Raytracing damit es besser aussieht, und dann DLSS drüberknallen damit es wieder schlechter aussieht. Genialer Schachzug.

  8. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: theFiend 29.10.20 - 08:54

    Ach schrieb:
    --------------------------------------------------------------------------------

    > Wollte eigentlich demnächst aufrüsten mit Schwerpunkt auf Compute Leistung.
    > Da müsste sich dann so einiges verschieben.

    Geht mir sehr ähnlich muss ich sagen. Und ich hatte hart auf die 3070 spekuliert. Sollte AMD aber wirklich leisten was sie versprechen, müsste ich mir da nochmal intensiver gedanken machen.
    Der Ryzen5000 kommt eh in´s Haus, und dann muss ich irgendwann abwägen von welcher Technologie ich potentiell am meisten hab. Bisher hab ich eben auch die beruflichen Prozesse wie KI gestützte Bildskalierung und Videobearbeitung von der GPU unterstützen lassen können. Muss mir jetzt überhaupt mal anschauen, ob die beiden Programme da irgendeinen AMD Support haben...

  9. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: bionade24 29.10.20 - 09:40

    zilti schrieb:
    --------------------------------------------------------------------------------
    > Und du unterstützt diesen proprietären Müll auch noch, gratuliere.

    Toll, damit hast du nicht nur Müll erzählt sondern halt deine volle Oberflächlichkeit präsentiert. Auch AMD hat das proprietäre AMDGPU pro, was du dir dann als frickeliges Kernel-Modul unter Linux installieren darfst. Außerdem hat AMD einfach leider noch nicht ganz vollumpfänglich aufgeholt, besonders bei Profi-SW und mit ROCm. Dort ist Nvidia halt einfach die Alternative, die mir selbst unter Linux weniger Frickelei bereitet. Und mit dem Smart Memory Access sieht man ja auch, wo es hin geht wenn sie mehr Marketshare haben. Proprietären Blödsinn pushen, damit man sich festankert, anstatt mal ihrer gruseligen auch unter der Haube stabil zu bekommen.
    Zumindest unter Linux, für Windows kann ich nicht sagen, sind die Intel GPUs immer noch die einzigen die einem Ideal entsprechen.

  10. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: dEEkAy 29.10.20 - 09:49

    Dann ist die Antwort doch aber klar.
    Zum Spielen ne AMD, für AI Zeugs die NVidia.
    Außer du spielst und brauchst das AI Zeug, dann natürlich NVidia.

    Ich denke mal die breite Masse wird zur AMD Karte greifen. Ist natürlich alles abhängig vom eigentlichen Launch, der Verfügbarkeit und was NVidia bis dahin so auf die Kette kriegt.

  11. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: schueppi 29.10.20 - 09:53

    Vermutlich kommt eben die TI mit mehr Speicher. Darum der "kleine" 10GB Speicher bei der 3080...

  12. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: schueppi 29.10.20 - 10:01

    Vermutlich AliExpress oder Wish... ^^

  13. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: Ach 29.10.20 - 10:05

    theFiend schrieb:
    --------------------------------------------------------------------------------

    > Geht mir sehr ähnlich muss ich sagen. Und ich hatte hart auf die 3070
    > spekuliert. Sollte AMD aber wirklich leisten was sie versprechen, müsste
    > ich mir da nochmal intensiver gedanken machen.
    > Der Ryzen5000 kommt eh in´s Haus, und dann muss ich irgendwann abwägen
    > von welcher Technologie ich potentiell am meisten hab. Bisher hab ich eben
    > auch die beruflichen Prozesse wie KI gestützte Bildskalierung und
    > Videobearbeitung von der GPU unterstützen lassen können. Muss mir jetzt
    > überhaupt mal anschauen, ob die beiden Programme da irgendeinen AMD Support
    > haben...

    Die Woche müsste bereits das neue 570er Board, das ordentliche Netzteil und das Gehäuse eintreffen, als Teile eines ganz nett werdenden Projektchen :]. Dagegen sieht es bei meinem Lieblingsrenderer schon mal so aus, dass in dessen jüngster Ausführung der OpenCL Support raus geflogen ist. Zusätzlich zur vorhandenen CUDA ist statt dessen eine native Unterstützung der RTX Cores hinzugekommen. So gut wie alle GPU Renderer unterstützen CUDA, einige OpenCL, wenige Vulkan und immer mehr nVidia RTX.

    Mit dem KI Support kenne ich mich nicht aus, aber bei den Adobe(Streaming-) Geschichten sieht die Situation schon mal viel besser aus für AMD. Ich denke, das hängt mit der Apple Plattform zusammen, die nVida Karten ja nicht mehr unterstützt. Ist in Jedem Fall aber ein Spießrutenlauf, wenn man verschiedene Programme mit einer AMD Karte Compute- beschleunigen will. Noch ist das so, denn mit dem sich abzeichnendem Leistungssprung werden die AMD Karten für den Profi Bereich wieder viel attraktiver. Insbesondere dieser direkter Speicherzugriff der 5000er CPUs samt den damit verbundenen Verbesserungen im Performance- und Ansprechverhalten klingt schon ganz schön verlockend.

  14. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: KaiGra 29.10.20 - 10:07

    DLSS muss nicht für schlechter aussehen sorgen. Es ist zwar hochgerechnet aber anhand mehrerer Bilder. Die Qualität ist schon nice. Ich hatte kurzzeitig eine RTX 3080 und das DLSS hat das Bild nicht verschlechtert, eher gleich oder Subjektiv auch mal Besser

  15. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: nuclear 29.10.20 - 10:15

    Im KI Bereich ist AMD eine halbe Katastrophe. Der Support mittels ROCm ist eher schlecht als recht. Die Karten können ihre Rohleistung nicht ausspielen, etc. AMD tut da zwar was, die beiden größten Bibliotheken werden unterstützt, aber immer noch nicht direkt. Man muss immer noch entsprechende Build verwenden, während NVidia ohne irgendwas zu tun direkt arbeitet.

    Ich hoffe auf AMD, alleine um die Nutzerzahl in dem Bereich zu vergrößern würde ich ja die Karten kaufen, aber die dürfen dann nicht extrem viel langsamer sein.

  16. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: nuclear 29.10.20 - 10:16

    Ja ich muss sagen von dem Smart-Memory bin ich auch enttäuscht. Klar will AMD den Vorteil nutzen, dass sie CPU und GPU liefern können, aber ich hätte echt offene Standards erwartet.
    Na ja sind halt ne AG und müssen Geld machen, war also alles zu erwarten.



    1 mal bearbeitet, zuletzt am 29.10.20 10:17 durch nuclear.

  17. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: HammerTime 29.10.20 - 10:38

    Dampfplauderer schrieb:
    --------------------------------------------------------------------------------
    > Ah ja, Raytracing damit es besser aussieht, und dann DLSS drüberknallen
    > damit es wieder schlechter aussieht. Genialer Schachzug.
    DLSS2.0 hat vergleichbare Qualität zu nativ gerendert.

  18. [gelöscht]

    Autor: [gelöscht] 29.10.20 - 10:40

    [gelöscht]



    3 mal bearbeitet, zuletzt am 29.10.20 10:47 durch burzum.

  19. Eher nicht

    Autor: yumiko 29.10.20 - 12:06

    nuclear schrieb:
    --------------------------------------------------------------------------------
    > Ich denke auch, dass eine 3080TI kommen wird. Die Frage ist nur wann. Die
    > Gerüchte sagen ja auch das diese dann ebenfalls bei TSMC gefertigt werden.
    > Vor Mitte Q2 würde ich aber nicht damit rechnen.
    Zwischenkarten wie die Super gibt es in der Regel als refresh nach einem Jahr, wenn die neue Generation 2 Jahre braucht. Eine komplett andere Fertigung bei TMSC wird ein neues Chipdesign und Boarddesign vorraussetzen. Das kostet Zeit und muss irgendwie wieder reinkommen - daher die teuren High End Karten, um die Entwicklungskosten der Serie wieder einzuspielen.
    Erheblich wahrscheinlicher ist, dass Nvidia - wie auch bei Intel gesehen - einen total überzüchteten Heitzprügel für 2000¤ rausbringt, um offiziell wieder die schnellste GraKa zu haben.

    > Ggf hole ich mir echt einfach eine der Workstation Karten. Die Instinct
    > sollen ja eine angepasste Architektur haben, nur etwas Spiele sollten
    > darauf auch laufen.
    Die Radeon VII pro (Ladenpreis knapp 2000¤) ist letztlich die Profi-Version der VII.
    Bei den anderen "dicken" Karten gibt es irgendwie keine (leicht zu findenden) Gaming Benchmarks.

  20. Re: Tja leider wohl bei dem GPU Compute hinter NVidia

    Autor: 1611 29.10.20 - 12:25

    nuclear schrieb:
    --------------------------------------------------------------------------------
    > Die meisten Programme nutzen CUDA. Ins besondere im Deep leaning Bereich
    > findet man ja eigentlich nur CUDA. OpenCL oder ROCm ist sehr selten.
    >

    Naja Tensorflow und pyTorch sind doch auf ROCm geportet. Was fehlt dir denn da im ML bereich ? ROCm ist halt ziemlich jung und ist noch nicht wirklich fertig.

    > Und langsamer: die Radeon VII ist von der Rohleistung ähnlich einer 2080TI,
    > sieht aber vor allem bei dem Training entsprechender Neuronaler Netze kein
    > Land gegen diese.
    >

    Sorry aber das ist falsch. Meine Radeon VII mit rocm schafft für FP32 auf
    ResNet50 : 275 Bilder / s
    ResNet152: 108 Bilder / s

    Dagegen die 2080 TI ( von lambdalabs ):
    ResNet50: 294 Bilder / s
    ResNet152: 110 Bilder / s

    Also ziemlich weit weg von sieht kein Land. Die Tensorcores beschleunigen halt FP16, aber das benutzt niemand fürs Training. Wichtiger - jedenfalls für mich - sind die 16GB, die 1:4 FP64 und die Bandwidth. Muss dazu aber sagen, dass ich vom wissenschaftlichen Rechnen ( FP64 ! ) komme und eigentlich kein ML mache.

    > Ich hoffe das sich das nun geändert hat, aber die neue Struktur von NVidia
    > ist einfach in diesem Bereich super.

    Technisch ist der Ansatz von AMD halt viel moderner. LLVM + Clang frontend hat langfristig einige Vorteile, wie Feature-completeness die Nvidia alleine garantiert nicht leisten kann. Ich muss sagen, dass AMD mit ROCm ziemlich spät dran ist aber meiner Meinung nach den technisch wesentlich besseren Ansatz hat.

    Würde mich über einen separaten GPGPU-Artikel von Golem übrigens sehr freuen, in Deutsch habe ich da auch bisher kaum was gefunden.

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Stadt Erlangen, Erlangen
  2. Interhyp Gruppe, München
  3. Leading Systems GmbH, Köln, Sachsenheim
  4. ekom21 - KGRZ Hessen, Darmstadt, Kassel, Gießen

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. (u. a. XCOM 2 Collection für 16,99€, Bioshock: The Collection für 11,99€, Mafia 3: The...
  2. 9,99€
  3. 7,99€
  4. (u. a. Elite Dangerous für 5,99€, Struggling für 7,25€, Planet Zoo für 21,99€, Planet...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Antivirus: Das Jahr der unsicheren Sicherheitssoftware
Antivirus
Das Jahr der unsicheren Sicherheitssoftware

Antivirus-Software soll uns eigentlich schützen, doch das vergangene Jahr hat erneut gezeigt: Statt Schutz gibt es Sicherheitsprobleme frei Haus.
Von Moritz Tremmel

  1. NortonLifeLock Norton kauft deutschen Antivirenhersteller Avira

Blackwidow V3 im Test: Razers Tastaturklassiker mit dem Ping
Blackwidow V3 im Test
Razers Tastaturklassiker mit dem Ping

Die neue Version der Blackwidow mit Razers eigenen Klickschaltern ist eine grundsolide Tastatur mit tollen Keycaps - der metallische Nachhall der Switches ist allerdings gewöhnungsbedürftig.
Ein Test von Tobias Költzsch

  1. Gaming-Notebook Razer Blade 15 mit Geforce RTX 3080 und gestecktem RAM
  2. Project Brooklyn Razer zeigt skurrilen Gaming-Stuhl mit ausrollbarem OLED
  3. Razer Book 13 im Test Razer wird erwachsen

Sprachsteuerung mit Apple Music im Test: Es funktioniert zu selten gut
Sprachsteuerung mit Apple Music im Test
Es funktioniert zu selten gut

Eigentlich sollen smarte Lautsprecher den Musikkonsum auf Zuruf besonders bequem machen. Aber die Realität sieht ganz anders aus.
Ein Test von Ingo Pakalski

  1. Streaming Apple Music kommt auf Google-Lautsprecher
  2. Internetradio Apple kündigt Apple Music 1 an und bringt zwei neue Sender