Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Turing-Grafikkarte: Nvidia stellt…

Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: motzerator 21.08.18 - 06:26

    Soweit ich das verstanden habe, ist für das Raytracing ja eine dedizierte Einheit zuständig, die auch einiges an Chipfläche verbraucht und die bisher von kaum einem Spiel unterstützt wird.

    Wäre diese Chipfläche nicht mit normalen Shader Rechenwerken für die meisten Gamer besser genutzt worden, für die große Mehrheit der Spiele?

    Ist AMD derzeit so schwach, das man deren Konkurrenz nicht fürchten muss?

  2. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Neutrinoseuche 21.08.18 - 06:34

    Zumindest in der Leistungsaufnahme zieht nVidia mit diesen Grafikkarten mit AMD gleich. AMD braucht sich also nicht schämen, wenn die nächste Generation wieder 250W oder mehr verballert.

  3. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Hotohori 21.08.18 - 06:48

    Wenn AMD dabei aber nicht das gleiche leistet, dann darf sich AMD ruhig weiter schämen.

  4. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Knarz 21.08.18 - 07:20

    Wenn AMD dafür nur die Hälfte verlangt, nicht.

  5. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Hotohori 21.08.18 - 07:24

    Knarz schrieb:
    --------------------------------------------------------------------------------
    > Wenn AMD dafür nur die Hälfte verlangt, nicht.

    Klar, das ist natürlich ein Ersatz für HighEnd Karten...

  6. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Chris0706 21.08.18 - 09:06

    Gut wäre für AMD wenn sie bei Rasterizing bleiben und dort die gleiche/mehr Leistung als die RTX bieten könnten. Dann könnten sie endlich mal wieder gleich ziehen und die Chancen wären besser als bisher, da Nvidia den Platz für Raytracing "verschwendet".

  7. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: plastikschaufel 21.08.18 - 09:25

    Na ja, wie oft kaufe ich eine neue Grafikkarte?

    Ich finde es beim Spielen ziemlich frustrierend, wenn es dann mal nicht funktioniert. Da kauf ich lieber für mehr Geld was vernünftiges, wo ich auch weiß, dass es die gewünschte Leistung bringt.

    Wenn es keine ernstzunehmende Konkurrenz gibt, wird es wohl immer Nvidia bleiben.

  8. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: John2k 21.08.18 - 09:27

    motzerator schrieb:
    --------------------------------------------------------------------------------
    > Soweit ich das verstanden habe, ist für das Raytracing ja eine dedizierte
    > Einheit zuständig, die auch einiges an Chipfläche verbraucht und die bisher
    > von kaum einem Spiel unterstützt wird.

    Wie kommst du drauf? Vermutlich werden es alle zukünftigen Spiele unterstützen. Ein beliebtes Spiel ist ja schon mit an Board Battlefield 5. Es soll doch sogar in Direct X integriert werden, soadass es nicht viel schwerer als der Rest zu implementieren sein wird.

    Auch würde es mich nicht wundern, wenn die neuen Konsolen die irgendwann kommen auch Raytracing setzen würden.

  9. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: John2k 21.08.18 - 09:32

    Chris0706 schrieb:
    --------------------------------------------------------------------------------
    > Gut wäre für AMD wenn sie bei Rasterizing bleiben und dort die gleiche/mehr
    > Leistung als die RTX bieten könnten. Dann könnten sie endlich mal wieder
    > gleich ziehen und die Chancen wären besser als bisher, da Nvidia den Platz
    > für Raytracing "verschwendet".


    Der Zug ist abgefahren. Wer bei neueren Karten nicht auf Raytracing setzen wird, wird aussortiert. Realistische Beleuchtung ist notwendig. Bei aktuelleren Games sieht die Beleuchtung zwar shcon recht gut aus, aber da ist noch viel Potenzial nach oben. So wirklich natürlich wirkt es nicht immer.

  10. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: KlausKoe 21.08.18 - 09:43

    kt



    1 mal bearbeitet, zuletzt am 21.08.18 09:46 durch KlausKoe.

  11. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Jamster 21.08.18 - 10:13

    Chris0706 schrieb:
    --------------------------------------------------------------------------------
    > Gut wäre für AMD wenn sie bei Rasterizing bleiben und dort die gleiche/mehr
    > Leistung als die RTX bieten könnten. Dann könnten sie endlich mal wieder
    > gleich ziehen und die Chancen wären besser als bisher, da Nvidia den Platz
    > für Raytracing "verschwendet".

    Die RTX Technik ersetzt kein rasterizing, sie unterstützt sie.

    Um zu verdeutlichen: Reflektionen, vor allem detailgetreue mit grossem Blickwinkel und Distanz, sind bisher extrem performancefressend.
    Die meissten Spiele verwenden viele Tricks, mal mehr oder weniger subtil, um Pseudoreflektionen oder vereinfachte Reflektionen darzustellen.
    Ältere Games hatten hinter Dingen wie kleinen Badzimmerspiegeln einen kompletten zweiten Raum in dem eine Kopie der Spielfigur und Objekte war.

    Heutzutage kann man per Stencil Buffer quasi eine zweite Kamera aufsetzen die das Bild für die Reflektion aus einem anderen Winkel rendert, aber hierbei wird auch meisst entweder eine einfachere Auflösung, weniger details, kürzere Blickdistanz etc. genutzt. Meisst wird genau überlegt, *wo* man etwas detailliertere Reflektionen einbindet; Zum beispiel im inneren von Gebäuden, wo es kleine Räume oder wenig Objekte zum spiegeln gibt.
    Oder es wird auf vorgerenderte Cubemaps gesetzt die anhand des Levels ohne dynamische Objekte vorgeneriert werden - dies genügt bei vielen elementen um den Anschein von Reflektionen zu erzeugen, vor allem Fenstern.
    Eine etwas dynamischere aber grobe Methode der Reflektion, vor allem benutzt in Dingen wie einer Pfütze oder poliertem Boden, ist 'Screen Space Reflections'. Hierbei wird aber quasi einfach per Pixel Shader die Pixel von Objekten horizontal gespiegelt z.b. nach unten über die Pfütze gelegt - es ist ein Filter der im nachhienein über das Bild läuft und es kann niemals damit reflektiert werden, was nicht bereits auf dem Bildschirm als Pixel existiert. Z.b. die Vorderseite einer Person, die den Rücken gekehrt hat,

    Es wird bei Reflektionen bisher extrem getrickst und vorsichtig dosiert.

    RTX (und wie auch immer es hoffentlich bei AMD heissen wird), ist..ein grösserer Schritt als viele wahrnehmen, wenn es denn hält was es verspricht. Dediziert Hardwareunterstützte berechnung von akkuraten Reflektionen, vor allem von Dingen die nicht im Sichtfeld sind, könnte potenziell so ein wichtiger Schritt in der Spielegrafik werden wie damals die Hardwareunterstützung von Shadern (Übrigends auch zuerst von nVidia). In diesem Punkt - auch wenn der CEO immer rüberkommt als würde er Heisskleber schnüffeln - könnte am Keynote Hype was dran sein.

    Daß das ganze bereits in neue neue Versionen von DirectX 12, der Unreal 4 Engine sowie in Zukunft der Vulkan API integriert wird macht hoffnung, daß in ein paar Jahren viele detaillierte, akkurate Reflektionen zum Grafikalltag werden.



    10 mal bearbeitet, zuletzt am 21.08.18 10:32 durch Jamster.

  12. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: abufrejoval 21.08.18 - 10:19

    motzerator schrieb:
    --------------------------------------------------------------------------------
    > Soweit ich das verstanden habe, ist für das Raytracing ja eine dedizierte
    > Einheit zuständig, die auch einiges an Chipfläche verbraucht und die bisher
    > von kaum einem Spiel unterstützt wird.
    >
    > Wäre diese Chipfläche nicht mit normalen Shader Rechenwerken für die
    > meisten Gamer besser genutzt worden, für die große Mehrheit der Spiele?
    >
    > Ist AMD derzeit so schwach, das man deren Konkurrenz nicht fürchten muss?

    Ja es ist mutig: They are betting the company!

    Aber dann ist dieser Mut auch die Erkenntnis, daß Mangel an Mut hier sonst zum Untergang führen könnte, denn es gibt ja jetzt neben AMD eben auch noch Intel, die nach dem Larrabee-Knights Landing Disaster reichlich Geld und Talent zusammenziehen, um einen Endkampf gegen Nvidia und AMD auszutragen.

    AMD braucht mehr Strom, mehr Transistoren und den teureren HBM Speicher für die gleiche Spieleleistung und muß deswegen deutlich billiger verkaufen: Im Ergebnis fehlt das Geld für die Forschung und Entwicklung neuer Produktfelder. Nvidia hat dieses Geld und erfreulicherweise investieren sie es auch, statt einfach Jachten oder Fußballer dafür zu kaufen.

    Nvidia versucht sich an der Neudefinition dessen was eine GPU ist, zum einen weil im traditionellen Umfeld immer weniger zu holen ist (4k oder gar 8k sind als Nischen zu klein), zum anderen weil sich das Feld der Konkurrenten in Kürze mit Intel verdoppeln wird.

    AMD hat mit Mantle und HSA gezeigt, wie bedrohlich so ein Alleinstellungsmerkmal sein kann und wenn Nvidia jetzt mit ihrer Featurekombination mit der Umdeutung von "GPU" durchkommen, haben es AMD und Intel deutlich schwieriger: Man müßte jetzt wissen mit wie vielen Patenten Nvidia der Konkurrenz die Nachahmung vermient hat, mal abgesehen davon, daß hier die reine Geschwindigkeit erst mal einen großen Vorteil verschafft.

    Ab jetzt wird jeder Gamer GPU Käufer fragen: "Kann die auch Raytracing?", egal ob es praktische Relevanz hat. Gleichzeitig geht es Nvidia möglicherweise nicht allein um die Gamer, sondern um Content-Creation: Wenn all die personalized soaps mit einer GPU statt mit CPU Renderfarmen produziert werden können, fällt der CPU Konkurrenz ein weiteres wichtiges Standbein weg.

    Es geht hier um weit mehr als Technik, es geht um Psychologie und Marktdominanz.

    Aber ja, sie sind mutig und wie man bei Larrabee sehen konnte, schützt Mut nicht vor dem Scheitern. Die wichtigere Frage wäre also: Sind sie zu übermütig oder hätten sie noch eine Schippe drauflegen sollen?

    Und das entscheidet nicht die Technik allein, denn hier spielen zu viele andere Faktoren eine Rolle. Die GPU Welt würde ohne das Mining sicher gänzlich anders aussehen und gleichzeitig war das viel zu kurz, um bei der Entwicklung der Technik eine große Rolle zu spielen. Für die Entwicklung des Marktes hingegen, war es ggf. ein "weltverändernder" Impuls, AMD stünde heute viel schlechter da, wenn ihre überdurchschnittliche Compute-Power nicht wenigstens dort auch zu einem Mehrwert geführt hätte.

    Und wenn die Raytracing und NN-Power der Turings nicht genutzt werden sollte, weil der Markt es nicht nachfragt, wird aus diesem Asset vielleicht eine "Larrabeeability".

  13. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Clown 21.08.18 - 11:40

    Jamster schrieb:
    --------------------------------------------------------------------------------
    > Die RTX Technik ersetzt kein rasterizing, sie unterstützt sie.
    >
    > Um zu verdeutlichen: Reflektionen, vor allem detailgetreue mit grossem
    > Blickwinkel und Distanz, sind bisher extrem performancefressend.
    > Die meissten Spiele verwenden viele Tricks, mal mehr oder weniger subtil,
    > um Pseudoreflektionen oder vereinfachte Reflektionen darzustellen.
    > Ältere Games hatten hinter Dingen wie kleinen Badzimmerspiegeln einen
    > kompletten zweiten Raum in dem eine Kopie der Spielfigur und Objekte war.
    >
    > Heutzutage kann man per Stencil Buffer quasi eine zweite Kamera aufsetzen
    > die das Bild für die Reflektion aus einem anderen Winkel rendert, aber
    > hierbei wird auch meisst entweder eine einfachere Auflösung, weniger
    > details, kürzere Blickdistanz etc. genutzt. Meisst wird genau überlegt,
    > *wo* man etwas detailliertere Reflektionen einbindet; Zum beispiel im
    > inneren von Gebäuden, wo es kleine Räume oder wenig Objekte zum spiegeln
    > gibt.
    > Oder es wird auf vorgerenderte Cubemaps gesetzt die anhand des Levels ohne
    > dynamische Objekte vorgeneriert werden - dies genügt bei vielen elementen
    > um den Anschein von Reflektionen zu erzeugen, vor allem Fenstern.
    > Eine etwas dynamischere aber grobe Methode der Reflektion, vor allem
    > benutzt in Dingen wie einer Pfütze oder poliertem Boden, ist 'Screen Space
    > Reflections'. Hierbei wird aber quasi einfach per Pixel Shader die Pixel
    > von Objekten horizontal gespiegelt z.b. nach unten über die Pfütze gelegt -
    > es ist ein Filter der im nachhienein über das Bild läuft und es kann
    > niemals damit reflektiert werden, was nicht bereits auf dem Bildschirm als
    > Pixel existiert. Z.b. die Vorderseite einer Person, die den Rücken gekehrt
    > hat,
    >
    > Es wird bei Reflektionen bisher extrem getrickst und vorsichtig dosiert.
    >
    > RTX (und wie auch immer es hoffentlich bei AMD heissen wird), ist..ein
    > grösserer Schritt als viele wahrnehmen, wenn es denn hält was es
    > verspricht. Dediziert Hardwareunterstützte berechnung von akkuraten
    > Reflektionen, vor allem von Dingen die nicht im Sichtfeld sind, könnte
    > potenziell so ein wichtiger Schritt in der Spielegrafik werden wie damals
    > die Hardwareunterstützung von Shadern (Übrigends auch zuerst von nVidia).

    Gute Zusammenfassung!

    > In diesem Punkt - auch wenn der CEO immer rüberkommt als würde er
    > Heisskleber schnüffeln - könnte am Keynote Hype was dran sein.

    Hehe, scheint eine Eigenart von CEOs zu sein.. Bisher mE nur getoppt von Steve Ballmer :D

    > Daß das ganze bereits in neue neue Versionen von DirectX 12, der Unreal 4
    > Engine sowie in Zukunft der Vulkan API integriert wird macht hoffnung, daß
    > in ein paar Jahren viele detaillierte, akkurate Reflektionen zum
    > Grafikalltag werden.

    Jop, Global Illumination, ich freu mich auf dich :P

    "Verfallen wir nicht in den Fehler, bei jedem Andersmeinenden entweder an seinem Verstand oder an seinem guten Willen zu zweifeln" - Otto von Bismarck

  14. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Chris0706 21.08.18 - 12:17

    Nein mir ist schon sehr klar was NVIDIA da vorgestellt hat und es ist an sich auch wirklich was bahnbrechend Neues. Ich bin mal auf ausführlichere Benchmarks gespannt.. denn ich kann mir trotzdem nicht vorstellen, dass das Raytracing im Moment so viel Ressourcen im Rasterizing spart, dass es ein wirkliches Leistungsplus ist. Aber warten wir ab..

  15. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Chris0706 21.08.18 - 13:55

    Um das nochmal etwas mehr zu hinter fragen.. ist euch bei der BF5 Demo eigentlich nicht aufgefallen wie schlecht die eigentliche Explosion oder die Flammen aus dem Panzer aussahen? Ich denke das es dort einfach zu große Performanceeinbußen gab und man deswegen die eigentliche Qualtität des Ursprungeffekts runtergedreht hat (Feuer) und nur die Reflexionen schön darstellen wollte? Wenn das wirklich das "Balancing" der Performance sein sollte (und nicht nur für die besser Veranschaulichung der Reflexion so gewählt wurde) verzichte ICH SEHR GERNE auf Raytracing :X Ich schau mir im Spiel die eigentliche Explosion/Feuer an und nicht das Fenster links vom Gebäude.

  16. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: Yash 21.08.18 - 18:09

    Jamster schrieb:
    --------------------------------------------------------------------------------
    > Die RTX Technik ersetzt kein rasterizing, sie unterstützt sie.
    >
    > Um zu verdeutlichen: ...

    Schöne Erklärung, danke dafür.

  17. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: motzerator 21.08.18 - 19:46

    Jamster schrieb:
    ---------------------------
    > Daß das ganze bereits in neue neue Versionen von DirectX 12, der Unreal 4
    > Engine sowie in Zukunft der Vulkan API integriert wird macht hoffnung, daß
    > in ein paar Jahren viele detaillierte, akkurate Reflektionen zum
    > Grafikalltag werden.

    Erst mal herzlichen Dank für deine ausführliche Antwort.

    Eine Frage stellt sich mir aber noch: Wie dominant sind solche Effekte, wenn es um die eigentliche Spielerfahrung geht? Dies ist eine eher rhetorische Frage!

    Was ich damit meine:

    Wenn man 1000 Gamer nimmt und die in einem Spiel einen 30 Minuten Level erleben lässt, 500 davon ohne RTX und 500 mit RTX bei ansonsten gleicher Grafikleistung und diese hinterher bittet, genau zu schildern, was sie erlebt und was ihnen alles aufgefallen ist, was glaubst Du wie viele von den 500 positiven Samples (die Vergleichsgruppe mit RTX) die tolle Spiegelung und Reflexion erwähnen würden und wie viele eher andere Details aus den Levels sehen würden?

    Das ist nicht bös gemeint und auf lange Sicht wird es auf jeden Fall die Grafik von Spielen weiter verbessern. Aber für meinen Geschmack besteht hier auch die Gefahr, das man sich zu sehr mit Details verheddert.

    Am meisten stören mich in Spielen immer noch Ladezeiten, Popups und Ruckler und zumindest die letzten beiden Dinge fallen teilweise in das Gebiet der Grafik.

  18. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: motzerator 21.08.18 - 19:55

    abufrejoval schrieb:
    ---------------------------------

    Auch dir herzlichen Dank für die ausführliche Antwort!

    > Ab jetzt wird jeder Gamer GPU Käufer fragen: "Kann die auch
    > Raytracing?", egal ob es praktische Relevanz hat.

    Was würde passieren, wenn AMD sich ganz bewusst gegen Raytracing entscheidet und mit einer Hardware kontert, die dafür etwas mehr Shaderleistung zu günstigeren Preisen bietet?

    Ein bisschen mehr herkömmliche Leistung zum geringeren Preis könnte da durchaus ein gutes Gegenargument sein und den Verzicht auf Raytracing für alle außer den absoluten Highend Fans sogar zum Motto werden lassen.

    Es könnte sogar passieren, das man NVIDIA fragen wird: Könnt ihr das nicht auch billiger ohne Raytracing, ich will doch nur spielen?

    Deswegen meinte ich ja, der Schritt ist sehr mutig. Ich persönlich wünsche ihnen viel Erfolg damit, in der Hoffnung, das es irgendwann auch im Mainstream ankommt, abseits der High End Grafikkarten. Zumindest auf der Softwareseite habe ich heute gelesen, das bereits über 20 Spiele bekannt sind, welche die Technik unterstützen werden.



    1 mal bearbeitet, zuletzt am 21.08.18 19:55 durch motzerator.

  19. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: abufrejoval 21.08.18 - 23:13

    motzerator schrieb:
    --------------------------------------------------------------------------------
    > abufrejoval schrieb:
    > ---------------------------------
    >
    > Auch dir herzlichen Dank für die ausführliche Antwort!
    >
    > > Ab jetzt wird jeder Gamer GPU Käufer fragen: "Kann die auch
    > > Raytracing?", egal ob es praktische Relevanz hat.
    >
    > Was würde passieren, wenn AMD sich ganz bewusst gegen Raytracing
    > entscheidet und mit einer Hardware kontert, die dafür etwas mehr
    > Shaderleistung zu günstigeren Preisen bietet?
    >
    > Ein bisschen mehr herkömmliche Leistung zum geringeren Preis könnte da
    > durchaus ein gutes Gegenargument sein und den Verzicht auf Raytracing für
    > alle außer den absoluten Highend Fans sogar zum Motto werden lassen.
    >
    > Es könnte sogar passieren, das man NVIDIA fragen wird: Könnt ihr das nicht
    > auch billiger ohne Raytracing, ich will doch nur spielen?
    >
    > Deswegen meinte ich ja, der Schritt ist sehr mutig. Ich persönlich wünsche
    > ihnen viel Erfolg damit, in der Hoffnung, das es irgendwann auch im
    > Mainstream ankommt, abseits der High End Grafikkarten. Zumindest auf der
    > Softwareseite habe ich heute gelesen, das bereits über 20 Spiele bekannt
    > sind, welche die Technik unterstützen werden.

    Tja, wenn es doch nur ein wenig einfacher wäre, die Zukunft vorherzusagen! :-)

    Eines scheint ziemlich sicher: Sie werden diese Entscheidung weitaus weniger aus dem hohlen Bauch getroffen haben, als ich (und viele andere) dies hier beantworte.

    AMD hat sich ja schon mal die Finger verbrannt. Sie haben sich bei den APUs hingestellt und behauptet, daß mehr Rechenleistung bei den CPUs nichts mehr bringt und statt dessen auf GPGPU also General Purpose Graphics Processing Units bzw. APUs gesetzt, wo in einem Adreßraum beliebig zwischen CPU und GPU Code hin- und hergewechselt werden kann, ohne deswegen eine Betriebssystemfunktion aufzurufen o.ä., einfach über einen Sprung oder Funktionsaufruf und mit Zeigern, welche für beide Sorten Code funktionieren. Das hätte eigentlich die Softwarewelt komplett umkrempeln sollen, man stelle sich einfach mal vor wie schnell z.B. Excel mit den 512 Kernen eines Kaveri rechnen könnte, tja, wenn man es denn mehr oder weniger komplett umgeschrieben hätte. Intel hat hingegen knallhart in IPC investiert, hat dabei durchaus auch übertrieben (Spectre!), aber das Rennen gewonnen, obwohl sie regelmäßig mehr als 50% der Chipfläche in Form einer iGPU verschenkt haben (eine Intel CPU mit oder ohne iGPU kostete bis auf ein paar $ das Gleiche). Intel hatte damals beschlossen, daß die von den 32nm, 22nm und 14nm Shrinks "geschenkten" Transistoren nicht sinnvollerweise in CPU-Kerne investiert werden sollten, weil kein Mensch und kein Excel etwas sinnvolles mit 8 Kernen im Notebook anfangen konnte: Statt dessen wurden sie dazu eingesetzt, um die Chipsätze und GPUs von Nvidia und ATI/AMD zu ersetzen und diese lästige Konkurrenz möglichst verhungern zu lassen.

    Genau hier hat AMD schließlich mit dem Ryzen den Spieß umgedreht und exakt diese von Intel verschenkte Chipfläche in Kerne umgewandelt, während die sich am 10nm Prozeß verschluckten. Bei den 8-Kernern mit iGPU auf 14+++nm muß Intel möglicherweise trotz der eigenen Fab mehr Geld in die Hand nehmen, als AMD ohne iGPU bei "10nm" für den Auftragsfertiger! Denn Intel bekam keinen einzigen Transistor mehr geschenkt, sondern mußte den Die entsprechend vergrößern, was eben weniger Geld je Wafer bedeutet. Ein Wirtschaftskrimmi, der mit Technik nur in einer Nebenrolle zu tun hat!

    So ganz hat AMD es mit ihren aktuellen CPUs/GPUs auch nicht lassen können und der Infinity Fabric ist genau dafür entworfen worden, die HSA weiter möglich zu halten und mit Epycs und AMD GPUs HPC (high performance computing) in einem richtig großen Rahmen machen zu können.

    Dagegen ist das was Nvidia mit CUDA gemacht hat, böse Flickschusterei aber sie haben halt Jahre früher damit angefangen, waren lange die einzigen und sie haben in Bibliotheken, Compiler und Werkzeuge investiert und damit praktisch alle HPC'ler auf ihren Flickenteppich gezogen. Von denen wird jetzt keiner mehr so einfach auf die viel orthogonalere Architektur von AMD umsteigen. Das ist wie mit den ersten 32-Bit CPUs von Motorola, National Semiconductor oder dem AMD 29k: Es nützt nichts prinzipiell besser zu sein als ein 80286, wenn der Zug abgefahren ist.

    Die starke Compute-Performance hat die AMD GPUs zu den Lieblingen der Miner werden lassen und AMD möglicherweise finanziell in einer kritischen Phase über die Runden geholfen. Es scheint aber nicht gereicht zu haben, um bei der Software große Schritte nach vor zu machen: Es ist bemerkenswert leise um das Thema geworden. Und dann kann bisher niemand so richtig fließend zwischen Präzision (int64-int4, FP64-FP8) und Speed auf der gleichen Chipfläche variieren, um z.B. traditionelles HPC und Inferencing jeweils optimal abzudecken. Wir haben jetzt sozusagen die nächste Aufspaltung innerhalb der GPU in eine TPU und GPGPU, wie wir sie vorher zwischen General Purpose CPU und dGPU hatten. Prinzipiell ist Leistungszuwachs nur noch über Differenzierung zu kriegen...

    Die andere Frage war ja, ob Nvidia nicht besser in mehr klassische Funktionblöcke investiert hätte: Da würde ich dann wieder auf den Kaveri verweisen, der in seiner höchsten Ausbaustufe über 512 statt 384 Shader verfügte... aber leider keine Mehrleistung auf die Straße brachte. Das Problem war die Speicherbandbreite von 128-Bit DDR3. Das ist halt mit einem theoretischen Maximum von 30GB/s viel zu wenig gegenüber den 320GB/s einer R9 290X mit 512Bit GDDR5, die dann eben auch die Leistung von knapp 3000 Shader auf die Straße brachte. Das GDDR6 liefert bei 384 Bit Breite knapp das doppelte an Bandbreite, aber bei der 2080ti fallen 4500 Units, welche dank Kompression eigentlich deutlich besser mit der Bandbreite umgehen drüber her und reizen alles aus, was da zu holen ist: Mehr hilft nicht mehr, außer man geht noch breiter und dafür gibt es wahrscheinlich nicht genügend Anschlußfläche. Natürlich könnte man auf einen Interposer und HBM wechseln, aber dann ist man preislich für 25% Mehrleistung auf 200% Preis (Zahlen frei erfunden) und außerdem sind die Nvidia Chips schon physisch an der Grenze dessen, was die Fabs verarbeiten könnten. Und dann kommt noch hinzu, daß die Abwärme ja auch bei linearer Steigerung eher exponentiell schwieriger abzuleiten ist.

    Nvidia hatte also mit hoher Wahrscheinlichkeit durch den kleinen Shrink Transistoren übrig, mußte sie aber für einen anderen Zweck einsetzen, um weder mehr Bandbreite noch extra Wärme zu benötigen: Ein bißchen "dark silicon", wie bei den mobilen SoCs, wo die Transistoren von BIG-little Kernen keine Rolle gegenüber dem Stromverbrauch spielen.

    Gamer sind ein wichtiger GPU Markt, wegen der Skaleneffekte bei der Produktion, ebenso wie früher der Desktop/Notebook Markt Intel bei ihren Server-Prozessoren geholfen hat, SPARC, HP-Precision, Alpha und Power das Wasser abzugraben.

    Aber das geht, vielleicht ein wenig langsamer als das Mining, dem Ende zu: Wenn man von 20 Zombies in die Enge getrieben wird, ergötzt man sich nicht mehr am Glitzern jedes einzelnen Bluttropfens im Spiegel an der rechten oberen Ecke in 4K oder gar 8K.

    Wenn aber jeder mithilfe ausgefeilter AIs sein ganz persönliches Fake-Soap-Bubble geliefert bekommt, spielt für den "willst Du (für ein paar ¤) noch näher ran?"-Knopf die Qualität der Schweißtropfen oder das (eigene?) Spiegelbild auf dem Auge der Protagonistin eine (klick!) entscheidende Rolle.

    Diese großen Unternehmen verwenden viel Grips auf ihre Entscheidungen, weil sie sie auf Jahre binden und ihr Erfolg oder Mißerfolg eben auch erst Jahre später entschieden wird. Gleichzeitig hat niemand Dinge wie Bitcoin, Trump oder Rowhammer auf dem Radar. Wir werden sehen, wie AMD reagiert und es bleibt spannend.

  20. Re: Ist das mit dem Raytracing nicht ziemlich "mutig" von NVidia?

    Autor: John2k 22.08.18 - 07:57

    motzerator schrieb:
    --------------------------------------------------------------------------------
    > Das ist nicht bös gemeint und auf lange Sicht wird es auf jeden Fall die
    > Grafik von Spielen weiter verbessern. Aber für meinen Geschmack besteht
    > hier auch die Gefahr, das man sich zu sehr mit Details verheddert.

    Gerade das passiert hier ja nicht, weil es eine Erleichterung darstellt und die eigentliche Arbeit von der Grafikkarte erledigt wird.
    Im Moment muss alles noch von Hand definiert werden.

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Landeshauptstadt München, München
  2. Messe Berlin GmbH, Berlin
  3. Bosch Gruppe, Plochingen
  4. Fidor Solutions AG, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 69,99€
  2. (u. a. Jurassic World 22,97€, Solo: A Star Wars Story 26,97€, Ready Player One 21,97€)
  3. (u. a. Star Trek 13 Beyond 6,97€, Star Trek The Next Generation Blu-ray 49,97€)
  4. (u. a. SRS-XB31 94,99€)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Gerichtsentscheidung: Telekom verstößt mit Stream On gegen Netzneutralität
Gerichtsentscheidung
Telekom verstößt mit Stream On gegen Netzneutralität

Die Deutsche Telekom verstößt laut einem Gerichtsbeschluss mit ihrem Zero-Rating-Angebot Stream On gegen Vorgaben zur Netzneutralität und zum EU-Roaming. Die Zustimmung der Kunden sei irrelevant.

  1. Landkreis Bautzen Größtes gefördertes FTTB-Projekt startet
  2. Huawei Hundehaufen flächendeckender als 5G in Berlin
  3. Deutsche Telekom "Es geht in allen Bereichen des Konzerns bergauf"

NGT Cargo: Der Güterzug der Zukunft fährt 400 km/h
NGT Cargo
Der Güterzug der Zukunft fährt 400 km/h

Güterzüge sind lange, laute Gebilde, die langsam durch die Lande zuckeln. Das soll sich ändern: Das DLR hat ein Konzept für einen automatisiert fahrenden Hochgeschwindigkeitsgüterzug entwickelt, der schneller ist als der schnellste ICE.
Ein Bericht von Werner Pluta


    Nasa: Mit drei Lasern und einem Helikopter zum Mars
    Nasa
    Mit drei Lasern und einem Helikopter zum Mars

    Die Landestelle des Mars 2020 Rovers wurde bekanntgegeben. Im Jezero-Krater soll er ein altes Flussdelta untersuchen und Proben für eine spätere Mission sammeln. Allerdings überschreitet die Sparversion vom Mars-Rover Curiosity ihr geplantes Budget bei weitem.

    1. Autodesk University Nasa stellt Vierbeiner für die Planetenerkundung vor
    2. Weltraumforschung Auch die Asteroidenmission Dawn ist am Ende
    3. Parker Solar Probe Sonnen-Sonde der Nasa erfolgreich gestartet

    1. iPad Pro 2018 im Test: Tablet bleibt Tablet, Notebook bleibt Notebook
      iPad Pro 2018 im Test
      Tablet bleibt Tablet, Notebook bleibt Notebook

      Mit dem neuen iPad Pro hat Apple nicht nur ein neues Design für seine Tablet-Reihe eingeführt, sondern auch wieder ein sehr starkes Gerät abgeliefert. So sehr der Hersteller aber auch versucht, das iPad Pro als Notebook zu verkaufen - es ist und bleibt ein Tablet.

    2. Mobile Games: Blizzard entwickelt Pokémon Go im Warcraft-Universum
      Mobile Games
      Blizzard entwickelt Pokémon Go im Warcraft-Universum

      "Ein wildes Drachkin erscheint!": Blizzard arbeitet anscheinend an einem neuen Warcraft-Titel, der sich am Mobile Game Pokémon Go orientiert. Es soll immersiver sein als die Vorlage und auch Einzelspielerinhalte bieten.

    3. Astronomie: Flüssiges Wasser auf dem Mars war Messfehler
      Astronomie
      Flüssiges Wasser auf dem Mars war Messfehler

      Salzlaugen aus Perchloraten würden selbst auf dem Mars flüssiges Wasser ermöglichen. Messungen, nach denen solches Wasser auf dem Planeten tatsächlich existiert, wurden jetzt aber als falsch erkannt.


    1. 12:04

    2. 11:54

    3. 11:29

    4. 11:20

    5. 11:10

    6. 11:00

    7. 10:48

    8. 10:36