Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Cryengine 5.7: Crytek zeigt…

@golem: auch die RT-Cores ... werden nicht genutzt

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: dummdumm 12.05.19 - 18:34

    Wie denn auch, auf die bietet nVidia auch keinen direkten Zugriff. Lassen sich praktisch nur über DXR nutzen. Folglich werden ohne DXR auch die RT-Cores nicht genutzt!

  2. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ms (Golem.de) 12.05.19 - 20:14

    Im Text steht doch, dass ohne DXR ergo auch keine RT-Cores genutzt werden. Ist dir zudem bekannt, dass DXR keinesfalls zwingend die RT-Cores benötigt? Siehe Geforce GTX mit Pascal-µArch und Titan V mit Volta-µArch.

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  3. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: dummdumm 12.05.19 - 22:18

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Im Text steht doch, dass ohne DXR ergo auch keine RT-Cores genutzt werden.
    > Ist dir zudem bekannt, dass DXR keinesfalls zwingend die RT-Cores benötigt?
    > Siehe Geforce GTX mit Pascal-µArch und Titan V mit Volta-µArch.

    Es steht so nicht im Text. Es steht im Text, dass es weder DXR noch RT Cores benutzt, vollkommen ohne “ergo“ - zumindest wenn der nicht geändert wurde. Natürlich ist mit bewusst, dass DXR keine RT Cores benötigt *). Umgekehrt scheint euch aber nicht bewusst zu sein, dass es von NVidia keine Möglichkeit gibt die RT Cores direkt also ohne API (DXR, Vulkan Erweiterungen oder OptiX) zu nutzen - und nur davon habe ich geschrieben. Aber gut, ich möchte mich darüber kaum mit Leuten unterhalten, die SSAO für eine Raytracing Technik halten...

    *) Witziger wiese etwas, das man euch noch vor einem halben Jahr mit Händen und Füßen erklären musste.



    2 mal bearbeitet, zuletzt am 12.05.19 22:23 durch dummdumm.

  4. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: dummdumm 12.05.19 - 22:25

    PS: Übrigens, ist euch bewusst, dass zwar jeder Pudel ein Hund aber nicht jeder Hund ein Pudel ist?

  5. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ms (Golem.de) 12.05.19 - 22:27

    Das mit den RT-Cores ist mir bekannt, danke erneut für den miesen Diskussionsstil.

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  6. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: dummdumm 12.05.19 - 23:09

    Das ist keine Diskussion, ich erkläre hier nur warum ich recht habe.

    Übrigens scheint dir das mit den RT Cores nicht wirklich bekannt zu sein. Ich erinnere mich an eine Diskussion zur Einführung der RT Cores. Du warst nicht davon zu überzeugen, dass die RT Cores im Wesentlichen reines Marketing sind. Ominöse RT Cores von denen bis heute keiner so genau sagen kann, was die eigentlich tun. BSP Traversal? BSP Aufbauen? Niemand kann es genau sagen, außer dass sie bei Raytracing helfen.

    Anzusprechen sind die RT Cores nur versteckt hinter dritt-APIs die es nach dem großen Marketing Paukenschlag jetzt sogar das selbe ohne RT Cores können, mit ganz normalen Shader. Mit einer Performance die im Wesentlichen um die allgemeine Geschwindigkeitsteigerung langsamer ist.

    Etwas, dass du jetzt hier groß Erklärst, dass du selbst aber Marketinggläubig nicht wahr haben wolltest. Schon damals wurde die hier verwendete Voxeltechnik erwähnt, bei der die RT Cores auch nicht helfen können... puh, hätte damals bloss jemand einen besseren Diskussionsstiel (zuhören, verstehen) gehabt...

  7. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ms (Golem.de) 12.05.19 - 23:33

    Wenn die Cores reines Marketing wären, wie können sie dann beschleunigen?

    https://de.slideshare.net/DICEStudio/siggraph-2018-pica-pica-and-nvidia-turing

    Nun erinnere mich an die "Diskussion", ja ...

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  8. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: dummdumm 12.05.19 - 23:43

    Wenn es in einer Power-Point steht, muss es ja wohl stimmen. Vielleicht hat NVidia die Funktion:

    hit=min(U,min(V, 1-U-V))

    jetzt hart verdrahtet? Vielleicht noch mit einer Branching-Optimierung. Mag sein das würde einiges bringen, aber nur eine Marketingabteilung würde sowas RT-Cores nennen...

  9. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ms (Golem.de) 12.05.19 - 23:47

    Das ist der Sinn der Marketing Abteilung ;-)

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  10. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: dummdumm 13.05.19 - 02:47

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Das ist der Sinn der Marketing Abteilung ;-)

    Stimmt, aber der Sinn von Journalismus ist es nicht, dass einfach nur wiederzugeben ;)

  11. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: dummdumm 13.05.19 - 03:12

    SVOGI ist auch keine Eigenentwicklung von Crytec:

    https://www.dsogaming.com/news/epic-games-tim-sweeney-explains-lack-of-svogi-in-unreal-engine-4/

    Das war schon 2013 experimentell in der Unreal Engine. Nur kann man eine gleichwertige Optik deutlich einfacher erwirken.



    1 mal bearbeitet, zuletzt am 13.05.19 03:17 durch dummdumm.

  12. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ms (Golem.de) 13.05.19 - 07:20

    Das ist nicht das Gleiche meines Wissens, eigentlich heißt es SVOTI bei Crytek.

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  13. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ms (Golem.de) 13.05.19 - 07:21

    idR wird daher "laut Nvidia" usw genutzt, zudem machen die RT-Cores oder wenigstens Turing iwas viel schneller.

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  14. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ms (Golem.de) 13.05.19 - 07:27

    Bei einem renommierten Studio wie Dice gehe ich davon aus, dass die Werte stimmen und Turing daher bei Raytracing iwas schneller macht und laut Nvidia sollen die RT-Cores eben der Grund sein.

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  15. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ibsi 13.05.19 - 10:00

    Ist Dir bewusst das zwar jeder seine Meinung äußern kann, aber niemand muss jedem zuhören.

    Und so wie Du schreibst würde ich Dir nicht mehr zuhören. Wie kann man nur so mit der Einstellung durchs Leben gehen?

    > Was, ihr wisst das nicht? Wie blöd seid ihr denn ... das hab ich Großmeister euch doch schon vor Jahrzehnten erzählt und Mathe könnt ihr auch nicht, ... ach ihr versteht ja nicht einmal das kleine 1x1 ... und so was will IT-News für Profis schreiben

    ... wie unnötig Deine Kommentare sind (so wie sie geschrieben sind).

  16. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: Bruto 13.05.19 - 10:59

    dummdumm schrieb:
    --------------------------------------------------------------------------------
    > Das ist keine Diskussion, ich erkläre hier nur warum ich recht habe.

    Hehehe, hier geht's ja zu wie bei Heise :D Köstlich!

  17. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: platoxG 13.05.19 - 14:25

    Kann Golem den (oder die, wenn yumiko recht hat) Account(s) nicht einfach sperren? Ich kann ja verstehen, wenn einem mal im Forum der Hut hoch geht, weil es immer wieder völlig blödsinnige und unsachliche Postings gibt, aber dieses Gebaren ist echt nicht akzeptabel, zumal, wenn man sich auch noch den Beginn des anderen Threads ansieht.

    Was das wiederholte Rumreiten auf "(SSAO)", das als Typo im Artikel erklärt wurde, soll, erscheint mir schleierhaft, unterstützt die eigene Argumentation (wenn man sie denn überhaupt so nennen kann) in keinster Weise und zeugt wohl eher von einem Aufmerksamkeitsdefizit, zumal wenn dann noch irgendwelche Pseudo-Weisheiten nachgeschoben werden.
    Zudem beckleckert sich der Schreiber auch nicht gerade mit Ruhm oder glänzt mit Sachverstand, was den ganzen Verlauf eher zu einer Haarspalterei und NonStop-Meckerei werden lässt.

    ----

    Die Grafikhardware auf dem PC wird schon seit vielen Jahren nicht mehr direkt auf der Hardwareebene programmiert. Hier werden grundsätzlich APIs wie DirectX, OpenGL und Vulkan genutzt, die in Verbindung mit den gerätespezifischen Treibern die entsprechenden Funktionalitäten zur Verfügung stellen.
    Wenn man von bspw. einem nVidia- oder AMD-favorisierenden Spiels redet, dann sind bspw. Shaderprogramme, etc. in der Form ausgelegt, dass sie die ein oder andere Architektur bevorzugen, jedoch sind selbst die noch auf einem hohen Abstraktionsniveau und nicht direkt auf der Hardware aufsetzend.

    Die sogenannten RT-Cores, die nVidia mit Turing implementiert hat, erweitern die SMs in der Art, dass sie ihre Arbeit teilweise parallel zu den übrigen Funktionseinheiten der SMs ausführen können, ein wesentlicher Teil, der zur höheren Effizienz beiträgt ggü. direkten Berechnungen über die SMs, bspw. mittels OpenCL. Der Zugriff auf deren Funktionalität wird über den RTX-Softwarestack im nVidia-Treiber ermöglicht (und exponiert standardisierte Funktionen, die von bspw. DXR genutzt werden). Der RTX-Softwarestack ist übrigens schon deutlich älter und wurde bereits Anfang 2018 mit Volta vorgestellt und etwas später medienwirksam mit der Star Wars-Demo.
    Beispielsweise Microsofts hardwareunabhängiges DXR (ein neues Sub-API in DirectX 12) kann sogar komplett ohne entsprechende GPU-Unterstützung genutzt werden, da es einen reinen Softwarepfad, vornehmlich fürs Debugging, enthält (der natürlich auch entsprechend langsam ist).

    Die RT-Cores beschleunigen genau zwei Funktionen, die für Raytracing relevant sind: (1) BVH-Traversierung und (2) Intersection-Berechnung, d. h. das schnelle Durchlaufen und Suchen in der Geometrie/Mesh-Datenstruktur und die Berechnung auf Schnittpunkte der betreffenden Meshes mit einem Strahl.
    nVidia hat sich bisher bzgl. dem internen Aufbau der RT-Cores tatsächlich nicht weit in die Karten schauen lassen, aber ein Hoax sind diese zweifelsfrei nicht, auch wenn sie auf der anderen Seite auch keine Wunder wirken (denn für eine vollständige Szenenberechnung in Echtzeit mittels Raytracing reicht die Leistung noch nicht aus).
    Entsprechend wurden die Load/Store-Units ggü. Pascal verdoppelt und diverse Caches umstrukturiert und vergößert, was die notwendige interne Bandbreite schafft, was Turing eher zu einem Nachkömmliing von Volta als von Pascal macht. Ebenso analog Volta wurden nun die INT- und FP-Datenpfade aufgetrennt, sodass entsprechende Instruktionen parallel ausgeführt werden können.
    Ich würde vermute(!), dass das, was als RT-Core bezeichnet wird, bzw. was die RT-Funktionalität ausmacht, schlicht als Kombination dieser Architekturerweiterungen zu verstehen ist, in Verbindung mit einem eigenständigen Sheduler für den RT-Core, der einen Strahlauftrag eigenständig verarbeiten kann. Diese RT-Core-Funktionalität verfügt ggf. nicht einmal über eigene FP-Rechenwerke, sondern nutzt die FP-Rechenwerke des SM mit, was die "nur" teilweise parallele Arbeitsweise der RT-Cores erklären könnte. (Andernfalls würde ich höhere Transistorzahlen erwarten, aber wie schon einleitend gesagt, Vermutungen.)
    Sieht man sich abschließend die Leistungswerte an, so steht jedoch außer Frage, dass das, was als "RT-Core-Funktionalität" hinzugefügt wurde, zweifelsfrei einen Mehrwert bietet und somit nun ein praktisch nutzbares Hybrid-Rendering ermöglicht.
    Der Vergleich mit Volta (Titan V mit HBM2) zeigt sehr gut, wozu Turings Architekturerweiterungen fähig sind (und ich bin bei Gott kein nVidia-Fan). Volta hat nochmals rund 18 % mehr SMs als eine 2080 Ti und sogar doppelt so breite Load/Store-Einheiten im Vergleich zu Turing. Der RTX-Stack im Voltra-Treiber muss für die Raytracingberechnungen jedoch den regulären Weg über die SMs gehen.

    Volta hat bspw. in BF5 selbst in 1440p eine beachtliche Leistung gezeigt (teilweise nahezu vergleichbar schnell), brach jedoch mit zunehmender Zahl an Reflexionen in der Szene auf bis zu 3/5 der Performance der 2080 Ti ein und hier ist die Mehrleistung der 2080 Ti ganz klar den architektonischen Verbesserungen zuzuschreiben (auch wenn eine einigermaßen performante Implementation seitens Dice lange dauerte; bei Tomb Raider dauerte es ja noch deutlich länger).
    Eine GTX 1080 Ti mit aktuellem Treiber und aktiviertem RTX bricht gar deutlich stärker ein. (Natürlich könnte man hier auch eine künstliche Verlangsamung in den GTX-Treibern vermuten, was jedoch auf lange Sicht nVidia eher schaden als helfen würde.) Schlussendlich zu beachten ist ebenfalls, dass man bei obigem Vergleich jedoch auch Karten jenseits der 1000 ¤ bzw. 2000 ¤ vergleicht, was weit über dem Budget normaler Gamer liegt.

    ----

    Bei der Voxel-based Global Illumination (SVOGI) handelt es sich um eine bereits relativ alte GI-Technologie, die bspw. in der Cryengine erstamls experimentell in v3.8.2 (Jul'15) erwähnt wird und sukzessiv weiterentwickelt wurde.
    Warum sollte es relevant sein, dass SVOGI keine "Erfindung" von Crytek ist? Ich vermute zumindest mal, dass der Autor eher "Erfindung" meinte, denn Crytek hat hier keine externe Lib hinzugekauft, sondern es zweifelsfrei in eigener Arbeit implementiert und an die Engine angepasst, zumal entsprechende Voxel-basierte Techniken als Oberbegriff zu verstehen sind, da es hier unterschiedliche Implementationen gibt. Konkret implementiert Crytek hier Sparse Voxel Octree Total Illumination (SVOTI), wie bereits von MS erwähnt. Solche Entwicklungen haben ihren Ursprung nicht selten im universitären Umfeld, siehe u. a.:

    http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.91.6683&rep=rep1&type=pdf (Pixar, 2004)

    https://www.in.tu-clausthal.de/fileadmin/homes/CG/data_pub/paper/VoxelGI.pdf (TU Clausthal, 2010)

    http://on-demand.gputechconf.com/gtc/2012/presentations/SB134-Voxel-Cone-Tracing-Octree-Real-Time-Illumination.pdf (nVidia, 2013)

    Das interessante dieser GI-Technologie ist, dass sie weitaus weniger Abhängig von der Szenenkomplexität ist, als wenn man direkt die Szenendaten via Raytracing für Lichtproben traversiert und performante Algorithmen für dynamische Szenen via Voxel stehen mittlerweile ebenfalls zur Verfügung.
    nVidia bspw. arbeitet bereits seit einigen Jahren mit VXGI (https://developer.nvidia.com/vxgi) an einem entsprechenden Framework, das eine beachtliche GI in Echtzeit erzeugen kann. Mit der Verfügbarkeit von Turing bleibt jedoch zu vermuten, das weitere Arbeiten in dem Bereich zurückgefahren werden.

  18. Autor: yumiko 13.05.19 - 16:26

    simply from ❤

  19. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: dummdumm 13.05.19 - 23:35

    Und hier nochmal der Thread zur Erinnerung, der nichts weiter tat, als was du hier auch vermutest - RT Cores haben KEINE eigenen Rechenwerke speziell für Raytracing, so wie damals im Artikel behauptet.

    QED

    https://forum.golem.de/kommentare/sonstiges/turing-architektur-nvidias-quadro-rtx-hat-16-teraflops/woher-hat-golem-mal-wieder-die-information.../119861,5159560,5160090,read.html

    Und wie sehr das ganze doch Marketing Blabla ist, zeigt diese Aussage, die Golem vollkommen richtig als NVidia Aussage gekennzeichnet hatte:

    “Generell spricht Nvidia von der 25-fachen Raytracing-Performance, die Turing verglichen mit der bisherigen Pascal-Architektur erreichen soll.“

    Aha, 25 mal so schnell, was für ein Bullshit wie sich inzwischen herausstellt hat. Es bringt nichtmal das Doppelte!



    1 mal bearbeitet, zuletzt am 13.05.19 23:41 durch dummdumm.

  20. Re: @golem: auch die RT-Cores ... werden nicht genutzt

    Autor: ms (Golem.de) 14.05.19 - 07:56

    Die 25x gelten freilich nicht für Spiele, sondern dediziert für die von Nvidia genannten Gigarays. Und wie u.a. Dice aufgezeigt hat, ist der Unterschied zwischen Volta und Turing schon teils sehr groß, der Abstand zu Pascal ergo noch mehr.

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. RFT kabel Brandenburg GmbH, Brandenburg an der Havel
  2. DEPOT - Gries Deco Company GmbH, Niedernberg
  3. Reck & Co. GmbH, Bremen
  4. BASF Coatings GmbH, Münster

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. 239,00€
  2. täglich neue Deals bei Alternate.de


Haben wir etwas übersehen?

E-Mail an news@golem.de


Mobile-Games-Auslese: Magischer Dieb trifft mogelnden Doktor
Mobile-Games-Auslese
Magischer Dieb trifft mogelnden Doktor

Ein Dieb mit Dolch in Daggerhood, dazu ein (historisch verbürgter) Arzt in Astrologaster sowie wunderschön aufbereitetes Free-to-Play-Mittelalter in Marginalia Hero: Golem.de stellt die spannendsten neuen Mobile Games vor.
Von Rainer Sigl

  1. Hyper Casual Games 30 Sekunden spielen, 30 Sekunden Werbung
  2. Mobile-Games-Auslese Rollenspiel-Frühling mit leichten Schusswechseln
  3. Gaming Apple Arcade wird Spiele-Flatrate für iOS und MacOS

Dark Mode: Wann Schwarz-Weiß-Denken weiterhilft
Dark Mode
Wann Schwarz-Weiß-Denken weiterhilft

Viele Nutzer und auch Apple versprechen sich vom Dark Mode eine augenschonendere Darstellung von Bildinhalten. Doch die Funktion bringt andere Vorteile als viele denken - und sogar Nachteile, die bereits bekannte Probleme bei der Arbeit am Bildschirm noch verstärken.
Von Mike Wobker

  1. Sicherheitsprobleme Schlechte Passwörter bei Ärzten
  2. DrEd Online-Arztpraxis Zava will auch in Deutschland eröffnen
  3. Vivy & Co. Gesundheitsapps kranken an der Sicherheit

5G-Auktion: Warum der Preis der 5G-Frequenzen so hoch war
5G-Auktion
Warum der Preis der 5G-Frequenzen so hoch war

Dass die Frequenzen für den 5G-Mobilfunk teuer wurden, lasten Telekom, Vodafone und Telefónica dem Newcomer United Internet an. Doch dies ist laut dem Netzplaner Kai Seim nicht so gewesen.
Eine Analyse von Achim Sawall

  1. Funklöcher Hohe Bußgelder gegen säumige Mobilfunknetzbetreiber
  2. Bundesnetzagentur 5G-Frequenzauktion erreicht 6,5 Milliarden Euro
  3. 5G-Auktion Etablierte wollen Preis für 1&1 Drillisch hochtreiben

  1. BVG: Berlins neue E-Busse sind teuer
    BVG
    Berlins neue E-Busse sind teuer

    Einem Medienbericht zufolge gibt das Land Berlin rund 18 Millionen Euro für die Beschaffung neuer Busse mit Elektroantrieb aus, die von zwei Herstellern kommen. Die Kosten sind damit noch immer sehr hoch. Kritisiert wird zudem die Umweltbilanz.

  2. Elektrische Nutzfahrzeuge: Nicht mehr vom Müllwagen geweckt werden
    Elektrische Nutzfahrzeuge
    Nicht mehr vom Müllwagen geweckt werden

    Keine lokalen CO2-Emissionen und weniger Lärm: Stadtbewohner hätten lieber heute als morgen leise Müllwagen, Bagger und andere elektrische Nutzfahrzeuge. Viele sind schon im Testbetrieb - und einige sogar schon im regulären Einsatz.

  3. Datenschutzbeauftragte: Ermittlungen gegen Marit Hansen eingestellt
    Datenschutzbeauftragte
    Ermittlungen gegen Marit Hansen eingestellt

    Mehr als drei Jahre ermittelte die Staatsanwaltschaft wegen eines angeblichen Abrechnungsbetrugs bei den schleswig-holsteinischen Datenschützern. "Pleiten und Pannen" hätten die Aufklärung verzögert, kritisiert die betroffene Marit Hansen.


  1. 12:22

  2. 12:00

  3. 11:50

  4. 11:41

  5. 11:34

  6. 11:25

  7. 11:08

  8. 10:54