1. Foren
  2. Kommentare
  3. Games-Forum
  4. Alle Kommentare zum Artikel
  5. › Raytracing: DirectX geht ein…

@Golem "echtes 3D"? Und vorallem habe ich selbst sowas schon vor Jahren implementiert.

Neue Foren im Freiraum! Raumfahrt und freie Software haben jetzt einen Platz, die Games tummeln sich jetzt alle in einem Forum.
  1. Thema

Neues Thema Ansicht wechseln


  1. @Golem "echtes 3D"? Und vorallem habe ich selbst sowas schon vor Jahren implementiert.

    Autor: BeRo 19.03.18 - 18:22

    "echtes 3D"? Was für eine unglückliche Formulierung. Denn Triangle Rasterization mit räumlicher Tiefe (und wenn vorallem mit Deep G-Buffer) fällt da auch darunter .

    Und vorallem habe ich selbst sowas ähnliches schon vor Jahren in OpenGL mithilfe Compute-Shadern in komplett echtzeitfähig implementiert, siehe http://rootserver.rosseaux.net/demoscene/prods/SupraleiterAndItsRenderingTechnologies.pdf so ab PDF-Slide/Seite 134

    Und auf dieser diesjährigen Revision 2018 Demoparty werde ich (zusammen mit einem anderem) ein Talk darüber halten, wie man Voxel-Cone-Tracing als statt nur für Global Illumination z.B. auch für Schatten, Reflektionen, etc. verwenden kann, samt lauffähigen Code-Beispielen, siehe https://2018.revision-party.net/events/seminars#bero . Was ich als effektiver und schneller einstufe, als der Raytracing-Ansatz, wenn man es richtig sauber optimiert implementiert.

  2. Re: @Golem "echtes 3D"? Und vorallem habe ich selbst sowas schon vor Jahren implementiert.

    Autor: violator 19.03.18 - 20:21

    Text nicht verstanden? Es geht um vollständige 3D-Berechnung und nicht nur um teilweise Berechnung wie aktuell passiert.

  3. Re: @Golem "echtes 3D"? Und vorallem habe ich selbst sowas schon vor Jahren implementiert.

    Autor: BeRo 19.03.18 - 21:09

    Das trifft eher auf dich zu, denn das wäre rohes Raytracing an sich auch nicht, sondern eher Path-Tracing und ähnliche Verfahren (Photon Mapping, Bidirectional Path Raytracing, etc.), die wiederum (zumindest teilweise) auf Raytracing aufbauen.

    Und selbst das habe ich schon mal implementiert => https://www.youtube.com/watch?v=9gacOG8CGhY und https://www.youtube.com/watch?v=WGwDgDqWEXQ .

    Was hier nur neu wäre, dass es dafür offenbar nun mehr Rechenleistung vorhanden sein wird, z.B. durch spezielle neue Hardwareeinheiten, weshalb es offenbar auch nur ab Volta und aufwärts verwendbar wäre, und dass dafür nun eine neue API geben wird, welche teilweise die Arbeit dafür abnimmt (was man sonst selber machen müsste), ansonsten ist es nur alter Wein in neuen Schläuchen.

    Der Artikel enthält zudem einige Formulierungsmakel, denn es fängt schon an bei "echtes 3D" und "die Grafiktechnologie Raytracing", es ist keine Technologie, sondern Raytracing ist ein Verfahren (bzw. alternativ Algorithmus) worauf wiederum andere Verfahren wie Pathtracing etc. aufbauen, und echtes 3D ist es, wenn man es genau nehmen würde, am Ende auch nicht, wenn das Endergebnis vom primären Strahl am Ende nur auf eine 2D Plane projektiert und dargestellt wird, da es am Ende dann wieder auch nur ein isotropischer Bildpunkt (ein Farbwert in einer Richtung) ist und kein anisotropischer Voxel (ein Bildpunkt in mehreren Richtungen), der frei im wirklichen Raum sichtbar wäre.

    Zumindest daran merkt man schon, dass der Text eher von einem "Anwender" aus der Anwendersicht geschrieben geworden ist, als statt von einem, der schonmal aktiv als Programmierer/Entwickler an sowas gearbeitet (mit-)gearbeitet hat. Das ist auch eigentlich okay, um es auch für Laien etwas verständlich zu machen, aber das ist für mich einfach so wie zum Beispiel viele Kriminologen sich auch keine Krimi-CSI-Serien anschauen können, weil da auch viel falsch oder zumindest verfälscht dargestellt wird. Aber bitte bitte bitte die richtigen Fachbegriffe verwenden und einsetzen.

    Und als Randinfo: Ich beschäfige mich seit knapp schon leicht über zwei Jahrzehnte mit Grafikprogrammierung (neben in zig anderen Softwareentwicklung-Unterbereichen von A bis Z) privat und beruflich, und bin in der Farbrausch-Demogruppe aktiv.



    2 mal bearbeitet, zuletzt am 19.03.18 21:17 durch BeRo.

  4. Re: @Golem "echtes 3D"? Und vorallem habe ich selbst sowas schon vor Jahren implementiert.

    Autor: xmaniac 19.03.18 - 21:12

    violator schrieb:
    --------------------------------------------------------------------------------
    > Text nicht verstanden? Es geht um vollständige 3D-Berechnung und nicht nur
    > um teilweise Berechnung wie aktuell passiert.


    Ich glaube eher du hast seinen Text nicht verstanden. BeRo, auch ich habe sowas schon vor langem in Cuda implementiert. Was du machst klingt spannend. Ich werde dich mal kontaktieren, und ärgere dich nicht über Möchtegerns hier im Forum die nichts können als mit Buzzwords um sich schmeißen und glauben Whitted RT Schatten oder reflektierende Sekundärstrahlen wären etwas besonderes. Die wissen alle nicht im Ansatz wie RT funktioniert und das es schnurz piep egal ist, ob die Primärstrahlen aus einem RT oder Scanliner kommen.

  5. Re: @Golem "echtes 3D"? Und vorallem habe ich selbst sowas schon vor Jahren implementiert.

    Autor: BeRo 19.03.18 - 21:15

    xmaniac schrieb:
    --------------------------------------------------------------------------------
    > violator schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Text nicht verstanden? Es geht um vollständige 3D-Berechnung und nicht
    > nur
    > > um teilweise Berechnung wie aktuell passiert.
    >
    > Ich glaube eher du hast seinen Text nicht verstanden. BeRo, auch ich habe
    > sowas schon vor langem in Cuda implementiert. Was du machst klingt
    > spannend. Ich werde dich mal kontaktieren, und ärgere dich nicht über
    > Möchtegerns hier im Forum die nichts können als mit Buzzwords um sich
    > schmeißen und glauben Whitted RT Schatten oder reflektierende
    > Sekundärstrahlen wären etwas besonderes. Die wissen alle nicht im Ansatz
    > wie RT funktioniert und das es schnurz piep egal ist, ob die Primärstrahlen
    > aus einem RT oder Scanliner kommen.

    +1 volle Zustimmung

  6. Re: @Golem "echtes 3D"? Und vorallem habe ich selbst sowas schon vor Jahren implementiert.

    Autor: Sh3rlock 19.03.18 - 21:54

    Klingt echt interessant :) Cool was du so machst!

  7. Re: @Golem "echtes 3D"? Und vorallem habe ich selbst sowas schon vor Jahren implementiert.

    Autor: corou 20.03.18 - 00:30

    BeRo schrieb:
    --------------------------------------------------------------------------------

    > Zumindest daran merkt man schon, dass der Text eher von einem "Anwender"
    > aus der Anwendersicht geschrieben geworden ist, als statt von einem, der
    > schonmal aktiv als Programmierer/Entwickler an sowas gearbeitet
    > (mit-)gearbeitet hat. Das ist auch eigentlich okay, um es auch für Laien
    > etwas verständlich zu machen, aber das ist für mich einfach so wie zum
    > Beispiel viele Kriminologen sich auch keine Krimi-CSI-Serien anschauen
    > können, weil da auch viel falsch oder zumindest verfälscht dargestellt
    > wird. Aber bitte bitte bitte die richtigen Fachbegriffe verwenden und
    > einsetzen.

    Ist zwar Klugscheißerei par excellence aber passt gerade so gut:
    Du meinst vermutlich „Kriminalist“ und nicht „Kriminologe“

  8. ++

    Autor: teenriot* 20.03.18 - 01:37

    hrhr

  9. Re: ++

    Autor: xmaniac 20.03.18 - 03:04

    Hey, BeRo ob wohl die Tensor Cores (der Titan V) dafür genutzt werden können? Was die machen ist ja eigentlich nur 16bit 4x4 Matrix Multiplikation und 16bit 4x4 Matrix Addition (bias) mit 32bit 4x4 Matrix als Ergebnis - und das mit 110 TFlops :)

    Klingt jetzt mal nicht vollkommen Nutzlos, gerade auch für Dinge wie Raytracing (oder ein durch eine Matrix definiertes Volumen-tacing)

    Voxel ist ja am Ende auch nichts weiter, als beim tracing schon im BSP aufzuhören. Hat halt den Vorteil, dass man garantiert im Blatt etwas trifft, und nicht ggf. weiter suchen muss wenn das mathematische Primitiv (z.B. Dreieck) verfehlt wird ;)

  10. Re: ++

    Autor: xmaniac 20.03.18 - 14:39

    Laut heise werden wohl zumindest in nvidias neuem RT die Tensor Cores genutzt :)

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. SAP Inhouse Consultant (m/w/d) mit Schwerpunkt Logistik Module
    Covivio Immobilien GmbH, Oberhausen
  2. Full Stack Java Software-Entwickler (m/w/d)
    NOVENTI Health SE, verschiedene Standorte (Home-Office möglich)
  3. Digital Consultant (m/w/d)
    ORBIT Gesellschaft für Applikations- und Informationssysteme mbH, Bonn
  4. DevOps Engineer (m/f/d) for Embedded Software Integration
    Elektrobit Automotive GmbH, Erlangen

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 999€ (Vergleichspreis ca. 1.150€)
  2. 44€
  3. (u. a. A40 TR Over-Ear-Headset PC, PS5,PS4 fjür 135,99€ + MixAmp Pro TR für 225,99€, A50...
  4. Die Top Deals am Black Friday bei Amazon, Media Markt, Otto & Co.


Haben wir etwas übersehen?

E-Mail an news@golem.de