1. Foren
  2. Kommentare
  3. Games
  4. Alle Kommentare zum Artikel
  5. › GC 08: Crytek über die Zukunft der High…

Raytracing hätte Intel wohl gerne...

  1. Thema

Neues Thema Ansicht wechseln


  1. Raytracing hätte Intel wohl gerne...

    Autor: Rasterfari 19.08.08 - 17:13

    Raytracing wird bis in absehbare Zukunft keine Rolle spielen, zumindest wenn es um Spielengines geht. Zwar werden glänzende Oberflächen schöner dargestellt, aber um die grafische Qualität aktueller Raster-Verfahren zu erreichen (mit Kantenglättung) ist ein immenser Rechenaufwand nötig. Und bis Desktops mit der Power ausgestattet sind, dann sind die konventionellen Techniken auch schon wieder drei Schritte vorraus.

    Das ist ne wohlklingende Sackgasse und wird von Intel einzig deswegen vorangetrieben um Verkaufsargumente für Octo- und Hexacores zu schaffen.

  2. Re: Raytracing hätte Intel wohl gerne...

    Autor: Blair 19.08.08 - 22:13

    Rasterfari schrieb:
    -------------------------------------------------------
    > nötig. Und bis Desktops mit der Power ausgestattet
    > sind, dann sind die konventionellen Techniken auch
    > schon wieder drei Schritte vorraus.

    raytracing skaliert aber afaik besser, so dass das verfahren bei xn kernen rasterisierung abhängen dürfte.

  3. Re: Raytracing hätte Intel wohl gerne...

    Autor: Toreon 19.08.08 - 22:51

    mal wieder ein bs hier.

    wenn man keine ahnung hat...

    lesen: Ray-tracing in Real-time and holding 60 fps with AA (http://www.tomshardware.com/news/Larrabee-Ray-Tracing,5769.html) oder einfach mal...

  4. Re: Raytracing hätte Intel wohl gerne...

    Autor: le_shatai 20.08.08 - 09:02

    > mal wieder ein bs hier.

    Was ist ein bs ?

    > wenn man keine ahnung hat...
    >
    > lesen: Ray-tracing in Real-time and holding 60 fps
    > with AA
    > (http://www.tomshardware.com/news/Larrabee-Ray-Tra
    > cing,5769.html) oder einfach mal...

    Das ist auch ein perfekter Marketing-Artikel, fuer AMD und ATI,
    was ja mittlerweile das Gleiche ist.

    Das Problem beim Ray-Tracing ist, das die Anzahl der zu noetigen
    Strahlen exponentiell anwaechst.
    Das heisst, wenn du nur ein sich bewegendes Objekt hast, kannst du recht einfach und eine Lichtquelle, dann kannst du das alles noch recht schnell berechnen.
    Um aber eine glaubwuerdige Illumination zu erreichen brauchst, du mehr als
    nur eine Lichtquelle und jedes Objekt wiederrum bricht das Licht usw.

    Das heisst, wie hoch schraube ich die Raytracing-Tiefe, also wieviele
    durchgaenge lasse ich zu, das Objekte entsprechend Licht emitieren oder brechen.

    Mit der Anzahl der Objekte, der Anzahl der Lichtquellen und der eingestellten
    Brechungtiefe fuer diese Lichstrallen, steigt der Rechenaufwand extrem an.

    Wenn sich die Objekte auch noch bewegen wird es noch schlimmer, da du
    dann alles neu berechnen kannst.
    Klar klingen die Vorteile sehr angenehm die Raytracing mit sich bringt,
    aber es ist nicht so effizient wie die heute verfuegbaren Rasterization
    Algorithmen.


  5. Re: Raytracing hätte Intel wohl gerne...

    Autor: ThadMiller 20.08.08 - 13:31

    le_shatai schrieb:
    -------------------------------------------------------

    > Mit der Anzahl der Objekte...
    > ...steigt der Rechenaufwand extrem an.

    Das wäre mir neu.

    > Wenn sich die Objekte auch noch bewegen wird es
    > noch schlimmer, da du dann alles neu berechnen kannst.

    Sonst wohl nicht?

  6. Re: Raytracing hätte Intel wohl gerne...

    Autor: le_shatai 20.08.08 - 13:50

    > > Mit der Anzahl der Objekte...
    > ...steigt
    > der Rechenaufwand extrem an.
    >
    > Das wäre mir neu.

    Wieso ? Jedes Objekt emitiert oder bricht Lichtstrahlen, das heisst,
    je mehr objekte, desto mehr Strahlen habe ich, die es zu berechnen gilt,
    bis zu der vorgegeben Strahlenanzahl.

    > > Wenn sich die Objekte auch noch bewegen wird
    > es
    > noch schlimmer, da du dann alles neu
    > berechnen kannst.
    >
    > Sonst wohl nicht?

    Wenn sich nichts aendert gibt es nichts neues zu berechnen.

  7. Re: Raytracing hätte Intel wohl gerne...

    Autor: ThadMiller 20.08.08 - 14:01

    le_shatai schrieb:
    -------------------------------------------------------
    > > > Mit der Anzahl der Objekte...
    >
    > ...steigt
    > der Rechenaufwand extrem an.
    >
    > Das wäre mir neu.
    >
    > Wieso ? Jedes Objekt emitiert oder bricht
    > Lichtstrahlen, das heisst,
    > je mehr objekte, desto mehr Strahlen habe ich, die
    > es zu berechnen gilt,
    > bis zu der vorgegeben Strahlenanzahl.

    Es spielt aber keine Rolle ob da ein Objekt ist oder nicht.
    Sellt die ein Grid mit 1000 x 1000 Rays vor. Diese decken eine gewisse "Fläche" ab. Ob da nun 1 virtueller Stein liegt oder 100, spielt dabei keine Rolle. Eben das ist ja einer der großen Vorteile von RT. Bei Spiegelungen sieht das zwar etwas anders aus, eine Tiefe von 3 oder mehr ist aber für Games unsinnig. Es sei denn es gehört explizit zum Spielprinzip.

    > Wenn sich die Objekte auch noch bewegen wird es
    > noch schlimmer, da du dann alles neu berechnen kannst.

    > Sonst
    > wohl nicht?

    > Wenn sich nichts aendert gibt es nichts neues zu
    > berechnen.

    Das trifft ja im Prinzip auch schon auf heutige Spiele zu. Neuberechnet werden trotzdem all Frames. Ein Standbild zu zeigen ist einfach unnötig.

  8. Re: Raytracing hätte Intel wohl gerne...

    Autor: le_shatai 20.08.08 - 14:11

    > Es spielt aber keine Rolle ob da ein Objekt ist
    > oder nicht.
    > Sellt die ein Grid mit 1000 x 1000 Rays vor. Diese
    > decken eine gewisse "Fläche" ab. Ob da nun 1
    > virtueller Stein liegt oder 100, spielt dabei
    > keine Rolle.

    Aber der Stein hat doch ein gewisse Materialeigenschaften,
    die es entsprechend umzusetzen gilt.
    Das heisst ich berechne nicht einfach, ob da ein Stein liegt,
    sondern muss doch auch entsprechend der fuer in definierten Material-
    eigenschaften die Strahlenablenkung und so berechnen.

    Und das heißt, je mehr Steine, desto mehr muss ich rechnen, oder
    hab ich da was falsch verstanden ?


    > Eben das ist ja einer der großen
    > Vorteile von RT. Bei Spiegelungen sieht das zwar
    > etwas anders aus, eine Tiefe von 3 oder mehr ist
    > aber für Games unsinnig. Es sei denn es gehört
    > explizit zum Spielprinzip.

    Welche Tiefe dafuer notwendig ist, oder sinnvoll, kann
    ich nicht beurteilen, da ich mich nun nicht so genau
    auskenne.

    > Das trifft ja im Prinzip auch schon auf heutige
    > Spiele zu. Neuberechnet werden trotzdem all
    > Frames. Ein Standbild zu zeigen ist einfach
    > unnötig.

    Da hast du recht... :D

  9. Re: Raytracing hätte Intel wohl gerne...

    Autor: ThadMiller 20.08.08 - 14:35

    le_shatai schrieb:
    -------------------------------------------------------

    > Aber der Stein hat doch ein gewisse Materialeigenschaften,
    > die es entsprechend umzusetzen gilt.
    > Das heisst ich berechne nicht einfach, ob da ein
    > Stein liegt, sondern muss doch auch entsprechend der fuer in
    > definierten Materialeigenschaften die Strahlenablenkung und so
    > berechnen.
    >
    > Und das heißt, je mehr Steine, desto mehr muss ich
    > rechnen, oder hab ich da was falsch verstanden ?

    Sicher gibt es spezielle Aufwändige Materialien (Glas, Tranzparenz im Allgemeinen, diffuse Materialien usw...) bei denen mehr Berechnungen durchgeführt werden müssen (egal ob Objekt oder Hintergrund).
    Aber es spielt keine Rolle da unter dem nicht vorhandenen Stein ja der (dann sichtbare) Boden ist.
    Also nochmal etwas genauer:
    Wenn die Textur des Hintergrundes die gleiche Kompexität besitzt wie die der darauf liegenden Objekte, spielt es für die reine Renderzeit keine Rolle ob zehn oder hunderttausend Objekte in der Szene vorkommen.

  10. Re: Raytracing hätte Intel wohl gerne...

    Autor: le_shatai 20.08.08 - 14:41

    > Wenn die Textur des Hintergrundes die gleiche
    > Kompexität besitzt wie die der darauf liegenden
    > Objekte, spielt es für die reine Renderzeit keine
    > Rolle ob zehn oder hunderttausend Objekte in der
    > Szene vorkommen.

    Da stimme ich dir zu, aber das duerfte doch eher selten der
    Fall sein, oder irre ich mich da ?

    Ich meine ein Haus hat Fenster, ein Baum hat Blaetter, die Strasse
    hat Teer, und die Lampe strahlt Licht aus.
    Das muss doch alles berechnet werden, weil unterschiedliche Materialien.

    Ich entwickle keine Spiele und keine Materialien oder so;
    ich bin bloss mit der Grundidee vertraut, daher kann ich das
    nicht beurteilen.

  11. Re: Raytracing hätte Intel wohl gerne...

    Autor: ThadMiller 20.08.08 - 15:02

    le_shatai schrieb:
    -------------------------------------------------------

    > Da stimme ich dir zu, aber das duerfte doch eher selten der
    > Fall sein, oder irre ich mich da ?
    >
    > Ich meine ein Haus hat Fenster, ein Baum hat
    > Blaetter, die Strasse
    > hat Teer, und die Lampe strahlt Licht aus.
    > Das muss doch alles berechnet werden, weil
    > unterschiedliche Materialien.

    Na dann sind wir uns ja einig :)

    1. Unterschiedlich Materialien sind unterschiedlich komplex zu berechnen > unterschiedliche Renderzeit.
    2. Wenn ein Objekt aus EINEM Material besteht hat die Komplexität des Objekts keine Auswirkung auf die Renderzeit.

    Stell dir deine "Haus.- Baumszene" oben bildlich von (mit gleich aufwändigen Texturen für Dach, Blätter, Strasse, Wiese etc...)
    Jetzt macht es BOOOM und das Haus und alles andere wird weggesprengt (im Spiel) so das nur noch die Wiese da ist. Die Framerate bliebe genau gleich.

  12. Re: Raytracing hätte Intel wohl gerne...

    Autor: __Michael__ 20.08.08 - 15:28

    ThadMiller schrieb:
    -------------------------------------------------------
    > le_shatai schrieb:
    > --------------------------------------------------
    > -----
    >
    > > Da stimme ich dir zu, aber das duerfte doch
    > eher selten der
    > Fall sein, oder irre ich
    > mich da ?
    >
    > Ich meine ein Haus hat
    > Fenster, ein Baum hat
    > Blaetter, die
    > Strasse
    > hat Teer, und die Lampe strahlt Licht
    > aus.
    > Das muss doch alles berechnet werden,
    > weil
    > unterschiedliche Materialien.
    >
    > Na dann sind wir uns ja einig :)
    >
    > 1. Unterschiedlich Materialien sind
    > unterschiedlich komplex zu berechnen >
    > unterschiedliche Renderzeit.
    > 2. Wenn ein Objekt aus EINEM Material besteht hat
    > die Komplexität des Objekts keine Auswirkung auf
    > die Renderzeit.
    >
    > Stell dir deine "Haus.- Baumszene" oben bildlich
    > von (mit gleich aufwändigen Texturen für Dach,
    > Blätter, Strasse, Wiese etc...)
    > Jetzt macht es BOOOM und das Haus und alles andere
    > wird weggesprengt (im Spiel) so das nur noch die
    > Wiese da ist. Die Framerate bliebe genau gleich.


    So einfach ist das alles nicht.
    Prinzipiell muss man für jeden Strahl checken ob dieser Strahl eines der Objekte trifft - das sind dann Anzahl_Strahlen*Anzahl_Objekte Schnittpunkttests, die man machen muss. Um das aber zu reduzieren werden Datenstrukturen wie BSP-Bäume, KD-Bäume etc. eingesetzt. Diese unterteilen die Raum. Bewegen sich nun Objekte im Raum so müssen diese Datenstrukturen neu berechnet werden.
    Darum sind statische Szene auch besser, da eine Neuberechnung nicht nötig ist. Weniger Objekte sind dann auch besser, weil so der Aufbau der Datenstrukturen schneller geht und diese schneller durchsucht werden können.
    Die Materialien sind wohl eher das geringere Problem. Durch gute Texturen kann man unter Umständen auf aufwändige Beleuchtungsmodelle verzichten. Und außerdem berechnet man nicht die Lichtbrechung in Stein, Asphalt etc., weil sie um Erscheinungsbild fast nicht beitragen.

    Das Problem ist, dass man für viele state-of-the-art Effekte wie weiche Schatten, Kantenglättung, unschrafe Reflexionen und Lichtbrechungen zwar vielleicht weniger tricksen muss als beim Rasterizer aber dafür der Berechnungsaufwand immens steigt. Es gibt Paper, die signifikante Verbesserungen beschreiben aber dann sind wir auch wieder bei komplizierten Algorithmen, wie man sie beim Rasterizer ja derzeit wohl auch beklagt.

  13. Re: Raytracing hätte Intel wohl gerne...

    Autor: le_shatai 20.08.08 - 15:40

    Guter Beitrag. :)

    Es gab auch mal einen interessanten Artikel dazu in einer
    der letzten Ausgaben der c't, dazu den ich in diesem Umfang
    nicht erwartet haette, aber der sehr schoen die Probleme mit
    Raytracern aufzeigt.

    Im Artikel wurde auch angemerkt, so als kleines Fazit, das
    Raytracer wohl die naechste Zeit nicht kommen werden, auch wenn
    das alle Jahre wieder psotuliert wird, aber da Intel und Co.
    ihre n-Core Prozessoren loswerden muessen, stehen die Chancen
    nicht schlecht, das es nicht vielleicht doch so kommt, wenn
    auch nicht jetzt.

    So genug davon...

    Cheers

  14. Re: Raytracing hätte Intel wohl gerne...

    Autor: JonDoe 20.08.08 - 23:04

    le_shatai schrieb:
    -------------------------------------------------------
    > Guter Beitrag. :)
    >
    > Es gab auch mal einen interessanten Artikel dazu
    > in einer
    > der letzten Ausgaben der c't, dazu den ich in
    > diesem Umfang
    > nicht erwartet haette, aber der sehr schoen die
    > Probleme mit
    > Raytracern aufzeigt.
    >
    > Im Artikel wurde auch angemerkt, so als kleines
    > Fazit, das
    > Raytracer wohl die naechste Zeit nicht kommen
    > werden, auch wenn
    > das alle Jahre wieder psotuliert wird, aber da
    > Intel und Co.
    > ihre n-Core Prozessoren loswerden muessen, stehen
    > die Chancen
    > nicht schlecht, das es nicht vielleicht doch so
    > kommt, wenn
    > auch nicht jetzt.
    >
    > So genug davon...
    >
    > Cheers

    Es gibt sogar schon eine Demo, die Raytracing benutzt. Natürlich technical only. War auch irgendwas bzgl. Studium. Da sah man, dass DualCore quasi die leistung verdoppelt hat. Quad vervierfacht... usw.
    Man muss aber trotzdem bedenken das diese kleine Szene die dort gezeigt wird einfach lahmarschig läuft auf nem single-core. Von daher ist die wirklich benötigte Skalierung derzeit nicht vorhanden. Dafür müsste man mehr Cores basteln oder Boards wie SKulltrail mit mehreren CPU-Socket.

  15. Re: Raytracing hätte Intel wohl gerne...

    Autor: ThadMiller 21.08.08 - 09:55

    JonDoe schrieb:
    -------------------------------------------------------

    > Es gibt sogar schon eine Demo, die Raytracing
    > benutzt.

    http://graphics.cs.uni-sb.de/~sidapohl/egoshooter/

  16. Re: Raytracing hätte Intel wohl gerne...

    Autor: Meister Yoda 26.08.08 - 15:01

    JonDoe schrieb:
    -------------------------------------------------------
    > le_shatai schrieb:
    > --------------------------------------------------
    > -----
    > > Guter Beitrag. :)
    >
    > Es gab auch mal
    > einen interessanten Artikel dazu
    > in
    > einer
    > der letzten Ausgaben der c't, dazu den
    > ich in
    > diesem Umfang
    > nicht erwartet
    > haette, aber der sehr schoen die
    > Probleme
    > mit
    > Raytracern aufzeigt.
    >
    > Im
    > Artikel wurde auch angemerkt, so als kleines
    >
    > Fazit, das
    > Raytracer wohl die naechste Zeit
    > nicht kommen
    > werden, auch wenn
    > das alle
    > Jahre wieder psotuliert wird, aber da
    > Intel
    > und Co.
    > ihre n-Core Prozessoren loswerden
    > muessen, stehen
    > die Chancen
    > nicht
    > schlecht, das es nicht vielleicht doch so
    >
    > kommt, wenn
    > auch nicht jetzt.
    >
    > So
    > genug davon...
    >
    > Cheers
    >
    > Es gibt sogar schon eine Demo, die Raytracing
    > benutzt. Natürlich technical only. War auch
    > irgendwas bzgl. Studium. Da sah man, dass DualCore
    > quasi die leistung verdoppelt hat. Quad
    > vervierfacht... usw.
    > Man muss aber trotzdem bedenken das diese kleine
    > Szene die dort gezeigt wird einfach lahmarschig
    > läuft auf nem single-core. Von daher ist die
    > wirklich benötigte Skalierung derzeit nicht
    > vorhanden. Dafür müsste man mehr Cores basteln
    > oder Boards wie SKulltrail mit mehreren
    > CPU-Socket.
    >


    Mein Raytracer mit Rekursionstiefe == 3, braucht auf einem Dual Core 2,8 für ein Bild 500x500 mit recht vielen Polygonen knapp 3 Sekunden mit Multithreading, ohne MT verdoppelt sich die Zeit. Um 30fps zu erreichen muss das Rendern, Raytracern und sonstige Berechnungen die so anfallen in das Zeitfenster von 33ms passen ... man kann sich schon ausrechnen wieviele Cores man braucht, um die Zeit zu drücken :D Das mit effizienten Realtime-Raytracern dauert's noch.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Regierungspräsidium Darmstadt, Darmstadt
  2. Fraunhofer-Institut für Zelltherapie und Immunologie IZI, Leipzig
  3. Netze BW GmbH, Karlsruhe
  4. ING Deutschland, Frankfurt

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 418,15€
  2. 515,65€
  3. (u. a. Asus TUF-RTX3080-10G-GAMING 10GB für 739€, MSI GeForce RTX™ 3080 GAMING X TRIO 10GB...
  4. (u. a. GIGABYTE GeForce RTX 3080 Eagle OC 10G für 699€, ASUS GeForce RTX 3080 TUF GAMING für...


Haben wir etwas übersehen?

E-Mail an news@golem.de


IT-Freelancer: Der kürzeste Pfad zum nächsten Projekt
IT-Freelancer
Der kürzeste Pfad zum nächsten Projekt

Die Nachfrage nach IT-Freelancern ist groß - die Konkurrenz aber auch. Der nächste Auftrag kommt meist aus dem eigenen Netzwerk oder von Vermittlern. Doch wie findet man den passenden Mix?
Ein Bericht von Manuel Heckel

  1. Selbstständiger Sysadmin "Jetzt fehlen nur noch die Aufträge"

Poco X3 NFC im Test: Xiaomis neuer Preisbrecher überzeugt
Poco X3 NFC im Test
Xiaomis neuer Preisbrecher überzeugt

Das Poco X3 NFC ist Xiaomis jüngstes preiswertes Smartphone, die Ausstattung verspricht angesichts des Preises einiges - und hält etliches.
Ein Test von Tobias Költzsch

  1. Xiaomi Neues Poco-Smartphone mit Vierfachkamera kostet 200 Euro
  2. Smartphone Xiaomi stellt dritte Generation verdeckter Frontkameras vor
  3. Xiaomi Mi 10 Ultra kommt mit 120-Watt-Schnellladen

Geforce RTX 3080: Wir legen die Karten offen
Geforce RTX 3080
Wir legen die Karten offen

Am 16. September 2020 geht der Test der Geforce RTX 3080 online. Wir zeigen vorab, welche Grafikkarten und welche Spiele wir einsetzen werden.

  1. Ethereum-Mining Nvidias Ampere-Karten könnten Crypto-Boom auslösen
  2. Gaming Warum DLSS das bessere 8K ist
  3. Nvidia Ampere Geforce RTX 3000 verdoppeln Gaming-Leistung