1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Video: Quake Wars Raytraced mit 3D…

ruckelt!

Wochenende!!! Zeit für Quatsch!
  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. ruckelt!

    Autor: lowbrainer 26.06.09 - 12:53

    also wofür?!

    wie wärs mit CUDA? oder das ding von AMD?

    aktuelle GPUs ownen doch aktuelle CPUs - oder bin ich eingeschlafen?!

  2. Re: ruckelt!

    Autor: bene 26.06.09 - 13:13

    ähm du weist schon was raytracing ist?? >.<

  3. Re: ruckelt!

    Autor: higher 26.06.09 - 13:17

    Süsse Träume

  4. Re: ruckelt!

    Autor: DerBandi 26.06.09 - 13:31

    aktuelle GPUs bieten mehr Raytracing Power als CPUs, das stimmt.

    Aber der Typ arbeitet bei Intel, also was erwartest du? ;)

    An die anderen Antworten: legt euch wieder hin. ^^

  5. Re: ruckelt!

    Autor: lowbrainer 26.06.09 - 13:58

    ich weiss, dass er bei intel arbeitet - fand das halt nur relativ amüsant! also, ok, ist mit sicherheit ein toller arbeitgeber... aber halt so... o_0

  6. Re: ruckelt!

    Autor: blubb0r 26.06.09 - 14:10

    lowbrainer schrieb:
    -------------------------------------------------------
    > also wofür?!
    >
    > wie wärs mit CUDA? oder das ding von AMD?
    >
    > aktuelle GPUs ownen doch aktuelle CPUs - oder bin
    > ich eingeschlafen?!


    Wie die anderen auch schon schrieben, hat der gute Mann mit Intel zu tun. Wie auch schon im Beitrag stand soll mit Larabee auch natives Raytracing möglich sein und dieser hat auch sehr viele kleine X86 Einheiten.

  7. Re: ruckelt!

    Autor: coder 26.06.09 - 14:11

    DerBandi schrieb:
    -------------------------------------------------------
    > aktuelle GPUs bieten mehr Raytracing Power als
    > CPUs...
    ... behauptet nvidea. ;)

    Tatsächlich hängt das von vielen Faktoren ab wie z.B. der Komplexität der Szene, verwendeten shadern...
    Ich tendiere eher dazu die CPUs noch leicht vorne zu sehen. Und um die mit GPUs vebundenen Kompatibilitätsprobleme auszugleichen, müssten die meiner Meinung nach schon einen sehr klaren Vorteil bringen.

  8. Re: ruckelt!

    Autor: loolig 26.06.09 - 14:47

    ich denke über 200 parallele Rechenoperationen sind klare Vorteile.
    Es gibt nur wenige Dinge die sie sich so gut parallelisieren lassen wie Raytracing..GPU Cluster sind daher geradezu Ideal..

  9. Re: ruckelt!

    Autor: coder 26.06.09 - 15:24

    loolig schrieb:
    -------------------------------------------------------
    > ich denke über 200 parallele Rechenoperationen
    > sind klare Vorteile.
    > Es gibt nur wenige Dinge die sie sich so gut
    > parallelisieren lassen wie Raytracing..GPU Cluster
    > sind daher geradezu Ideal..

    Heutige GPUs sind nur stark wenn sie auch tatsächlich etwas zu rechnen haben. Beim Raytracing sind allerdings auch komplexe Entscheidungen notwendig, und da hapert es noch bei den GPUs. Da nützt die ganze theoretische Rechenleistung nix.

  10. wofür

    Autor: thomasdhl 26.06.09 - 15:26

    mag sein dass ich den vorteil nicht sehe, aber wofür raytracing? wenn das video in sachen qualität aussagekräftig ist, dann scheint es ja nicht viel zu bringen. und höhere qualität würde ja noch mehr rechenleistung beanspruchen...

  11. Re: wofür

    Autor: Juggler2001 26.06.09 - 15:52


    > mag sein dass ich den vorteil nicht sehe, aber
    > wofür raytracing? wenn das video in sachen
    > qualität aussagekräftig ist, dann scheint es ja
    > nicht viel zu bringen. und höhere qualität würde
    > ja noch mehr rechenleistung beanspruchen...


    Mit so einer Frage macht man hier natürlich wieder die Büchse der Pandora auf weil das den Kleinkrieg zwischen Ray Tracing- und Rasterisierungs-Anhängern lostritt.

    Naja, sei's drum. Kurz zusammengefasst und ohne auf die Details eingehen zu wollen sind die Vorteile von Ray Tracing:
    - Physikalisch korrekte Schatten/Spiegelungen/Lichtbrechung
    - Für Programmierer weniger Sonderfälle die beachtet werden müssen
    - Bei statischen Teilen der Szene ist die Polygonmenge vergleichsweise unwichtig (->mehr Details)
    - Sehr simple Engine, die man leicht um weitere Effekte erweitern kann, z.B. weiche Schatten
    - Bildrate ist vor allem von der _sichtbaren_ Komplexität abhängig. (D.h.: wenn z.B. kein Wasser zu sehen ist wird auch keine Zeit mit dessen Berechnung vergeudet)

  12. Re: wofür

    Autor: JP 26.06.09 - 15:56

    thomasdhl schrieb:
    -------------------------------------------------------
    > mag sein dass ich den vorteil nicht sehe, aber
    > wofür raytracing? wenn das video in sachen
    > qualität aussagekräftig ist, dann scheint es ja
    > nicht viel zu bringen. und höhere qualität würde
    > ja noch mehr rechenleistung beanspruchen...


    in den letzten 5 Jahren ist die Echtzeit-Raytracing Qualität sowie Quantität gestiegen. Also es können inzwischen mehr Pixel, bei Raytracing nicht unbedeutend für die Qualität, bei gleichzeitig mehr FPS angezeigt werden. Zusätzlich werden zunehmend Effekte, wie bereit im Artikel erwähnt, fürs Realtime-Raytracing umgesetzt, was auch für eine Erhöhung der Qualität sorgt.

    Dies ist einmal klar auf die gestiegene Rechenpower aber auch auf die verbesserten und optimierten Algorithmen zurück zu führen. Also die Aussage, dass mehr Rechenpower benötigt wird um eine noch bessere Qualität des Raytracing zu ermöglichen man zwar im Groben stimmen, muss aber nicht unbedingt heißen, dass es zwangsweise auch langsamer wird.

    Und warum Raytracing: Raytracing, bzw eher eine Kombination aus verschiedenen Renderverfahren, wird nicht umsonst für das qualitative Rendering, Film und Print, eingesetzt. Zumal Raytracing den enormen Vorteil der Einfachheit hat, wie auch im Artikel angerissen. Effekte die mit der klassischen Echtzeit Render-Pipeline erzeugt werden, sind oft getrickst oder unbequem kompliziert (Transparenzen/Blending zum Beispiel). Zusätzlich bietet das Raytracing-Verfahren den Vorteil der Skalierung (Multi-PUs sind die Zukunft) und der Tatsache, dass der Rechenaufwand des Raytracings mit zunehmender Anzahl der Polygone sogar geringer als beim Rasterisierungs-Verfahren ist.

    Das mag noch dauern, bis Raytracing Massenmarkttauglich ist, aber die Vorteile sind nicht von der Hand zuweisen

  13. Re: wofür

    Autor: coder 26.06.09 - 15:57

    Das ist ein Spiel das für Rasterizing entwickelt wurde. Da kann man mit Raytracing zwar ein paar zusätzliche oder bessere Effekte hinzufügen, aber für die wirklich interessanten Sachen reicht die Rechenleistung einfach noch nicht. Wie sollte es da deutlich hübscher als das Original werden?

    Wenn du einen Eindruck von der Qualität von Raytracing bekommen möchtest, dann schau dich mal in den Gallerien von professionellen Raytracern um. Bis wir die Qualität vollständig (ohne Vorrausberechnungen) in Echtzeit haben werden wird es zwar noch sehr lange dauern, aber wenn man das Ziel erreichen möchte, dann muß man irgendwann den ersten Schritt machen.

    Aber Raytracing wird auch vorher schon Vorteile bieten.
    Viele Effekte sind mit Raytracing, vom Aufwand für den Programmierer her, einfacher zu erreichen, und/oder im Ergebnis korrekter als mit Rasterizing.
    Wenn Raytracing für das was du machen möchtest schnell genug wäre, und dabei bessere Ergebnisse bei weniger Aufwand für dich als Programmierer bietet, warum dann Rasterizing benutzen?
    Man darf halt nicht nur an AAA-Titel denken, wo das Geld sitzt jede Hardware bis an ihre Grenze zu treiben.

  14. NEIN, GPU ist schneller....

    Autor: whiteambit 26.06.09 - 18:06

    http://zfx.info/viewtopic.php?f=18&t=305&p=3335#p3335

    Eine GTX260 schafft hier ca. 20-50 fps. Die Shader sind sowieso garkein problem da man deferred shading macht. Ein Core2Dua schafft hier gerade mal 1-2fps. Mit viel optimierungen sicherlich ein wenig mehr, aber wohl kaum so viel viel wie eine GTX260...

  15. Re: wofür

    Autor: in sachen qualität 26.06.09 - 18:33

    in sache qualität kannst du zum beispiel mal einen blick in die blender gallerie werfen:
    http://www.blender.org/features-gallery/gallery/art-gallery/

    natürlich ist auch die gallerie des guten alten raytracers povray erwähnenswert:
    http://hof.povray.org/

    und nicht zu vergessen die gallerie des raytracers yafray:
    http://www.yafaray.org/gallery?g2_itemId=39

  16. Re: NEIN, GPU ist schneller....

    Autor: coder 26.06.09 - 18:40

    Wie gesagt, es hängt von der Situation ab. Ich bin absolut bereit zu glauben das man Situationen erschaffen kann in denen ne GPU tatsächlich 10-20x schneller ist. Das ist ja schließlich auch mindestens der Unterschied in der Rechenleistung.

    Aber die unter deinem Link geposteten, immernoch sehr einfachen Szenen gehören schon nicht mehr dazu. Schau dich mal um was wirklich optimierte CPU Raytracer in derartigen Situationen an FPS leisten. Ich bin mir nicht sicher ob mein Raytracer dich in der Scene auf nem core 2 duo schlagen könnte, aber bei ausschließlich Primärstralen, ca. 1 Million Bildpunkten und auf nem Core i7 Quad, hab ich mehr als 100 FPS. Und das für weitaus komplexere Szenen. Und es gibt deutlich schnellere CPU Raytracer als meinen.

    Ich will deine Leistung da wirklich nicht schmälern, denn es ist ne Leistung aus ner GPU eine derartige Leistung zu holen, aber wenn du deinen GPU Raytracer nicht mit den schnellsten CPU Raytracern vergleichst bleibt ein bitterer Beigeschmack.


  17. Re: NEIN, GPU ist schneller....

    Autor: ich auch 26.06.09 - 18:54

    coder schrieb:
    -------------------------------------------------------
    > Wie gesagt, es hängt von der Situation ab. Ich bin
    > absolut bereit zu glauben das man Situationen
    > erschaffen kann in denen ne GPU tatsächlich 10-20x
    > schneller ist. Das ist ja schließlich auch
    > mindestens der Unterschied in der Rechenleistung.
    >
    > Aber die unter deinem Link geposteten, immernoch
    > sehr einfachen Szenen gehören schon nicht mehr
    > dazu. Schau dich mal um was wirklich optimierte
    > CPU Raytracer in derartigen Situationen an FPS
    > leisten. Ich bin mir nicht sicher ob mein
    > Raytracer dich in der Scene auf nem core 2 duo
    > schlagen könnte, aber bei ausschließlich
    > Primärstralen, ca. 1 Million Bildpunkten und auf
    > nem Core i7 Quad, hab ich mehr als 100 FPS.

    Primärstrahlen sind uninterressant, Scanline gewinnt hier! Wie sieht es mit den Sekundärstrahlen aus? Wiviele FPS schaffst du da bei 500K Auflösung und einem 100K Model wenn die Primärstrahlen auseinanderlaufen? Und vor allem wo ist mal ein Link mit ein paar Bildern und Benchmarks, oder gar eine ausführbare demo?

    > Und
    > das für weitaus komplexere Szenen. Und es gibt
    > deutlich schnellere CPU Raytracer als meinen.
    >
    > Ich will deine Leistung da wirklich nicht
    > schmälern, denn es ist ne Leistung aus ner GPU
    > eine derartige Leistung zu holen, aber wenn du
    > deinen GPU Raytracer nicht mit den schnellsten CPU
    > Raytracern vergleichst bleibt ein bitterer
    > Beigeschmack.

    Wo währen Sie denn die schnellsten CPU Raytracer? Hast du da mal einen Link? Aber bitte nicht nur 5 Spheres tracen, bei sowas schaffst du auch mehrere hundert fps auf ner GPU! Habe noch keinen CPU-Raytracer gesehen der bei einer derartigen Szene die Sekundärstrahlen mit 50 fps darstellt. Und nicht vergessen, der GT300 kommt bald, und RT skaliert auch auf ner GPU gut mit weiteren Karten ;)

    PS: Ja, es ist eher ein proof of concept und noch nicht für eine Game Engine geeignet.

    PPS: Wie implementierst du ein MegaPartikelsystem als Raytracer ;)



  18. Re: NEIN, GPU ist schneller....

    Autor: JP 26.06.09 - 19:02

    Problem ist doch, wenn man es mal stark vereinfachen will, dass die CPU eher Logik-Optimiert ist und die GPU rechenstark. Um bei der Vereinfachung zu bleiben bedeutet das, das wenn viele Entscheidungen aka Vergleiche getroffen werden müssen und Aktionen eher dazu neigen asymetrisch zu verlaufen, hat die CPU den Vorteil. Wenn es aber um die reine Rechenkraft geht, ist die GPU vorn.

    Die Konsequenz ist folglich, dass die CPU bei komplexen Szenen, wenn es gilt viele "Entscheidungen zu treffen", ihre Vorteile ausspielen kann, wenns anständig programmiert und optimiert wurde.

  19. Re: NEIN, GPU ist schneller....

    Autor: Ach 26.06.09 - 19:29

    Was soll es denn da logisch zu entscheiden geben?
    Einfallswinkel = Ausfallswinkel bzw. = Einfallswinkel mal Brechungsindex und wenn die Oberfläche diffus reflektiert, dann entscheidet das Zufallsprinzip. Sämtliche Algorhythmen sind festgeschrieben, es müssen nur noch Formeln abgearbeitet werden, also ein ideales Fressen für GPU´s.

  20. Re: NEIN, GPU ist schneller....

    Autor: whiteambit 26.06.09 - 19:39

    nein, du musst deine raumteilungsstruktur durchlaufen (BSP, BVH) und entscheiden welchen zweig du zuerst durchläufst. Und wenn du im Leaf angekommen bist und keine Geometrie triffst musst du das letzte nicht traversierte element vom stack nehmen und weiterlaufen - und so fort. Das ist übrigens der hauptvorteil von z.B. sparse-voxel-octrees: das gesamte Leaf ist die Geometrie, so das du zumindest den Stack nicht mehr zurücklaufen musst. Das macht auf GPUs die sache vllt. noch 3x schneller...

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Computacenter AG & Co. oHG, München
  2. Anstalt für Kommunale Datenverarbeitung in Bayern (AKDB), München, Regensburg
  3. [bu:st] GmbH, München
  4. ALDI International Services GmbH & Co. oHG, Mülheim an der Ruhr, Düsseldorf, Dortmund, Duisburg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote


Haben wir etwas übersehen?

E-Mail an news@golem.de


  1. Frequenzen: Die USA kommen bei wichtigem 5G-Bereich sehr spät
    Frequenzen
    Die USA kommen bei wichtigem 5G-Bereich sehr spät

    Sehr spät geben die USA ihren Mobilfunkbetreibern das wichtige C-Band für ihre 5G-Netze. Das weiß auch die neue Chefin der FCC, Jessica Rosenworcel. Netzbetreiber geben über 81 Milliarden US-Dollar für 5G aus.

  2. Bundesnetzagentur: Immer mehr nicht öffentliche Campusnetze in Deutschland
    Bundesnetzagentur
    Immer mehr nicht öffentliche Campusnetze in Deutschland

    Mehr als 110 Unternehmen sind dabei, ein eigenes 5G-Netz zu bauen. Auch im neuen 26-GHz-Bereich für lokale und regionale Netze für 5G tut sich was. Diese sind auch öffentlich.

  3. Börse: Was zur Hölle ist ein SPAC?
    Börse
    Was zur Hölle ist ein SPAC?

    SPACs sind die neue Modewelle an der Börse: Firmen, die es eigentlich nicht könnten, gehen unter dem Mantel einer anderen Firma an die Börse. Golem.de hat unter den Mantel geschaut.


  1. 13:08

  2. 11:37

  3. 10:00

  4. 09:00

  5. 14:12

  6. 13:42

  7. 13:12

  8. 12:42