1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Start-up "Caustic" will Raytracing…
  6. Thema

Wird scheitern weil ...

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. Re: Wird scheitern weil ...

    Autor: lollol 09.03.09 - 20:07

    Wird vielleicht scheitern wegen mangelnder Akzeptanz:
    -Jede Engine muss neugeschrieben werden, am besten auch noch abwärtskompatibel
    zu herkömmlichen Grafikkarten
    -dasselbe mit den ganzen Entwicklungstools, Modellierprogrammen, usw.
    -Treiberprobleme
    -2D muss weiterhin funktionieren
    -$$$

    Bei einer Konsole sähe das etwaas anders aus, aber beim PC wird sich das nicht so schnell (nächste 5-10 Jahre) durchsetzen.

  2. Re: Punkt 5 ist geil...

    Autor: Argon 09.03.09 - 20:10

    Du verstehst es einfach nicht, oder?

    Wie bitte schön willst du denn einen First Person Shooter wie z.B. Halo 3 mit vorgerenderten Filmen hinbekommen?

    Das geht genausowenig wie du mal eben in einem Spielfilm die Kamera beliebig verschieben kannst.

  3. Re: Stimmt ja garnicht...

    Autor: coder 09.03.09 - 20:59

    Du schon wieder.

    kD-trees sind out, BVH ist in, und damit sind dynamische Szenen kein Problem.

    Filmstudios haben andere Ansprüche. Die Positionen der Cameras sind bekannt, es werden für jede Szene u.U. Shader und Beleuchtung geändert, um nen bestimmten Look zu erzeugen und die Szenen passen vermutlich nicht mal auf Deine Festplatte. Interaktive Grafik für Spiele hat ganz andere Vorraussetzungen.

    Ambient Occlusion ist nicht annähernd so aufwändig wie Du zu denken scheinst. Mit einer derartigen Leistung wie hier angedeuted wird (insgesamt 200x über heutiger PC-Hardware) sollte Distribution Raytracing drin sein, wenn man halt nicht nur die naivsten Algorythmen benutzt. Und damit bekommst Du gleich noch ne ganze Menge extra Effekte. ;)

    Bring Dich endlich mal auf den neuesten Stand!

  4. Re: Es wird gelingen

    Autor: macrix 09.03.09 - 21:29

    Geiler Beitrag, danke :)

  5. Re: Stimmt ja garnicht...

    Autor: ich auch 09.03.09 - 21:39

    coder schrieb:
    -------------------------------------------------------
    > Du schon wieder.

    Hab doch nocht garnichts dazu geschrieben
    >
    > kD-trees sind out, BVH ist in, und damit sind
    > dynamische Szenen kein Problem.

    Komisch, wieso braucht das dann auch erstmal ein langes einteilen der Szene was nicht dynamisch funktioniert?

    > Filmstudios haben andere Ansprüche. Die Positionen
    > der Cameras sind bekannt, es werden für jede Szene
    > u.U. Shader und Beleuchtung geändert, um nen
    > bestimmten Look zu erzeugen und die Szenen passen
    > vermutlich nicht mal auf Deine Festplatte.
    > Interaktive Grafik für Spiele hat ganz andere
    > Vorraussetzungen.

    Danke für diesen schönen satz. Der bezog sich worauf?

    > Ambient Occlusion ist nicht annähernd so aufwändig
    > wie Du zu denken scheinst.

    Mit Raytracing schon, ansonsten kann man das gut in echtzeit machen...

    > Mit einer derartigen
    > Leistung wie hier angedeuted wird (insgesamt 200x
    > über heutiger PC-Hardware) sollte Distribution
    > Raytracing drin sein, wenn man halt nicht nur die
    > naivsten Algorythmen benutzt.

    Raytracing ist der naive Ansatz. Wieviele strahlen willst du denn Pro Reflektion wegschießen damit du AO erhälst? Die anderen "nicht naiven" Algorythmen sind dann doch wieder Scanline...

    > Und damit bekommst
    > Du gleich noch ne ganze Menge extra Effekte. ;)

    Und das währen ausser spiegelungen und caustics?

    > Bring Dich endlich mal auf den neuesten Stand!

    Bin ich, abwechselnd werden alle 5 Jahre Voxel/Raytracing engines gehyped. Dachte eigentlich es währe wieder der Voxel hype dran nachdem ich den letzten c't artikel gelesen habe - aber diese vapoware bringt wohl den rythmus durcheinander. Naja Duke Nuke em Forever wird bestimmt RT unterstützen...

  6. Re: Stimmt ja garnicht...

    Autor: coder 09.03.09 - 22:04

    ich auch schrieb:
    -------------------------------------------------------
    > coder schrieb:
    > --------------------------------------------------
    > -----
    > > Du schon wieder.
    >
    > Hab doch nocht garnichts dazu geschrieben

    Aber schon genug Blödsinn zu anderen Raytracing Diskussionen. ;)
    > >
    > kD-trees sind out, BVH ist in, und
    > damit sind
    > dynamische Szenen kein Problem.
    >
    > Komisch, wieso braucht das dann auch erstmal ein
    > langes einteilen der Szene was nicht dynamisch
    > funktioniert?

    Die BVH baust Du nur einmal auf, danach werden nur noch die Positionen geupdated. Das geht in null komma nix.
    >
    > > Filmstudios haben andere Ansprüche. Die
    > Positionen
    > der Cameras sind bekannt, es
    > werden für jede Szene
    > u.U. Shader und
    > Beleuchtung geändert, um nen
    > bestimmten Look
    > zu erzeugen und die Szenen passen
    > vermutlich
    > nicht mal auf Deine Festplatte.
    > Interaktive
    > Grafik für Spiele hat ganz andere
    >
    > Vorraussetzungen.
    >
    > Danke für diesen schönen satz. Der bezog sich
    > worauf?

    Das sind mehrere Sätze die sich auf deine Aussage zum Thema Filmstudios bezogen!?

    >
    > > Ambient Occlusion ist nicht annähernd so
    > aufwändig
    > wie Du zu denken scheinst.
    >
    > Mit Raytracing schon, ansonsten kann man das gut
    > in echtzeit machen...

    Boa, alles was Du nicht kennst, und Du Dir nicht vorstellen kannst existiert nicht!?

    >
    > > Mit einer derartigen
    > Leistung wie hier
    > angedeuted wird (insgesamt 200x
    > über heutiger
    > PC-Hardware) sollte Distribution
    > Raytracing
    > drin sein, wenn man halt nicht nur die
    >
    > naivsten Algorythmen benutzt.
    >
    > Raytracing ist der naive Ansatz. Wieviele strahlen
    > willst du denn Pro Reflektion wegschießen damit du
    > AO erhälst? Die anderen "nicht naiven" Algorythmen
    > sind dann doch wieder Scanline...

    Scanline ist entweder ein Hack, oder viel aufwendiger als Raytracing.
    Mit nem ordentlichen sampling Algorythmus brauchst Du nicht allzu viele Strahlen. Aber wie viele würdest Du denn gerne 'wegschießen' wenn Du ein Budget von einigen hundert Strahlen pro Pixel hast? 10.000?

    >
    > > Und damit bekommst
    > Du gleich noch ne
    > ganze Menge extra Effekte. ;)
    >
    > Und das währen ausser spiegelungen und caustics?

    Caustics sind ein Fall für z.B. Photon Mapping. ;)
    Aber wie wärs mit DoF, Motion Blur, Diffuse Reflection, Antialiasing, soft Shadows... Alles im Preis mit drin.

    >
    > > Bring Dich endlich mal auf den neuesten
    > Stand!
    >
    > Bin ich, abwechselnd werden alle 5 Jahre
    > Voxel/Raytracing engines gehyped. Dachte
    > eigentlich es währe wieder der Voxel hype dran
    > nachdem ich den letzten c't artikel gelesen habe -
    > aber diese vapoware bringt wohl den rythmus
    > durcheinander. Naja Duke Nuke em Forever wird
    > bestimmt RT unterstützen...

    Bist Du offensichtlich nicht. Und Du hast scheinbar auch kein großes Interesse das zu ändern, da Du ja sowieso am besten bescheid weißt. ;)

  7. Unsinn im Quadrat

    Autor: darkfate 09.03.09 - 22:20

    Tayktyak schrieb:
    -------------------------------------------------------
    > 1. Da dem PC-Markt keine erste Aufmerksamkeit
    > geschenkt wird

    Unsinn: NVIDIA und AMD forschen schon lange fleißig in der Richtung

    > Alle Technik muss 100% mit Konsolen funktionieren
    > Da man für diese Software spezielle Hardware
    > benötigt wird es sich nicht durchsetzen

    Totaler Unsinn. Der PC lenkt die Konsolen und nicht umgekehrt oder hast du vergessen woher DirecX und die ganze Live Geschichte herkommt. Nicht anders wird es bei Dx 11

    > 2. Da viele mATX Motherboards keine Schnittstelle
    > zur Verfügung haben

    Unsinnn!!!!!!!!!!!!!!!

    > 3. Da in einer Wirtschaftskrise man sich nicht
    > gerne auf Experimente einlässt

    Unsinn. Das eine hat nichts mit dem anderen zu tun. Raytracing wird sich durchsetzen

    > 4. Raytracing bietet nicht unbedingt mehr Vorteile
    > gegenüber OpenGL oder DirectX besonders mit den
    > aktuellen Prozessoren

    Hast du schon wieder aus dem Klog gesoffen oder wo bekommt man so ein Quatsch her. Normale Grafikkarten skalieren Linear mit der Polygonanzahl. Raytracing skaliert logarithmisch!

    > 5. Vorgerenderte DivX-Dateien (Oder andere
    > Blizzard benutzt DivX) ersetzen doch schon heute
    > Raytracing in Spielen

    Tu mir einen gefallen und erschiess dich bevor du die anderen noch mehr verwirrst.

    > 6. Raytracing wird sich nur durchsetzen wenn Sony,
    > Nintendo oder Microsoft es will

    Das kommt raus wenn man keine Ahnung hat. Weder Sony noch Nintendo hat einfluss auf den Grafikakrtenmarkt. Microsoft erstellt die Standards in starker Kooperation mit AMD und NVIDIA.

  8. Re: Stimmt ja garnicht...

    Autor: ich auch 09.03.09 - 22:30

    coder schrieb:
    -------------------------------------------------------


    > Die BVH baust Du nur einmal auf, danach werden nur
    > noch die Positionen geupdated. Das geht in null
    > komma nix.

    Naja, dann skalierst du entweder wieder auf die anzahl der Objekte, oder du musst wieder alles neu durchrechnen. Das ist also auch kein gewinn gegenüber scanline von der Performance...

    > Danke für diesen
    > schönen satz. Der bezog sich
    > worauf?
    >
    > Das sind mehrere Sätze die sich auf deine Aussage
    > zum Thema Filmstudios bezogen!?

    Das die meisten Profi-Renderer in erste instanz scanline sind hast du damit aber nicht wiederlegt! Aber danke, jetzt weiss ich das die Szenen angeblich nicht bei mir auf die Festplatte passen

    > > Ambient Occlusion ist nicht
    > annähernd so
    > aufwändig
    > wie Du zu denken
    > scheinst.
    >
    > Mit Raytracing schon,
    > ansonsten kann man das gut
    > in echtzeit
    > machen...
    >
    > Boa, alles was Du nicht kennst, und Du Dir nicht
    > vorstellen kannst existiert nicht!?

    Na wie geht denn dann "einfaches" Ambient Occlusion mittels RT? Und warum wird das in der praxis nirgends so gemacht sondern mittels Radiosity?

    > >
    > > Mit einer derartigen
    > Leistung
    > wie hier
    > angedeuted wird (insgesamt 200x
    >
    > über heutiger
    > PC-Hardware) sollte
    > Distribution
    > Raytracing
    > drin sein, wenn
    > man halt nicht nur die
    >
    > naivsten
    > Algorythmen benutzt.
    >
    > Raytracing ist der
    > naive Ansatz. Wieviele strahlen
    > willst du
    > denn Pro Reflektion wegschießen damit du
    > AO
    > erhälst? Die anderen "nicht naiven"
    > Algorythmen
    > sind dann doch wieder
    > Scanline...
    >
    > Scanline ist entweder ein Hack, oder viel
    > aufwendiger als Raytracing.
    > Mit nem ordentlichen sampling Algorythmus brauchst
    > Du nicht allzu viele Strahlen. Aber wie viele
    > würdest Du denn gerne 'wegschießen' wenn Du ein
    > Budget von einigen hundert Strahlen pro Pixel
    > hast? 10.000?

    Mit RT geben 256 strahlen brauchbare ergebnisse, wenn man hacks wie MoteKarlo dazu nimmt. Ist aber dann auch schon kein RT mehr, da so eher die farbe erraten wird. Deswegen wird reines RT in echtzeit aber eben nie gute ergebnisse liefern

    > > Und damit bekommst
    > Du gleich
    > noch ne
    > ganze Menge extra Effekte. ;)
    >
    > Und das währen ausser spiegelungen und
    > caustics?
    >
    > Caustics sind ein Fall für z.B. Photon Mapping.
    > ;)
    > Aber wie wärs mit DoF, Motion Blur, Diffuse
    > Reflection, Antialiasing, soft Shadows... Alles im
    > Preis mit drin.

    Alles Effecte die jeden Raytracer KILLEN, wenn du das wirklich mit RT machen willst, und nicht eine andere berechnungsmethode als RT dafür herangezogen wird. Und alles bereiche die Scanline auch problem darstellen.

    Bisher hast eine chance auf echtzeit RT, wenn du die strahlen nicht wirklich verfolgst, sondern pro pixel ein strahl abschickst und bei der ersten intersection schluss machst. Und die szenenkomplexität ab der der break-even-point erreicht ist passt nichtmal in deinen Hauptspeicher...

    > > Bring Dich endlich mal auf den
    > neuesten
    > Stand!
    >
    > Bin ich,
    > abwechselnd werden alle 5 Jahre
    >
    > Bist Du offensichtlich nicht. Und Du hast
    > scheinbar auch kein großes Interesse das zu
    > ändern, da Du ja sowieso am besten bescheid weißt.
    > ;)


    Ausser falschen behauptungen wie das es im RT sehr teure effecte "umsonst dazu" gäbe hast du aber auch nicht viel zu bieten...

    Wo ist denn dann man ein Paper das beschreibt wie man z.B. AO kostengünstig per RT erzeugen kann? Geht nicht effizient mit RT!

  9. Re: Punkt 5 ist geil...

    Autor: ZOMG 09.03.09 - 23:23

    Moorhun war doch auch ein FPS ^^

    Argon schrieb:
    -------------------------------------------------------
    > Du verstehst es einfach nicht, oder?
    >
    > Wie bitte schön willst du denn einen First Person
    > Shooter wie z.B. Halo 3 mit vorgerenderten Filmen
    > hinbekommen?
    >
    > Das geht genausowenig wie du mal eben in einem
    > Spielfilm die Kamera beliebig verschieben kannst.
    >
    >


  10. Re: Stimmt ja garnicht...

    Autor: coder 10.03.09 - 00:05

    ich auch schrieb:
    -------------------------------------------------------
    > coder schrieb:
    > --------------------------------------------------
    > -----
    >
    > > Die BVH baust Du nur einmal auf, danach
    > werden nur
    > noch die Positionen geupdated. Das
    > geht in null
    > komma nix.
    >
    > Naja, dann skalierst du entweder wieder auf die
    > anzahl der Objekte, oder du musst wieder alles neu
    > durchrechnen. Das ist also auch kein gewinn
    > gegenüber scanline von der Performance...

    Dieses Update ist nur für die dynamischen Teile einer Szene notwendig die auch zu sehen sind. Pflanzen u. ä. die sich nur leicht im Wind bewegen muss man u. U. nicht einmal Updaten!

    Solange Du nur an die direkte Projektion von Objekten auf den Bildschirm (Primärstrahlen) denkst, denkst Du an die primäre (einzige?) Stärke von Rasterizern. Natürlich ist es für nen Raytracer schwer nen Rasterizer dort zu schlagen. Aber mal ehrlich... Wenn Du ne komplexe Szene erstellst, kannst Du die einfach in einen Raytracer laden, und sie läuft. Ab nem bestimmten Punkt musst Du bei nem Rasterizer Occlusion Queries (vermutlich von Hand) erstellen, brauchst zusätzliche LoDs... Ich denke der Aufwand wird irgendwann einfach zu groß werden den Raytracer zu schlagen.
    Wenn sekundäre Effekte mit einbezogen werden wird dieser Punkt noch viel früher erreicht werden.

    > > Danke für diesen
    > schönen satz. Der bezog
    > sich
    > worauf?
    >
    > Das sind mehrere
    > Sätze die sich auf deine Aussage
    > zum Thema
    > Filmstudios bezogen!?
    >
    > Das die meisten Profi-Renderer in erste instanz
    > scanline sind hast du damit aber nicht wiederlegt!
    > Aber danke, jetzt weiss ich das die Szenen
    > angeblich nicht bei mir auf die Festplatte passen

    Es geht mir nicht darum das zu wiederlegen, sondern darum das die eine andere Ausgangslage haben. Nur weil die etwas mit Methode X machen heißt weder das Methode X für jede Situation besser ist, noch das es unbedingt die beste Methode ist die sie selber nutzen könnten. Ein derart komplexes und bewährtes System eben mal zu ändern, nur weil sich evtl. andere Möglichkeiten auftuen, ist nicht so einfach...

    > > > Ambient Occlusion ist nicht
    >
    > annähernd so
    > aufwändig
    > wie Du zu
    > denken
    > scheinst.
    >
    > Mit Raytracing
    > schon,
    > ansonsten kann man das gut
    > in
    > echtzeit
    > machen...
    >
    > Boa, alles was
    > Du nicht kennst, und Du Dir nicht
    > vorstellen
    > kannst existiert nicht!?
    >
    > Na wie geht denn dann "einfaches" Ambient
    > Occlusion mittels RT? Und warum wird das in der
    > praxis nirgends so gemacht sondern mittels
    > Radiosity?

    Radiosity??? Sind wir jetzt wieder in den achzigern? Wer zum Hänker setzt denn heute noch Radiosity ein?
    Außerdem ist Radiosity ein Weg GI zu berechnen, Ambient Occlusion dagegen nur eine vereinfachtes Verfahren um nen Eindruck von GI zu vermitteln.
    Und wie das mit RT geht? Wenn man mit Distribution Raytracing sowieso zig Rays per Pixel verschiesst, verteilst Du die Strahlen einfach nur nach Bedarf! Bei X Strahlen hat jeder Strahl im Schnitt ja nur 1/x Anteil an der Farbe des Pixels.

    >
    > > >
    > > Mit einer derartigen
    >
    > Leistung
    > wie hier
    > angedeuted wird
    > (insgesamt 200x
    >
    > über heutiger
    >
    > PC-Hardware) sollte
    > Distribution
    >
    > Raytracing
    > drin sein, wenn
    > man halt
    > nicht nur die
    >
    > naivsten
    > Algorythmen
    > benutzt.
    >
    > Raytracing ist der
    > naive
    > Ansatz. Wieviele strahlen
    > willst du
    > denn
    > Pro Reflektion wegschießen damit du
    > AO
    >
    > erhälst? Die anderen "nicht naiven"
    >
    > Algorythmen
    > sind dann doch wieder
    >
    > Scanline...
    >
    > Scanline ist entweder ein
    > Hack, oder viel
    > aufwendiger als
    > Raytracing.
    > Mit nem ordentlichen sampling
    > Algorythmus brauchst
    > Du nicht allzu viele
    > Strahlen. Aber wie viele
    > würdest Du denn
    > gerne 'wegschießen' wenn Du ein
    > Budget von
    > einigen hundert Strahlen pro Pixel
    > hast?
    > 10.000?
    >
    > Mit RT geben 256 strahlen brauchbare ergebnisse,
    > wenn man hacks wie MoteKarlo dazu nimmt. Ist aber
    > dann auch schon kein RT mehr, da so eher die farbe
    > erraten wird. Deswegen wird reines RT in echtzeit
    > aber eben nie gute ergebnisse liefern

    Boa, Monte Carlo Raytracing ist Raytracing. Steht schon im Namen.
    Und das ist ein Hack? Dann können wir gleich jede Art ein Bild zu erstellen einen Hack nennen. Bleib doch bitte mal auf dem Teppich.
    Und Du wirst in einem Spiel auch meist keine 256 Strahlen benötigen. Und mit nem adaptiven Verfahren könnte man das sogar noch weiter reduzieren.

    >
    > > > Und damit bekommst
    > Du gleich
    >
    > noch ne
    > ganze Menge extra Effekte.
    > ;)
    >
    > Und das währen ausser
    > spiegelungen und
    > caustics?
    >
    > Caustics sind ein Fall für z.B. Photon
    > Mapping.
    > ;)
    > Aber wie wärs mit DoF,
    > Motion Blur, Diffuse
    > Reflection,
    > Antialiasing, soft Shadows... Alles im
    > Preis
    > mit drin.
    >
    > Alles Effecte die jeden Raytracer KILLEN, wenn du
    > das wirklich mit RT machen willst, und nicht eine
    > andere berechnungsmethode als RT dafür
    > herangezogen wird. Und alles bereiche die Scanline
    > auch problem darstellen.
    >
    > Bisher hast eine chance auf echtzeit RT, wenn du
    > die strahlen nicht wirklich verfolgst, sondern pro
    > pixel ein strahl abschickst und bei der ersten
    > intersection schluss machst. Und die
    > szenenkomplexität ab der der break-even-point
    > erreicht ist passt nichtmal in deinen
    > Hauptspeicher...

    Hallo? Natürlich geht das auf heutiger Hardware nicht! Lass doch bitte mal Crysis mit nem software Rasterizer auf ner CPU 'rennen'. Dann erkennst Du vielleicht warum ein Raytracer auf ner CPU gegen nen Rasterizer auf ner GPU alt aussieht.
    Darum ging es doch in dem Artikel. Raytracing zu beschleunigen.

    > > > Bring Dich endlich mal auf den
    >
    > neuesten
    > Stand!
    >
    > Bin ich,
    >
    > abwechselnd werden alle 5 Jahre
    >
    > Bist Du
    > offensichtlich nicht. Und Du hast
    > scheinbar
    > auch kein großes Interesse das zu
    > ändern, da
    > Du ja sowieso am besten bescheid weißt.
    > ;)
    >
    > Ausser falschen behauptungen wie das es im RT sehr
    > teure effecte "umsonst dazu" gäbe hast du aber
    > auch nicht viel zu bieten...

    Wenn Du die Leistung hast ein paar hundert Rays per Pixel zu verschiessen, brauchst Du sie nur noch nach Wichtigkeit zu verteilen. Welche und wieviele Effekte Du dann haben möchtest ist relativ unerheblich, also quasi 'umsonst'. Und vermutlich reichen in den meisten Situationen schon wenige dutzend Strahlen.

    > Wo ist denn dann man ein Paper das beschreibt wie
    > man z.B. AO kostengünstig per RT erzeugen kann?
    > Geht nicht effizient mit RT!
    >
    >

    Lies doch bitte mal
    http://www.sci.utah.edu/~wald/Publications/2006///Cook/download//cook.pdf
    und skalier das das mal auf Larrabee oder die von 'Caustic' angedachte Hardware...

  11. The Matrix Pre-Rendered

    Autor: Carl Weathers 10.03.09 - 00:40

    ... oder nenne es Cyberspace, Metaversum, Third Life, Virtual Reality+. Die Zukunft wird definitiv nicht vorgerendert sein.

    Real Time Raytracing stelle ich mir dagegen sehr interessant vor.

  12. Re: The Matrix Pre-Rendered

    Autor: spanther 10.03.09 - 01:12

    Carl Weathers schrieb:
    -------------------------------------------------------
    > ... oder nenne es Cyberspace, Metaversum, Third
    > Life, Virtual Reality+. Die Zukunft wird definitiv
    > nicht vorgerendert sein.
    >
    > Real Time Raytracing stelle ich mir dagegen sehr
    > interessant vor.


    Jop. Habe auch mal Raytracing Bilder gesehen und die sehen wirklich hammer aus...
    Soetwas als Spielgrafik, dann schaut das aus wie in echt O.o
    Will haben x)

  13. Re: Wird scheitern weil ...

    Autor: WTF 10.03.09 - 02:59

    Tayktyak schrieb:
    -------------------------------------------------------
    > 1. Da dem PC-Markt keine erste Aufmerksamkeit
    > geschenkt wird

    Bullshit, deshalb setzen die Milliarden jedes Jahr um.

    > Alle Technik muss 100% mit Konsolen funktionieren
    > Da man für diese Software spezielle Hardware
    > benötigt wird es sich nicht durchsetzen

    Vielleicht bei der nächsten Generation?

    > 2. Da viele mATX Motherboards keine Schnittstelle
    > zur Verfügung haben

    mATX sind ja meistens auch Kisten die man fürs Zocken benutzt oder?

    Von was für einer Schnittstelle sprichst du? Die einzige die erwähnt wird ist CausticGL die auf GLSL von OpenGL setzt und wie im Beitragerwähnt SOFTWARE SEITIG ist!

    > 3. Da in einer Wirtschaftskrise man sich nicht
    > gerne auf Experimente einlässt

    Ja und die Kriese geht ja niemehr vorbei?

    > 4. Raytracing bietet nicht unbedingt mehr Vorteile
    > gegenüber OpenGL oder DirectX besonders mit den
    > aktuellen Prozessoren

    Raytracing hat 0 mit OpenGL oder DirectX zu tun!

    > 5. Vorgerenderte DivX-Dateien (Oder andere
    > Blizzard benutzt DivX) ersetzen doch schon heute
    > Raytracing in Spielen

    Ich wusste garnicht das Videos Interaktiv sind? oO

    > 6. Raytracing wird sich nur durchsetzen wenn Sony,
    > Nintendo oder Microsoft es will

    Ja ne ist klar. oO

  14. Re: omg...

    Autor: Unwissender 10.03.09 - 09:51

    http://www.stupidedia.org/stupi/Hauptseite

    In etwa sowas?

  15. Re: Stimmt ja garnicht...

    Autor: ich auch 11.03.09 - 22:58

    coder schrieb:
    >
    > Lies doch bitte mal
    > www.sci.utah.edu
    > und skalier das das mal auf Larrabee oder die von
    > 'Caustic' angedachte Hardware...

    also wenn schon dann sowas, wo du doch immer nach dem neuesten schreist.

    (heigh-ti-ti-pi-doublepoint-doubleslash)gamma(point)cs(point)unc(point)edu(slash)SR(slash)Selective .pdf

    Sorry musst die adresse selbst zusammen bastenln [Ihr Beitrag enthält Worte oder Wortgruppen, die von der Verwendung im Forum ausgeschlossen wurden. Im Allgemeinen betrifft dies Domains, die zuvor in SPAM-Beiträgen verwendet wurden. Sollten Sie dies für einen Fehler halten, setzen Sie sich bitte mit Golem.de in Verbindung (optimal: E-Mail mit gewünschtem Beitragstext und Nutzernamen.)]



    Ich sehe trotzdem den Scanline nicht abgelöst! RT wird bestenfalls noch ein "dazugefummel für reflectionen" und nicht das heilmittel das alles vereinfacht. Dazu ist der Performance verlust von reinem RT einfach zu hoch, und der Gewinn geht gegen Null! Deswegen wird das auch bei Profi RTs meistens so gemacht. Natürlich kannst du an vielen stellen noch Optimieren an Profi RTs, aber zuerst Scanline zu benutzen ist eine der ganz großen schon vorhandenen Optimierungen, die wird man bei games nicht aufgeben.

  16. Re: Stimmt ja garnicht...

    Autor: coder 12.03.09 - 15:26

    ich auch schrieb:
    -------------------------------------------------------
    > also wenn schon dann sowas, wo du doch immer nach
    > dem neuesten schreist.
    >
    > (heigh-ti-ti-pi-doublepoint-doubleslash)gamma(poin
    > t)cs(point)unc(point)edu(slash)SR(slash)Selective
    > .pdf
    >
    > Sorry musst die adresse selbst zusammen bastenln
    >
    Das Paper ist zwar etwas neuer, beschäftigt sich aber wieder nur mit der Lösung eines bestimmten Problems. Alleine in den letzten Monaten hab ich wohl dutzende von solchen Papern durchgearbeitet.
    Das von mir gepostete ist zwar nicht mehr auf dem neuesten Stand, zeigt aber einen guten Ansatz um in naher Zukunft Distribution Raytracing in Echtzeit zu ermöglichen, und das ist mMn. die Voraussetzung um gegenüber Rasterizing einen echten Vorteil zu erlangen.

    >
    > Ich sehe trotzdem den Scanline nicht abgelöst! RT
    > wird bestenfalls noch ein "dazugefummel für
    > reflectionen" und nicht das heilmittel das alles
    > vereinfacht. Dazu ist der Performance verlust von
    > reinem RT einfach zu hoch, und der Gewinn geht
    > gegen Null! Deswegen wird das auch bei Profi RTs
    > meistens so gemacht. Natürlich kannst du an vielen
    > stellen noch Optimieren an Profi RTs, aber zuerst
    > Scanline zu benutzen ist eine der ganz großen
    > schon vorhandenen Optimierungen, die wird man bei
    > games nicht aufgeben.

    Ok, fangen wir es mal andersherum an.
    Bei den meisten heutigen Spielen dominieren die Shader-Berechnungen die Renderzeiten.
    Selbst wenn Rasterizer keine Zeit benötgen würden um zu ermitteln welche Geometrie auf dem Bildschirm dargestellt werden muss, bleiben immer noch die Shader-Zeiten. Die sind aber vom Prinzip her unabhängig davon ob die Vorberechnungen von einem Rasterizer oder Raytracer ausgeführt wurden.
    Da bei den wirklich schnellen Raytracern selbst bei komplexen Szenen die Shader-Zeiten aber ebenfalls schon min. 50% der Zeit ausmachen kannst Du mit der Nutzung von Rasterizing also maximal die anderen 50% einsparen, also die Geschwindigkeit bestenfalls verdoppeln.

    Der Grund dafür dass die Rasterizer so überlegen aussehen ist die deutlich stärkere Hardware auf der sie laufen, das sie im Vergleich zu Raytracern viel mehr Hacks und Fakes nutzen, und das es noch deutlich mehr know-how gibt wie man was mit Rasterizern am besten erreicht.

    Aber Geschwindigkeit ist doch kein Selbstzweck.
    Selbst die ganz großen Entwickler haben doch schon massive Probleme die immer größeren / detaillierteren Welten zu erstellen.
    Wenn jetzt sowohl Raytracing als auch Rasterizing schnell genug sind um das darzustellen was Du erstellen möchtest / kannst, dann ist doch nur noch entscheidend, was problemloser und flexibler ist, und die besseren Ergebnisse liefert. Und da wird Raytracing in Zukunft immer öfter die Nase vorn haben.

  17. Re: Stimmt ja garnicht...

    Autor: Dudelsack 26.06.09 - 19:57

    Hey, ein Nerdlängevergleich!
    Wenn ihr nicht umbedingt vergleichen müsstet, wer ähm die längere 3d Engine hat, würdet ihr euch wahrscheinlich ganz gut verstehen.

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Bundesrechnungshof, Bonn
  2. Schaeffler Technologies AG & Co. KG, Herzogenaurach
  3. über duerenhoff GmbH, Raum Offenbach
  4. Regierungspräsidium Darmstadt, Darmstadt

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. täglich neue Deals bei Alternate.de
  2. (reduzierte Überstände, Restposten & Co.)


Haben wir etwas übersehen?

E-Mail an news@golem.de


IT-Freelancer: Der kürzeste Pfad zum nächsten Projekt
IT-Freelancer
Der kürzeste Pfad zum nächsten Projekt

Die Nachfrage nach IT-Freelancern ist groß - die Konkurrenz aber auch. Der nächste Auftrag kommt meist aus dem eigenen Netzwerk oder von Vermittlern. Doch wie findet man den passenden Mix?
Ein Bericht von Manuel Heckel

  1. Selbstständiger Sysadmin "Jetzt fehlen nur noch die Aufträge"

Stellenanzeige: Golem.de sucht CvD (m/w/d)
Stellenanzeige
Golem.de sucht CvD (m/w/d)

Du bist News-Junkie, Techie, Organisationstalent und brennst für den Onlinejournalismus? Dann unterstütze die Redaktion von Golem.de als CvD.

  1. Stellenanzeige Golem.de sucht Verstärkung für die Redaktion
  2. Shifoo Golem.de startet Betatest seiner Karriere-Coaching-Plattform
  3. In eigener Sache Die 24-kernige Golem Workstation ist da

Poco X3 NFC im Test: Xiaomis neuer Preisbrecher überzeugt
Poco X3 NFC im Test
Xiaomis neuer Preisbrecher überzeugt

Das Poco X3 NFC ist Xiaomis jüngstes preiswertes Smartphone, die Ausstattung verspricht angesichts des Preises einiges - und hält etliches.
Ein Test von Tobias Költzsch

  1. Xiaomi Neues Poco-Smartphone mit Vierfachkamera kostet 200 Euro
  2. Smartphone Xiaomi stellt dritte Generation verdeckter Frontkameras vor
  3. Xiaomi Mi 10 Ultra kommt mit 120-Watt-Schnellladen