Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Virtual-Reality-Benchmarks: Geforce…

@golem: Basiswissen...

  1. Thema

Neues Thema Ansicht wechseln


  1. @golem: Basiswissen...

    Autor: xmaniac 05.12.17 - 16:20

    ...klären!

    Seit über drei Monaten hat OpenVR auch Asynchronous Timewarp (Spacewarp wird sicherlich bei einem Rennspiel nicht genutzt werden können, also der Translations-Ausgleich)...

    So und jetzt warte ich auf die Fanboys die einem jedes mal erklären müssen, dass ich davon keine Ahnung habe ;)



    1 mal bearbeitet, zuletzt am 05.12.17 16:20 durch xmaniac.

  2. Re: @golem: Basiswissen...

    Autor: otraupe 05.12.17 - 16:53

    Du hast keine Ahnung.

  3. Re: @golem: Basiswissen...

    Autor: xmaniac 05.12.17 - 18:02

    otraupe schrieb:
    --------------------------------------------------------------------------------
    > Du hast keine Ahnung.


    Danke, ich weiß ;) Spacewarp ist wirklich ein Marketing-Gag. Ohne Depth-Buffer läst sich ein (stereo) 2D Bild nur stark unzureichend in der translation korrigiern. Spacewarp gibt es schon lange, den Depth-Buffer nimmt die Oculus-API (LibOVR) erst seit kurzem entgegen, gesehen habe ich vom Spacewarp bisher nur auf der HoloLens etwas. Dort nimmt das SDK seit der ersten Version eine Ebene im Raum an, auf die die Tiefe korrigiert wird. Setzt man diese falsch, wird es richtig schlimm. Was man auf der Oculus besser fand, waren vermutlich eher Fehler die bisher in der OpenVR API bestanden - und ohne Softwareanpassung im Client auch weiterhin bestehen!

  4. Re: @golem: Basiswissen...

    Autor: otraupe 05.12.17 - 19:01

    xmaniac schrieb:
    --------------------------------------------------------------------------------
    > otraupe schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Du hast keine Ahnung.
    >
    > Danke, ich weiß ;) Spacewarp ist wirklich ein Marketing-Gag. Ohne
    > Depth-Buffer läst sich ein (stereo) 2D Bild nur stark unzureichend in der
    > translation korrigiern. Spacewarp gibt es schon lange, den Depth-Buffer
    > nimmt die Oculus-API (LibOVR) erst seit kurzem entgegen, gesehen habe ich
    > vom Spacewarp bisher nur auf der HoloLens etwas. Dort nimmt das SDK seit
    > der ersten Version eine Ebene im Raum an, auf die die Tiefe korrigiert
    > wird. Setzt man diese falsch, wird es richtig schlimm. Was man auf der
    > Oculus besser fand, waren vermutlich eher Fehler die bisher in der OpenVR
    > API bestanden - und ohne Softwareanpassung im Client auch weiterhin
    > bestehen!


    a) Ich habe das gesagt, weil ich ein VR-Fanboy bin.

    b) Ich habe das gesagt, weil... Spacewarp ist der "45-FPS-Modus", du sprichst über Time Warp, konkret über Asynchronous Time Warp (Time Warp als solcher ist eigentlich immer aktiv) :
    https://www.youtube.com/watch?v=WvtEXMlQQtI
    https://developer.oculus.com/blog/asynchronous-timewarp-on-oculus-rift/
    https://developer.oculus.com/blog/asynchronous-spacewarp/
    Ganz spannend die Links.

    c) Diese Nomenklatur ist eine mittelschwere Katastrophe. Ich zerbreche mir ein halbes Jahr später immer wieder den Schädel, wenn ich versuche die Dinger korrekt zu zu ordnen.

    d) Ja, keine dieser Techniken ist perfekt oder kann mit allen Problemsituationen gut umgehen. In der Praxis sind die gegenwärtigen Runtimes aber ok - rein phänomenal beurteilt (also vom Erleben her).

  5. Re: @golem: Basiswissen...

    Autor: xmaniac 05.12.17 - 21:06

    Ich habe von beidem gesprochen und das auch so benannt wie es heißt. Aber Spacewarp gibt es nicht wirklich, das ist mein Punkt. Auf der Oculus gibt es keinen Translationsausgleich.
    Übrigens meinst du, dass Timewarp immer aktiv ist (also der Ausgleich vom berechnen des Bildes bis zur Darstellung ohne drop). Auch der 45 fps Modus ist Timewarp, wenn die Rotation ausgeglichen wird.
    Das Asynchronous ist aber nicht immer aktiv. Dies bezeichnet die Fähigkeit einer GPU einen laufenden render slot (Shader) unterbrechen zu können. Das ist nicht immer aktiv und war Anfangs AMD GPUs vorbehalten.



    1 mal bearbeitet, zuletzt am 05.12.17 21:19 durch xmaniac.

  6. Re: @golem: Basiswissen...

    Autor: xmaniac 05.12.17 - 21:24

    Also, die versuchen dabei also gar nicht die Bewegung auszugleichen, sondern nur Zwischenbilder zu interpolieren wie das die hässlichen Fernseher machen...

  7. Re: @golem: Basiswissen...

    Autor: otraupe 06.12.17 - 10:22

    xmaniac schrieb:
    --------------------------------------------------------------------------------
    > Also, die versuchen dabei also gar nicht die Bewegung auszugleichen,
    > sondern nur Zwischenbilder zu interpolieren wie das die hässlichen
    > Fernseher machen...


    Sowas in der Art, vermutlich spezifisch für VR entwickelt. Konkret kann das natürlich keine Zwischenbildberechnung sein, weil man dafür warten müsste, bis das nächste Bild vorliegt, um das dazwischen zu berechnen. Und das wäre für die Latenz katastrophal. Darüber hinaus wird natürlich auch eine Tracking-Vorhersage berechnet, damit die Kopfposition bzw. offenbar nur die Orientierung (ich vertraue da deinem Hintergrundwissen) geupdated wird, die sich deutlich schneller ändert als die Position. Kopf-Translation ist größtenteils nur sehr langsam und wirkt sich auch schnell in der Größenordnung (11.1 ms) nur sichtbar aus, wenn man ganz dicht vor einem texturierten Objekt steht.

    Hier die Ähnlichkeit zum grundsätzlich aktiven Time Warp (ohne "asynchronous"), den man in frühen Unity-Demos noch an- oder abwählen konnte, und der meinem Verständnis nach nun immer aktiv ist (weil einfach viel besser als ohne):
    1. das Rendern basiert auf dem Tracking-State am Frame-Beginn
    2. dann wird möglichst spät im Frame noch einmal ein Tracking-State eingeholt
    3. auf dieser erweiterten Basis wird mittels Kalman-Filtern eine Vorhersage errechnet, wie der Tracking-State zu dem Zeitpunkt ist, wo das Bild _tatsächlich_ angezeigt wird (inkl. Display Input Lag)
    4. anhand dieser Vorhersage wird der gerenderte Inhalt geworped
    Soweit mein Verständnis der Materie.

    Und ja, Asynchronous Time Warp (und Async. Space Warp) sind nicht immer aktiv, sondern gleichen verpasste Frame-Deadlines aus. Mit Asynchronous Compute hat das allerdings nichts zu tun, denke ich. Das beschreibt die Fähigkeit einer GPU, parallel zu den grafikbezogenen Aufgaben auch anderen Berechnungen durchzuführen, ohne explizit einen (verlangsamenden) Kontextwechsel durchzuführen. Hier ist/war AMD der Vorreiter, siehe Performance-Vorsprung bei Ashes of the Singularity (?). Meiner Erinnerung nach war es so, dass AMD viel mehr parallele Berechnungen durchführen konnte/kann, dass es also mehr Queues gibt als bei NVidia.

  8. Re: @golem: Basiswissen...

    Autor: xmaniac 07.12.17 - 00:46

    Es hat insofern etwas mit Async Compute zu tun, als dass es egal ist, ob man den Context wechsel erzwingt um Compute Shader auszuführen, oder um einen Warp durchzuführen. Timewarp bekommst du halbwegs raus, indem du nochmal kurz vor dem Aufruf der Submit Funktion (nachdem das Bild berechnet wurde) die aktuelle Kopfposition abfragtst, und die API anlügst was die Position angeht ;) Mit Unity befasse ich mich da nicht unbedingt, wenn ich nicht muss...

    Da für Timewarp nur die Rotation gebraucht wird, sollte es eigentlich auch eine lineare interpolation (extrapolation) von Quaternions tun, ohne irgendwelche Filter.



    2 mal bearbeitet, zuletzt am 07.12.17 00:52 durch xmaniac.

  9. Re: @golem: Basiswissen...

    Autor: xmaniac 07.12.17 - 01:12

    Ok, es wird vermutlich auch im Quaternion-Raum errechnet, die Kalman-Filter braucht man dann vermutlich nur weil das Tracking selbst bei schnellen drehungen ungenau werden könnte. Wobei je schneller die Drehung, desto egaler die genauigkeit... vermutlich laufen die Filter ohnehin schon in einer Ebene darüber im Treiber der Tracker. Daher kann man das ab dort wohl ignorieren.

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. OPITZ CONSULTING Deutschland GmbH, verschiedene Standorte
  2. OPITZ CONSULTING Deutschland GmbH, Bad Homburg vor der Höhe, München
  3. GK Software SE, Berlin, Köln, Schöneck
  4. STRABAG BRVZ GMBH & CO.KG, Stuttgart

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Samsung 970 EVO 500 GB für 145,89€ inkl. Versand statt 156,81€ im Vergleich)
  2. 29,99€ + 5,99€ Versand (Vergleichspreis 52,26€)
  3. 15,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Threadripper 2990WX und 2950X im Test: Viel hilft nicht immer viel
Threadripper 2990WX und 2950X im Test
Viel hilft nicht immer viel

Für Workstations: AMDs Threadripper 2990WX mit 32 Kernen schlägt Intels ähnlich teure 18-Core-CPU klar und der günstigere Threadripper 2950X hält noch mit. Für das Ryzen-Topmodell muss aber die Software angepasst sein und sie darf nicht zu viel Datentransferrate benötigen.
Ein Test von Marc Sauter

  1. Threadripper 2990X AMDs 32-Kerner soll mit 4,2 GHz laufen
  2. AMD Threadripper v2 mit 32 Kernen erscheint im Sommer 2018
  3. Raven Ridge AMDs Athlon kehrt zurück

32-Kern-CPU: Threadripper 2990WX läuft mit Radeons besser
32-Kern-CPU
Threadripper 2990WX läuft mit Radeons besser

Auch wenn AMDs neuer Threadripper 2990WX mit 32 CPU-Kernen sich definitiv nicht primär an Spieler richtet, taugt er für Games. Kombiniert mit einer Geforce-Grafikkarte bricht die Bildrate allerdings teils massiv ein, mit einem Radeon-Modell hingegen nur sehr selten.
Ein Bericht von Marc Sauter

  1. Threadripper 2990WX AMDs 32-Kerner kostet weniger als Intels 18-Kerner
  2. Zhongshan Subor Z+ AMD baut SoC mit PS4-Pro-Leistung für chinesische Konsole
  3. Hygon Dhyana China baut CPUs mit AMDs Zen-Technik

IT-Jobs: Achtung! Agiler Coach gesucht?
IT-Jobs
Achtung! Agiler Coach gesucht?

Überall werden sie gesucht, um den digitalen Wandel voranzutreiben: agile Coaches. In den Jobbeschreibungen warten spannende Aufgaben, jedoch müssen Bewerber aufpassen, dass sie die richtigen Fragen stellen, wenn sie etwas bewegen möchten.
Von Marvin Engel

  1. Wework Die Kaffeeautomatisierung des Lebens
  2. IT-Jobs Fünf neue Mitarbeiter in fünf Wochen?
  3. Frauen in IT-Berufen Programmierte Klischees

  1. Geforce RTX: Deep-Learning-Kantenglättung soll Spiele verschönern
    Geforce RTX
    Deep-Learning-Kantenglättung soll Spiele verschönern

    Nvidia plant exklusives Anti-Aliasing für die Geforce RTX mit Turing-Technik und Tensor-Cores. Die glätten die Darstellung auf Basis vorher trainierter Referenzbilder, was wenig Leistung kosten und gut aussehen soll.

  2. Masterplan Digitalisierung: Niedersachsen will flächendeckende Glasfaserinfrastruktur
    Masterplan Digitalisierung
    Niedersachsen will flächendeckende Glasfaserinfrastruktur

    In Niedersachsen ist der Masterplan Digitalisierung verabschiedet worden. Wirtschaftsminister Althusmann zufolge ist Glasfaser die Grundlage für ein gutes Mobilfunk-Netz.

  3. Logitech G Pro Wireless: Mit Progamern entwickelte Maus wiegt 80 Gramm
    Logitech G Pro Wireless
    Mit Progamern entwickelte Maus wiegt 80 Gramm

    Von Gamern für Gamer: Die Logitech G Pro Wireless ist eine symmetrische Maus, die in Kooperation mit E-Sport-Teams wie London Spitfire entwickelt wurde. Das Ergebnis ist 80 Gramm leicht und hat einen hochauflösenden Sensor - ist aber auch recht teuer.


  1. 18:56

  2. 17:29

  3. 16:58

  4. 16:31

  5. 15:43

  6. 14:30

  7. 13:57

  8. 13:35