Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Virtual-Reality-Benchmarks: Geforce…

@golem: Basiswissen...

  1. Thema

Neues Thema Ansicht wechseln


  1. @golem: Basiswissen...

    Autor: xmaniac 05.12.17 - 16:20

    ...klären!

    Seit über drei Monaten hat OpenVR auch Asynchronous Timewarp (Spacewarp wird sicherlich bei einem Rennspiel nicht genutzt werden können, also der Translations-Ausgleich)...

    So und jetzt warte ich auf die Fanboys die einem jedes mal erklären müssen, dass ich davon keine Ahnung habe ;)



    1 mal bearbeitet, zuletzt am 05.12.17 16:20 durch xmaniac.

  2. Re: @golem: Basiswissen...

    Autor: otraupe 05.12.17 - 16:53

    Du hast keine Ahnung.

  3. Re: @golem: Basiswissen...

    Autor: xmaniac 05.12.17 - 18:02

    otraupe schrieb:
    --------------------------------------------------------------------------------
    > Du hast keine Ahnung.


    Danke, ich weiß ;) Spacewarp ist wirklich ein Marketing-Gag. Ohne Depth-Buffer läst sich ein (stereo) 2D Bild nur stark unzureichend in der translation korrigiern. Spacewarp gibt es schon lange, den Depth-Buffer nimmt die Oculus-API (LibOVR) erst seit kurzem entgegen, gesehen habe ich vom Spacewarp bisher nur auf der HoloLens etwas. Dort nimmt das SDK seit der ersten Version eine Ebene im Raum an, auf die die Tiefe korrigiert wird. Setzt man diese falsch, wird es richtig schlimm. Was man auf der Oculus besser fand, waren vermutlich eher Fehler die bisher in der OpenVR API bestanden - und ohne Softwareanpassung im Client auch weiterhin bestehen!

  4. Re: @golem: Basiswissen...

    Autor: otraupe 05.12.17 - 19:01

    xmaniac schrieb:
    --------------------------------------------------------------------------------
    > otraupe schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Du hast keine Ahnung.
    >
    > Danke, ich weiß ;) Spacewarp ist wirklich ein Marketing-Gag. Ohne
    > Depth-Buffer läst sich ein (stereo) 2D Bild nur stark unzureichend in der
    > translation korrigiern. Spacewarp gibt es schon lange, den Depth-Buffer
    > nimmt die Oculus-API (LibOVR) erst seit kurzem entgegen, gesehen habe ich
    > vom Spacewarp bisher nur auf der HoloLens etwas. Dort nimmt das SDK seit
    > der ersten Version eine Ebene im Raum an, auf die die Tiefe korrigiert
    > wird. Setzt man diese falsch, wird es richtig schlimm. Was man auf der
    > Oculus besser fand, waren vermutlich eher Fehler die bisher in der OpenVR
    > API bestanden - und ohne Softwareanpassung im Client auch weiterhin
    > bestehen!


    a) Ich habe das gesagt, weil ich ein VR-Fanboy bin.

    b) Ich habe das gesagt, weil... Spacewarp ist der "45-FPS-Modus", du sprichst über Time Warp, konkret über Asynchronous Time Warp (Time Warp als solcher ist eigentlich immer aktiv) :
    https://www.youtube.com/watch?v=WvtEXMlQQtI
    https://developer.oculus.com/blog/asynchronous-timewarp-on-oculus-rift/
    https://developer.oculus.com/blog/asynchronous-spacewarp/
    Ganz spannend die Links.

    c) Diese Nomenklatur ist eine mittelschwere Katastrophe. Ich zerbreche mir ein halbes Jahr später immer wieder den Schädel, wenn ich versuche die Dinger korrekt zu zu ordnen.

    d) Ja, keine dieser Techniken ist perfekt oder kann mit allen Problemsituationen gut umgehen. In der Praxis sind die gegenwärtigen Runtimes aber ok - rein phänomenal beurteilt (also vom Erleben her).

  5. Re: @golem: Basiswissen...

    Autor: xmaniac 05.12.17 - 21:06

    Ich habe von beidem gesprochen und das auch so benannt wie es heißt. Aber Spacewarp gibt es nicht wirklich, das ist mein Punkt. Auf der Oculus gibt es keinen Translationsausgleich.
    Übrigens meinst du, dass Timewarp immer aktiv ist (also der Ausgleich vom berechnen des Bildes bis zur Darstellung ohne drop). Auch der 45 fps Modus ist Timewarp, wenn die Rotation ausgeglichen wird.
    Das Asynchronous ist aber nicht immer aktiv. Dies bezeichnet die Fähigkeit einer GPU einen laufenden render slot (Shader) unterbrechen zu können. Das ist nicht immer aktiv und war Anfangs AMD GPUs vorbehalten.



    1 mal bearbeitet, zuletzt am 05.12.17 21:19 durch xmaniac.

  6. Re: @golem: Basiswissen...

    Autor: xmaniac 05.12.17 - 21:24

    Also, die versuchen dabei also gar nicht die Bewegung auszugleichen, sondern nur Zwischenbilder zu interpolieren wie das die hässlichen Fernseher machen...

  7. Re: @golem: Basiswissen...

    Autor: otraupe 06.12.17 - 10:22

    xmaniac schrieb:
    --------------------------------------------------------------------------------
    > Also, die versuchen dabei also gar nicht die Bewegung auszugleichen,
    > sondern nur Zwischenbilder zu interpolieren wie das die hässlichen
    > Fernseher machen...


    Sowas in der Art, vermutlich spezifisch für VR entwickelt. Konkret kann das natürlich keine Zwischenbildberechnung sein, weil man dafür warten müsste, bis das nächste Bild vorliegt, um das dazwischen zu berechnen. Und das wäre für die Latenz katastrophal. Darüber hinaus wird natürlich auch eine Tracking-Vorhersage berechnet, damit die Kopfposition bzw. offenbar nur die Orientierung (ich vertraue da deinem Hintergrundwissen) geupdated wird, die sich deutlich schneller ändert als die Position. Kopf-Translation ist größtenteils nur sehr langsam und wirkt sich auch schnell in der Größenordnung (11.1 ms) nur sichtbar aus, wenn man ganz dicht vor einem texturierten Objekt steht.

    Hier die Ähnlichkeit zum grundsätzlich aktiven Time Warp (ohne "asynchronous"), den man in frühen Unity-Demos noch an- oder abwählen konnte, und der meinem Verständnis nach nun immer aktiv ist (weil einfach viel besser als ohne):
    1. das Rendern basiert auf dem Tracking-State am Frame-Beginn
    2. dann wird möglichst spät im Frame noch einmal ein Tracking-State eingeholt
    3. auf dieser erweiterten Basis wird mittels Kalman-Filtern eine Vorhersage errechnet, wie der Tracking-State zu dem Zeitpunkt ist, wo das Bild _tatsächlich_ angezeigt wird (inkl. Display Input Lag)
    4. anhand dieser Vorhersage wird der gerenderte Inhalt geworped
    Soweit mein Verständnis der Materie.

    Und ja, Asynchronous Time Warp (und Async. Space Warp) sind nicht immer aktiv, sondern gleichen verpasste Frame-Deadlines aus. Mit Asynchronous Compute hat das allerdings nichts zu tun, denke ich. Das beschreibt die Fähigkeit einer GPU, parallel zu den grafikbezogenen Aufgaben auch anderen Berechnungen durchzuführen, ohne explizit einen (verlangsamenden) Kontextwechsel durchzuführen. Hier ist/war AMD der Vorreiter, siehe Performance-Vorsprung bei Ashes of the Singularity (?). Meiner Erinnerung nach war es so, dass AMD viel mehr parallele Berechnungen durchführen konnte/kann, dass es also mehr Queues gibt als bei NVidia.

  8. Re: @golem: Basiswissen...

    Autor: xmaniac 07.12.17 - 00:46

    Es hat insofern etwas mit Async Compute zu tun, als dass es egal ist, ob man den Context wechsel erzwingt um Compute Shader auszuführen, oder um einen Warp durchzuführen. Timewarp bekommst du halbwegs raus, indem du nochmal kurz vor dem Aufruf der Submit Funktion (nachdem das Bild berechnet wurde) die aktuelle Kopfposition abfragtst, und die API anlügst was die Position angeht ;) Mit Unity befasse ich mich da nicht unbedingt, wenn ich nicht muss...

    Da für Timewarp nur die Rotation gebraucht wird, sollte es eigentlich auch eine lineare interpolation (extrapolation) von Quaternions tun, ohne irgendwelche Filter.



    2 mal bearbeitet, zuletzt am 07.12.17 00:52 durch xmaniac.

  9. Re: @golem: Basiswissen...

    Autor: xmaniac 07.12.17 - 01:12

    Ok, es wird vermutlich auch im Quaternion-Raum errechnet, die Kalman-Filter braucht man dann vermutlich nur weil das Tracking selbst bei schnellen drehungen ungenau werden könnte. Wobei je schneller die Drehung, desto egaler die genauigkeit... vermutlich laufen die Filter ohnehin schon in einer Ebene darüber im Treiber der Tracker. Daher kann man das ab dort wohl ignorieren.

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. BWI GmbH, Bonn
  2. niiio finance group AG, deutschlandweit
  3. Computacenter AG & Co. oHG, München
  4. Schwarz Zentrale Dienste KG, Heilbronn

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (heute u. a. Dual DT 210 Plattenspieler 77,00€ statt 111,99€)
  2. (heute u. a. Beyerdynamic DTX 910 Kopfhörer, NZXT H700i Gehäuse, HP Notebook)
  3. (u. a. Canon EOS 2000D + Objektiv 18-55 mm für 299€ statt 394€ im Vergleich)
  4. ab 119,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Augmented Reality: Das AR-Fabrikgelände aus dem Smartphone
Augmented Reality
Das AR-Fabrikgelände aus dem Smartphone

Derzeit ist viel von einer Augmented Reality Cloud die Rede. Golem.de hat mit dem Berliner Startup Visualix über den Stand der Technik und künftige Projekte für Unternehmenskunden gesprochen - und darüber, was die Neuerungen für Pokémon Go bedeuten könnten.
Ein Interview von Achim Fehrenbach

  1. Jarvish Motorradhelm bringt Alexa in den Kopf
  2. Patentantrag Apple plant Augmented-Reality in der Windschutzscheibe
  3. Magic Leap Lumin OS Erste Bilder des Betriebssystems für Augmented Reality

Probefahrt mit Tesla Model 3: Wie auf Schienen übers Golden Gate
Probefahrt mit Tesla Model 3
Wie auf Schienen übers Golden Gate

Die Produktion des Tesla Model 3 für den europäischen Markt wird gerade vorbereitet. Golem.de hat einen Tag in und um San Francisco getestet, was Käufer von dem Elektroauto erwarten können.
Ein Erfahrungsbericht von Friedhelm Greis

  1. 1.000 Autos pro Tag Tesla baut das hunderttausendste Model 3
  2. Goodwood Festival of Speed Tesla bringt Model 3 erstmals offiziell nach Europa
  3. Elektroauto Produktionsziel des Tesla Model 3 erreicht

Künstliche Intelligenz: Wie Computer lernen
Künstliche Intelligenz
Wie Computer lernen

Künstliche Intelligenz, Machine Learning und neuronale Netze zählen zu den wichtigen Buzzwords dieses Jahres. Oft wird der Eindruck vermittelt, dass Computer bald wie Menschen denken können. Allerdings wird bei dem Thema viel durcheinandergeworfen. Wir sortieren.
Von Miroslav Stimac

  1. Innotrans KI-System identifiziert Schwarzfahrer
  2. USA Pentagon fordert KI-Strategie fürs Militär
  3. KI Deepmind-System diagnostiziert Augenkrankheiten

  1. BVG: Mit bis zu 500 MBit/s im Bus-WLAN unterwegs
    BVG
    Mit bis zu 500 MBit/s im Bus-WLAN unterwegs

    Berliner Linienbusse werden über LTE Advanced mit WLAN angebunden. Der Fahrgast könne damit 100 und 150 MBit/s erwarten, meint die BVG.

  2. Europäischer Gerichtshof: Kein schwarzer Tag für alle Filesharing-Abgemahnten
    Europäischer Gerichtshof
    Kein schwarzer Tag für alle Filesharing-Abgemahnten

    Das Urteil des Europäischen Gerichtshofs zum Filesharing ändert nichts. Es bestätigt nur die bisherige Rechtsprechung des Bundesgerichtshofs. Anschlussinhaber haben nach der grundrechtlich weiterhin besonders geschützten Familie keine näheren Nachforschungspflichten und müssen Angehörige nicht ausspionieren.

  3. Sicherheitslücke in Windows: Den Gast zum Admin machen
    Sicherheitslücke in Windows
    Den Gast zum Admin machen

    Eine Sicherheitslücke in Windows erlaubt, die Rechte von Nutzerkonten auszuweiten. Die Lücke ist seit zehn Monaten bekannt und wurde noch nicht geschlossen. Schadsoftware-Autoren dürften sich freuen.


  1. 19:03

  2. 18:40

  3. 17:44

  4. 17:29

  5. 17:17

  6. 17:00

  7. 17:00

  8. 16:48