Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Virtual Reality: Google zeigt 120-Hz…

Rechenpower

  1. Thema

Neues Thema Ansicht wechseln


  1. Rechenpower

    Autor: styler2go 13.03.18 - 12:02

    Ich frage mich gerade was da an Rechenpower benötigt werden würde um damit ein Spiel mit halbeweg guter Grafik spielen zu können.

    2 x 5.500 x 3.300 bei 120 Hz hört sich einfach gigantisch an. Ich bin gespannt :-)


    Edit:

    Da habe ich wohl noch den Satz "Mit aktueller Hardware ist es allerdings nicht möglich, die schiere Pixelmenge bei 120 Hz zu übertragen oder flüssig zu rendern." überlesen.



    1 mal bearbeitet, zuletzt am 13.03.18 12:02 durch styler2go.

  2. Re: Rechenpower

    Autor: SchmuseTigger 13.03.18 - 12:13

    styler2go schrieb:
    --------------------------------------------------------------------------------
    > Ich frage mich gerade was da an Rechenpower benötigt werden würde um damit
    > ein Spiel mit halbeweg guter Grafik spielen zu können.
    >
    > 2 x 5.500 x 3.300 bei 120 Hz hört sich einfach gigantisch an. Ich bin
    > gespannt :-)
    >
    > Edit:
    >
    > Da habe ich wohl noch den Satz "Mit aktueller Hardware ist es allerdings
    > nicht möglich, die schiere Pixelmenge bei 120 Hz zu übertragen oder flüssig
    > zu rendern." überlesen.

    Muss halt mehr so ein Minecraft sein :)

  3. Re: Rechenpower

    Autor: Gokux 13.03.18 - 12:48

    Die Displays sind sogar schon gut wenn man sie nur mit FullHD betreiben würde, einfach weil sich schon der Fliegengittereffekt reduziert.

  4. Re: Rechenpower

    Autor: |=H 13.03.18 - 12:53

    Richtig. Simple Grafik stört die Immersion mMn gar nicht.

  5. Re: Rechenpower

    Autor: Chris0706 13.03.18 - 12:58

    Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass hinten rum ein Performance BOOST daraus hervorkommt..

  6. Re: Rechenpower

    Autor: ichbinsmalwieder 13.03.18 - 13:18

    Chris0706 schrieb:
    --------------------------------------------------------------------------------
    > Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye
    > Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht
    > vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass
    > hinten rum ein Performance BOOST daraus hervorkommt..

    Ich glaube du unterschätzt den Aufwand, der für das Berechnen der vollen Auflösung notwendig wäre. Dagegen ist Eye-Tracking pillepalle.

  7. Re: Rechenpower

    Autor: Dwalinn 13.03.18 - 14:05

    Halbwegs gute Grafik ist ja immer so relativ, man kann ja durchaus hübsche Spiele machen ohne Fotorealistische Grafik zu bieten.

    Wie aber schon erwähnt wurde muss man die Auflösung auch nicht ausnutzen, was mich an den aktuellen VR Games stört ist meistens das Fliegengitter.

    Meine Vive will ich nicht mehr missen auch wenn ich sie jetzt nicht so oft einsetze. Ersetzen werde ich sie wohl eher relativ spät dann aber gleich auf eine kompromisslose Version, 120 Hz mit 4k pro Auge Funkübertragung mit geringer Latenz und natürlich Eye tracking.
    Bis das soweit ist vergeht sicherlich noch viel Zeit, erst recht wenn das ganze um die 700¤ kosten soll.

  8. Re: Rechenpower

    Autor: Gokux 13.03.18 - 14:06

    ichbinsmalwieder schrieb:
    --------------------------------------------------------------------------------
    > Ich glaube du unterschätzt den Aufwand, der für das Berechnen der vollen
    > Auflösung notwendig wäre. Dagegen ist Eye-Tracking pillepalle.
    Ich frage mich eher wie das mit der Latenz gelöst wird. Die Augenposition muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und zurück an die Brille geschickt werden. Gerade bei VR wird ja um jede Millisekunde gefeilscht.

  9. Re: Rechenpower

    Autor: |=H 13.03.18 - 14:40

    Die Bildbeispiele hier sind recht gut. Ist von 2016.

    https://www.roadtovr.com/nvidia-perceptually-based-foveated-rendering-research/

    Nvidia says they’re able to reduce pixel shading performance by 2x-3x compared to a scene not using foveated rendering. [...]

    Nvidia partnered with SMI which supplied the researchers with a VR headset with inbuilt eye-tracking tech capable of accurately tracking the eye’s gaze direction 250 times per second.

    “You can’t outrun [the eye tracking] with your eyes. It’s fast enough and accurate enough to give us a foundation to build [foveated rendering technologies] on,” said Lefohn.

  10. Re: Rechenpower

    Autor: CptBeefheart 13.03.18 - 14:46

    Gokux schrieb:
    > Ich frage mich eher wie das mit der Latenz gelöst wird. Die Augenposition
    > muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und zurück
    > an die Brille geschickt werden. Gerade bei VR wird ja um jede Millisekunde
    > gefeilscht.

    Da Augenbewegungen nicht zufällig über den Raum verteilt sind, d.h. einer gewissen biomechanischen Gesetzmäßigkeit folgen, kann man wahrscheinlich ganz gut Vorhersagen treffen wo die Fovea in den nächsten X Frames blicken wird.

    So ganz genau hab ich die Thematik nicht mehr im Hinterkopf, aber das Gehirn "programmiert" die Augen für einen "Sprung". Die Augen beginnen dann diese sog. Sakkade und währenddessen gibt es keine Korrekturen. Interessanter Weise sind wir während dieser Sprünge sogar blind. Auf jeden Fall kann man anhand der Richtung und der Schnelligkeit der Augenbewegung gut voraussagen wo der Blick landen wird. Daher kommt es nicht unbedingt zu einer zusätzlichen Latenz in der Renderingpipeline.

    Weiterhin ist es ja möglich den Bereich in dem die Pixel mit hoher Auflösung berechnet werden sollen ein wenig größer zu wählen als die menschliche Fovea ist, sodass man einen kleinen Puffer hat, falls die vorhergesagte Position mal etwas daneben gelegen haben sollte.

  11. Re: Rechenpower

    Autor: Hotohori 13.03.18 - 16:38

    CptBeefheart schrieb:
    --------------------------------------------------------------------------------
    > Gokux schrieb:
    > > Ich frage mich eher wie das mit der Latenz gelöst wird. Die
    > Augenposition
    > > muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und
    > zurück
    > > an die Brille geschickt werden. Gerade bei VR wird ja um jede
    > Millisekunde
    > > gefeilscht.
    >
    > Da Augenbewegungen nicht zufällig über den Raum verteilt sind, d.h. einer
    > gewissen biomechanischen Gesetzmäßigkeit folgen, kann man wahrscheinlich
    > ganz gut Vorhersagen treffen wo die Fovea in den nächsten X Frames blicken
    > wird.
    >
    > So ganz genau hab ich die Thematik nicht mehr im Hinterkopf, aber das
    > Gehirn "programmiert" die Augen für einen "Sprung". Die Augen beginnen dann
    > diese sog. Sakkade und währenddessen gibt es keine Korrekturen.
    > Interessanter Weise sind wir während dieser Sprünge sogar blind. Auf jeden
    > Fall kann man anhand der Richtung und der Schnelligkeit der Augenbewegung
    > gut voraussagen wo der Blick landen wird. Daher kommt es nicht unbedingt zu
    > einer zusätzlichen Latenz in der Renderingpipeline.
    >
    > Weiterhin ist es ja möglich den Bereich in dem die Pixel mit hoher
    > Auflösung berechnet werden sollen ein wenig größer zu wählen als die
    > menschliche Fovea ist, sodass man einen kleinen Puffer hat, falls die
    > vorhergesagte Position mal etwas daneben gelegen haben sollte.

    Vorhersagen heißt aber, dass die Rechenleistung nicht reichen würde, was aber nicht mehr der Fall ist. EyeTracking kann inzwischen sehr schnell ausgelesen und verarbeitet werden, so das man keine Vorhersagen braucht.

  12. Re: Rechenpower

    Autor: gfa-g 13.03.18 - 17:46

    Chris0706 schrieb:
    --------------------------------------------------------------------------------
    > Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye
    > Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht
    > vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass
    > hinten rum ein Performance BOOST daraus hervorkommt..
    Man kann dafür spezielle Hardware entwickeln. Eyetracking braucht kaum Rechenleistung/Energie, wenn die Hardware darauf spezialisiert ist.

    Gerade bei Brillen sind die Lichtverhältnisse kontrolliert, so dass man die schwarze Pupille leicht tracken kann.

    In Massenproduktion könnte so ein Spezialchip recht günstig sein.

Neues Thema Ansicht wechseln


Dieses Thema wurde geschlossen.

Stellenmarkt
  1. Personalwerk Holding GmbH, Wiesbaden
  2. ENERCON GmbH, Bremen, Aurich, Magdeburg, Kiel
  3. adesso AG, verschiedene Einsatzorte
  4. Robert Bosch GmbH, Reutlingen

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. bei ubisoft.com
  2. 2,29€
  3. 35,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Volocopter 2X: Das Flugtaxi, das noch nicht abheben darf
Volocopter 2X
Das Flugtaxi, das noch nicht abheben darf

Cebit 2018 Der Volocopter ist fertig - bleibt in Hannover aber noch am Boden. Im zweisitzigen Fluggerät stecken jede Menge Ideen, die autonomes Fliegen als Ergänzung zu anderen Nahverkehrsmitteln möglich machen soll. Golem.de hat Platz genommen und mit den Entwicklern gesprochen.
Von Nico Ernst

  1. Urban Air Mobility Airbus gründet neuen Geschäftsbereich für Lufttaxis
  2. Cityairbus Mit Siemens soll das Lufttaxi abheben
  3. Verkehr Porsche entwickelt Lufttaxi

K-Byte: Byton fährt ein irres Tempo
K-Byte
Byton fährt ein irres Tempo

Das Startup Byton zeigt zur Eröffnung der Elektronikmesse CES Asia in Shanghai das Modell K-Byte. Die elektrische Limousine basiert auf der Plattform des SUV, der vor fünf Monaten auf der CES in Las Vegas vorgestellt wurde. Unter deutscher Führung nimmt der Elektroautohersteller in China mächtig Fahrt auf.
Ein Bericht von Dirk Kunde

  1. Elektromobiltät UPS kauft 1.000 Elektrolieferwagen von Workhorse
  2. KYMCO Elektroroller mit Tauschakku-Infrastruktur
  3. Elektromobilität Niu stellt zwei neue Elektromotorroller vor

Anthem angespielt: Action in fremder Welt und Abkühlung im Wasserfall
Anthem angespielt
Action in fremder Welt und Abkühlung im Wasserfall

E3 2018 Eine interessante Welt, schicke Grafik und ein erstaunlich gutes Fluggefühl: Golem.de hat das Actionrollenspiel Anthem von Bioware ausprobiert.

  1. Control Remedy Entertainment mit übersinnlichen Räumen
  2. Smach Z ausprobiert Neuer Blick auf das Handheld für PC-Spieler
  3. The Division 2 angespielt Action rund um Air Force One

  1. Dying Light 2: Stadtentwicklung mit Schwung
    Dying Light 2
    Stadtentwicklung mit Schwung

    E3 2018 Klettern und kraxeln im Parcours-Stil, dazu tolle Grafik und eine verschachtelte Handlung mit sichtbaren Auswirkungen auf eine riesige Stadt: Das polnische Entwicklerstudio Techland hat für Dying Light 2 große Pläne.

  2. DNS Rebinding: Google Home verrät, wo du wohnst
    DNS Rebinding
    Google Home verrät, wo du wohnst

    Besitzer eines Google Home oder Chromecast können von Webseiten auf wenige Meter genau lokalisiert werden. Hintergrund des Angriffs ist eine Technik namens DNS Rebinding.

  3. Projekthoster: Teahub will gemeinnützige Alternative zu Github erstellen
    Projekthoster
    Teahub will gemeinnützige Alternative zu Github erstellen

    Das Projekt Teahub will eine gemeinnützige Organisation gründen und so mit seiner gleichnamigen Plattform zahlreichen Open-Source-Projekten eine neue Heimat bieten. Der Dienst ist als Alternative zu kommerziellen Hostern wie etwa Github gedacht.


  1. 17:54

  2. 16:21

  3. 14:03

  4. 13:50

  5. 13:31

  6. 13:19

  7. 13:00

  8. 12:53