Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Virtual Reality: Google zeigt 120-Hz…

Rechenpower

  1. Thema

Neues Thema Ansicht wechseln


  1. Rechenpower

    Autor: styler2go 13.03.18 - 12:02

    Ich frage mich gerade was da an Rechenpower benötigt werden würde um damit ein Spiel mit halbeweg guter Grafik spielen zu können.

    2 x 5.500 x 3.300 bei 120 Hz hört sich einfach gigantisch an. Ich bin gespannt :-)


    Edit:

    Da habe ich wohl noch den Satz "Mit aktueller Hardware ist es allerdings nicht möglich, die schiere Pixelmenge bei 120 Hz zu übertragen oder flüssig zu rendern." überlesen.



    1 mal bearbeitet, zuletzt am 13.03.18 12:02 durch styler2go.

  2. Re: Rechenpower

    Autor: SchmuseTigger 13.03.18 - 12:13

    styler2go schrieb:
    --------------------------------------------------------------------------------
    > Ich frage mich gerade was da an Rechenpower benötigt werden würde um damit
    > ein Spiel mit halbeweg guter Grafik spielen zu können.
    >
    > 2 x 5.500 x 3.300 bei 120 Hz hört sich einfach gigantisch an. Ich bin
    > gespannt :-)
    >
    > Edit:
    >
    > Da habe ich wohl noch den Satz "Mit aktueller Hardware ist es allerdings
    > nicht möglich, die schiere Pixelmenge bei 120 Hz zu übertragen oder flüssig
    > zu rendern." überlesen.

    Muss halt mehr so ein Minecraft sein :)

  3. Re: Rechenpower

    Autor: Gokux 13.03.18 - 12:48

    Die Displays sind sogar schon gut wenn man sie nur mit FullHD betreiben würde, einfach weil sich schon der Fliegengittereffekt reduziert.

  4. Re: Rechenpower

    Autor: |=H 13.03.18 - 12:53

    Richtig. Simple Grafik stört die Immersion mMn gar nicht.

  5. Re: Rechenpower

    Autor: Chris0706 13.03.18 - 12:58

    Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass hinten rum ein Performance BOOST daraus hervorkommt..

  6. Re: Rechenpower

    Autor: ichbinsmalwieder 13.03.18 - 13:18

    Chris0706 schrieb:
    --------------------------------------------------------------------------------
    > Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye
    > Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht
    > vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass
    > hinten rum ein Performance BOOST daraus hervorkommt..

    Ich glaube du unterschätzt den Aufwand, der für das Berechnen der vollen Auflösung notwendig wäre. Dagegen ist Eye-Tracking pillepalle.

  7. Re: Rechenpower

    Autor: Dwalinn 13.03.18 - 14:05

    Halbwegs gute Grafik ist ja immer so relativ, man kann ja durchaus hübsche Spiele machen ohne Fotorealistische Grafik zu bieten.

    Wie aber schon erwähnt wurde muss man die Auflösung auch nicht ausnutzen, was mich an den aktuellen VR Games stört ist meistens das Fliegengitter.

    Meine Vive will ich nicht mehr missen auch wenn ich sie jetzt nicht so oft einsetze. Ersetzen werde ich sie wohl eher relativ spät dann aber gleich auf eine kompromisslose Version, 120 Hz mit 4k pro Auge Funkübertragung mit geringer Latenz und natürlich Eye tracking.
    Bis das soweit ist vergeht sicherlich noch viel Zeit, erst recht wenn das ganze um die 700¤ kosten soll.

  8. Re: Rechenpower

    Autor: Gokux 13.03.18 - 14:06

    ichbinsmalwieder schrieb:
    --------------------------------------------------------------------------------
    > Ich glaube du unterschätzt den Aufwand, der für das Berechnen der vollen
    > Auflösung notwendig wäre. Dagegen ist Eye-Tracking pillepalle.
    Ich frage mich eher wie das mit der Latenz gelöst wird. Die Augenposition muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und zurück an die Brille geschickt werden. Gerade bei VR wird ja um jede Millisekunde gefeilscht.

  9. Re: Rechenpower

    Autor: |=H 13.03.18 - 14:40

    Die Bildbeispiele hier sind recht gut. Ist von 2016.

    https://www.roadtovr.com/nvidia-perceptually-based-foveated-rendering-research/

    Nvidia says they’re able to reduce pixel shading performance by 2x-3x compared to a scene not using foveated rendering. [...]

    Nvidia partnered with SMI which supplied the researchers with a VR headset with inbuilt eye-tracking tech capable of accurately tracking the eye’s gaze direction 250 times per second.

    “You can’t outrun [the eye tracking] with your eyes. It’s fast enough and accurate enough to give us a foundation to build [foveated rendering technologies] on,” said Lefohn.

  10. Re: Rechenpower

    Autor: CptBeefheart 13.03.18 - 14:46

    Gokux schrieb:
    > Ich frage mich eher wie das mit der Latenz gelöst wird. Die Augenposition
    > muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und zurück
    > an die Brille geschickt werden. Gerade bei VR wird ja um jede Millisekunde
    > gefeilscht.

    Da Augenbewegungen nicht zufällig über den Raum verteilt sind, d.h. einer gewissen biomechanischen Gesetzmäßigkeit folgen, kann man wahrscheinlich ganz gut Vorhersagen treffen wo die Fovea in den nächsten X Frames blicken wird.

    So ganz genau hab ich die Thematik nicht mehr im Hinterkopf, aber das Gehirn "programmiert" die Augen für einen "Sprung". Die Augen beginnen dann diese sog. Sakkade und währenddessen gibt es keine Korrekturen. Interessanter Weise sind wir während dieser Sprünge sogar blind. Auf jeden Fall kann man anhand der Richtung und der Schnelligkeit der Augenbewegung gut voraussagen wo der Blick landen wird. Daher kommt es nicht unbedingt zu einer zusätzlichen Latenz in der Renderingpipeline.

    Weiterhin ist es ja möglich den Bereich in dem die Pixel mit hoher Auflösung berechnet werden sollen ein wenig größer zu wählen als die menschliche Fovea ist, sodass man einen kleinen Puffer hat, falls die vorhergesagte Position mal etwas daneben gelegen haben sollte.

  11. Re: Rechenpower

    Autor: Hotohori 13.03.18 - 16:38

    CptBeefheart schrieb:
    --------------------------------------------------------------------------------
    > Gokux schrieb:
    > > Ich frage mich eher wie das mit der Latenz gelöst wird. Die
    > Augenposition
    > > muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und
    > zurück
    > > an die Brille geschickt werden. Gerade bei VR wird ja um jede
    > Millisekunde
    > > gefeilscht.
    >
    > Da Augenbewegungen nicht zufällig über den Raum verteilt sind, d.h. einer
    > gewissen biomechanischen Gesetzmäßigkeit folgen, kann man wahrscheinlich
    > ganz gut Vorhersagen treffen wo die Fovea in den nächsten X Frames blicken
    > wird.
    >
    > So ganz genau hab ich die Thematik nicht mehr im Hinterkopf, aber das
    > Gehirn "programmiert" die Augen für einen "Sprung". Die Augen beginnen dann
    > diese sog. Sakkade und währenddessen gibt es keine Korrekturen.
    > Interessanter Weise sind wir während dieser Sprünge sogar blind. Auf jeden
    > Fall kann man anhand der Richtung und der Schnelligkeit der Augenbewegung
    > gut voraussagen wo der Blick landen wird. Daher kommt es nicht unbedingt zu
    > einer zusätzlichen Latenz in der Renderingpipeline.
    >
    > Weiterhin ist es ja möglich den Bereich in dem die Pixel mit hoher
    > Auflösung berechnet werden sollen ein wenig größer zu wählen als die
    > menschliche Fovea ist, sodass man einen kleinen Puffer hat, falls die
    > vorhergesagte Position mal etwas daneben gelegen haben sollte.

    Vorhersagen heißt aber, dass die Rechenleistung nicht reichen würde, was aber nicht mehr der Fall ist. EyeTracking kann inzwischen sehr schnell ausgelesen und verarbeitet werden, so das man keine Vorhersagen braucht.

  12. Re: Rechenpower

    Autor: gfa-g 13.03.18 - 17:46

    Chris0706 schrieb:
    --------------------------------------------------------------------------------
    > Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye
    > Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht
    > vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass
    > hinten rum ein Performance BOOST daraus hervorkommt..
    Man kann dafür spezielle Hardware entwickeln. Eyetracking braucht kaum Rechenleistung/Energie, wenn die Hardware darauf spezialisiert ist.

    Gerade bei Brillen sind die Lichtverhältnisse kontrolliert, so dass man die schwarze Pupille leicht tracken kann.

    In Massenproduktion könnte so ein Spezialchip recht günstig sein.

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Delta Energy Systems (Germany) GmbH, Teningen
  2. ESG Elektroniksystem- und Logistik-GmbH, München
  3. Bosch Gruppe, Stuttgart
  4. BWI GmbH, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Acer Predator XB241Hbmipr für 299€ statt 364,90€ im Vergleich)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Apple Mac Mini (Late 2018) im Test: Tolles teures Teil - aber für wen?
Apple Mac Mini (Late 2018) im Test
Tolles teures Teil - aber für wen?

Der Mac Mini ist ein gutes Gerät, wenngleich der Preis für die Einstiegsvariante von Apple arg hoch angesetzt wurde und mehr Speicher(platz) viel Geld kostet. Für 4K-Videoschnitt eignet sich der Mac Mini nur selten und generell fragen wir uns, wer ihn kaufen soll.
Ein Test von Marc Sauter

  1. Apple Mac Mini wird grau und schnell
  2. Neue Produkte Apple will Mac Mini und Macbook Air neu auflegen

Autonome Schiffe: Und abends geht der Kapitän nach Hause
Autonome Schiffe
Und abends geht der Kapitän nach Hause

Weite Reisen in ferne Länder, eine Braut in jedem Hafen: Klischees über die Seefahrt täuschen darüber hinweg, dass diese ein Knochenjob ist. Doch in wenigen Jahren werden Schiffe ohne Besatzung fahren, überwacht von Steuerleuten, die nach dem Dienst zur Familie zurückkehren. Daran arbeitet etwa Rolls Royce.
Ein Bericht von Werner Pluta

  1. Elektromobilität San Francisco soll ein Brennstoffzellenschiff bekommen
  2. Yara Birkeland Autonome Schiffe sind eine neue Art von Transportsystem
  3. Power Pac Strom aus dem Container für Ozeanriesen

Google Nachtsicht im Test: Starke Nachtaufnahmen mit dem Pixel
Google Nachtsicht im Test
Starke Nachtaufnahmen mit dem Pixel

Gut einen Monat nach der Vorstellung der neuen Pixel-Smartphones hat Google die Kamerafunktion Nachtsicht vorgestellt. Mit dieser lassen sich tolle Nachtaufnahmen machen, die mit denen von Huaweis Nachtmodus vergleichbar sind - und dessen Qualität bei Selbstporträts deutlich übersteigt.
Ein Test von Tobias Költzsch

  1. Pixel 3 Google patcht Probleme mit Speichermanagement
  2. Smartphone Google soll Pixel 3 Lite mit Kopfhörerbuchse planen
  3. Google Dem Pixel 3 XL wächst eine zweite Notch

  1. Latenz: Der Eine-Millisekunde-Mythos im Mobilfunkstandard 5G
    Latenz
    Der Eine-Millisekunde-Mythos im Mobilfunkstandard 5G

    Der kommende Mobilfunkstandard 5G ist in erster Linie breitbandig und extrem reaktionsschnell. So liest man es immer wieder. Doch was hat es mit der Latenz von einer Millisekunde auf sich?

  2. Dark Vishnya: Kaspersky warnt Banken vor Insider-Angriffen
    Dark Vishnya
    Kaspersky warnt Banken vor Insider-Angriffen

    Der Virenspezialist Kaspersky fand Hardware-basierte Attacken über das lokale Netzwerk in mindestens acht osteuropäischen Bankhäusern. Der Schaden geht in die Millionen Euro. Potenziell gefährdet sein sollen jedoch alle Arten von Unternehmen.

  3. Security: Gehacktes Linux.org zeigte Beleidigungen und Sexismus
    Security
    Gehacktes Linux.org zeigte Beleidigungen und Sexismus

    Die Seite Linux.org sah eine Zeit lang ziemlich anders aus als sonst. Statt News und Tipps zeigte die Domain Beleidigungen in Leetspeak und sexistische Inhalte. Der Grund: Eines der Administratorkonten wurde übernommen. Die Domainverwalter entschuldigen sich.


  1. 12:01

  2. 11:55

  3. 11:54

  4. 11:19

  5. 11:04

  6. 10:49

  7. 10:11

  8. 09:20