Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Virtual Reality: Google zeigt 120-Hz…

Rechenpower

  1. Thema

Neues Thema Ansicht wechseln


  1. Rechenpower

    Autor: styler2go 13.03.18 - 12:02

    Ich frage mich gerade was da an Rechenpower benötigt werden würde um damit ein Spiel mit halbeweg guter Grafik spielen zu können.

    2 x 5.500 x 3.300 bei 120 Hz hört sich einfach gigantisch an. Ich bin gespannt :-)


    Edit:

    Da habe ich wohl noch den Satz "Mit aktueller Hardware ist es allerdings nicht möglich, die schiere Pixelmenge bei 120 Hz zu übertragen oder flüssig zu rendern." überlesen.



    1 mal bearbeitet, zuletzt am 13.03.18 12:02 durch styler2go.

  2. Re: Rechenpower

    Autor: SchmuseTigger 13.03.18 - 12:13

    styler2go schrieb:
    --------------------------------------------------------------------------------
    > Ich frage mich gerade was da an Rechenpower benötigt werden würde um damit
    > ein Spiel mit halbeweg guter Grafik spielen zu können.
    >
    > 2 x 5.500 x 3.300 bei 120 Hz hört sich einfach gigantisch an. Ich bin
    > gespannt :-)
    >
    > Edit:
    >
    > Da habe ich wohl noch den Satz "Mit aktueller Hardware ist es allerdings
    > nicht möglich, die schiere Pixelmenge bei 120 Hz zu übertragen oder flüssig
    > zu rendern." überlesen.

    Muss halt mehr so ein Minecraft sein :)

  3. Re: Rechenpower

    Autor: Gokux 13.03.18 - 12:48

    Die Displays sind sogar schon gut wenn man sie nur mit FullHD betreiben würde, einfach weil sich schon der Fliegengittereffekt reduziert.

  4. Re: Rechenpower

    Autor: |=H 13.03.18 - 12:53

    Richtig. Simple Grafik stört die Immersion mMn gar nicht.

  5. Re: Rechenpower

    Autor: Chris0706 13.03.18 - 12:58

    Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass hinten rum ein Performance BOOST daraus hervorkommt..

  6. Re: Rechenpower

    Autor: ichbinsmalwieder 13.03.18 - 13:18

    Chris0706 schrieb:
    --------------------------------------------------------------------------------
    > Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye
    > Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht
    > vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass
    > hinten rum ein Performance BOOST daraus hervorkommt..

    Ich glaube du unterschätzt den Aufwand, der für das Berechnen der vollen Auflösung notwendig wäre. Dagegen ist Eye-Tracking pillepalle.

  7. Re: Rechenpower

    Autor: Dwalinn 13.03.18 - 14:05

    Halbwegs gute Grafik ist ja immer so relativ, man kann ja durchaus hübsche Spiele machen ohne Fotorealistische Grafik zu bieten.

    Wie aber schon erwähnt wurde muss man die Auflösung auch nicht ausnutzen, was mich an den aktuellen VR Games stört ist meistens das Fliegengitter.

    Meine Vive will ich nicht mehr missen auch wenn ich sie jetzt nicht so oft einsetze. Ersetzen werde ich sie wohl eher relativ spät dann aber gleich auf eine kompromisslose Version, 120 Hz mit 4k pro Auge Funkübertragung mit geringer Latenz und natürlich Eye tracking.
    Bis das soweit ist vergeht sicherlich noch viel Zeit, erst recht wenn das ganze um die 700¤ kosten soll.

  8. Re: Rechenpower

    Autor: Gokux 13.03.18 - 14:06

    ichbinsmalwieder schrieb:
    --------------------------------------------------------------------------------
    > Ich glaube du unterschätzt den Aufwand, der für das Berechnen der vollen
    > Auflösung notwendig wäre. Dagegen ist Eye-Tracking pillepalle.
    Ich frage mich eher wie das mit der Latenz gelöst wird. Die Augenposition muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und zurück an die Brille geschickt werden. Gerade bei VR wird ja um jede Millisekunde gefeilscht.

  9. Re: Rechenpower

    Autor: |=H 13.03.18 - 14:40

    Die Bildbeispiele hier sind recht gut. Ist von 2016.

    https://www.roadtovr.com/nvidia-perceptually-based-foveated-rendering-research/

    Nvidia says they’re able to reduce pixel shading performance by 2x-3x compared to a scene not using foveated rendering. [...]

    Nvidia partnered with SMI which supplied the researchers with a VR headset with inbuilt eye-tracking tech capable of accurately tracking the eye’s gaze direction 250 times per second.

    “You can’t outrun [the eye tracking] with your eyes. It’s fast enough and accurate enough to give us a foundation to build [foveated rendering technologies] on,” said Lefohn.

  10. Re: Rechenpower

    Autor: CptBeefheart 13.03.18 - 14:46

    Gokux schrieb:
    > Ich frage mich eher wie das mit der Latenz gelöst wird. Die Augenposition
    > muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und zurück
    > an die Brille geschickt werden. Gerade bei VR wird ja um jede Millisekunde
    > gefeilscht.

    Da Augenbewegungen nicht zufällig über den Raum verteilt sind, d.h. einer gewissen biomechanischen Gesetzmäßigkeit folgen, kann man wahrscheinlich ganz gut Vorhersagen treffen wo die Fovea in den nächsten X Frames blicken wird.

    So ganz genau hab ich die Thematik nicht mehr im Hinterkopf, aber das Gehirn "programmiert" die Augen für einen "Sprung". Die Augen beginnen dann diese sog. Sakkade und währenddessen gibt es keine Korrekturen. Interessanter Weise sind wir während dieser Sprünge sogar blind. Auf jeden Fall kann man anhand der Richtung und der Schnelligkeit der Augenbewegung gut voraussagen wo der Blick landen wird. Daher kommt es nicht unbedingt zu einer zusätzlichen Latenz in der Renderingpipeline.

    Weiterhin ist es ja möglich den Bereich in dem die Pixel mit hoher Auflösung berechnet werden sollen ein wenig größer zu wählen als die menschliche Fovea ist, sodass man einen kleinen Puffer hat, falls die vorhergesagte Position mal etwas daneben gelegen haben sollte.

  11. Re: Rechenpower

    Autor: Hotohori 13.03.18 - 16:38

    CptBeefheart schrieb:
    --------------------------------------------------------------------------------
    > Gokux schrieb:
    > > Ich frage mich eher wie das mit der Latenz gelöst wird. Die
    > Augenposition
    > > muss erfasst, an den Rechner geschickt, verarbeitet, gerendert und
    > zurück
    > > an die Brille geschickt werden. Gerade bei VR wird ja um jede
    > Millisekunde
    > > gefeilscht.
    >
    > Da Augenbewegungen nicht zufällig über den Raum verteilt sind, d.h. einer
    > gewissen biomechanischen Gesetzmäßigkeit folgen, kann man wahrscheinlich
    > ganz gut Vorhersagen treffen wo die Fovea in den nächsten X Frames blicken
    > wird.
    >
    > So ganz genau hab ich die Thematik nicht mehr im Hinterkopf, aber das
    > Gehirn "programmiert" die Augen für einen "Sprung". Die Augen beginnen dann
    > diese sog. Sakkade und währenddessen gibt es keine Korrekturen.
    > Interessanter Weise sind wir während dieser Sprünge sogar blind. Auf jeden
    > Fall kann man anhand der Richtung und der Schnelligkeit der Augenbewegung
    > gut voraussagen wo der Blick landen wird. Daher kommt es nicht unbedingt zu
    > einer zusätzlichen Latenz in der Renderingpipeline.
    >
    > Weiterhin ist es ja möglich den Bereich in dem die Pixel mit hoher
    > Auflösung berechnet werden sollen ein wenig größer zu wählen als die
    > menschliche Fovea ist, sodass man einen kleinen Puffer hat, falls die
    > vorhergesagte Position mal etwas daneben gelegen haben sollte.

    Vorhersagen heißt aber, dass die Rechenleistung nicht reichen würde, was aber nicht mehr der Fall ist. EyeTracking kann inzwischen sehr schnell ausgelesen und verarbeitet werden, so das man keine Vorhersagen braucht.

  12. Re: Rechenpower

    Autor: gfa-g 13.03.18 - 17:46

    Chris0706 schrieb:
    --------------------------------------------------------------------------------
    > Ich frag mich eher wie viel Rechenpower und Dynamik man für das Eye
    > Tracking für Foveated Rendering braucht? Irgendwie kann ich mir nicht
    > vorstellen, dass man das mit aktueller Hardware so vereinen kann, dass
    > hinten rum ein Performance BOOST daraus hervorkommt..
    Man kann dafür spezielle Hardware entwickeln. Eyetracking braucht kaum Rechenleistung/Energie, wenn die Hardware darauf spezialisiert ist.

    Gerade bei Brillen sind die Lichtverhältnisse kontrolliert, so dass man die schwarze Pupille leicht tracken kann.

    In Massenproduktion könnte so ein Spezialchip recht günstig sein.

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. abilex GmbH, Stuttgart
  2. über duerenhoff GmbH, Hennef
  3. Bosch Gruppe, Waiblingen
  4. Wirecard Technologies GmbH, Aschheim near Munich

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Blu-ray-Angebote
  1. 34,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Network Slicing: 5G gefährdet die Netzneutralität - oder etwa nicht?
Network Slicing
5G gefährdet die Netzneutralität - oder etwa nicht?

Ein Digitalexperte warnt vor einem "deutlichen Spannungsverhältnis" zwischen der technischen Basis des kommenden Mobilfunkstandards 5G und dem Prinzip des offenen Internets. Die Bundesnetzagentur gibt dagegen vorläufig Entwarnung.
Ein Bericht von Stefan Krempl

  1. T-Mobile US Deutsche Telekom gibt 3,5 Milliarden US-Dollar für 5G aus
  2. Ericsson Swisscom errichtet standardisiertes 5G-Netz in Burgdorf
  3. Masterplan Digitalisierung Niedersachsen will flächendeckende Glasfaserinfrastruktur

iPhone Xs, Xs Max und Xr: Wer unterstützt die eSIM in den neuen iPhones?
iPhone Xs, Xs Max und Xr
Wer unterstützt die eSIM in den neuen iPhones?

Apples neue iPhones haben neben dem Nano-SIM-Slot eine eingebaute eSIM, womit der Konzern erstmals eine Dual-SIM-Lösung in seinen Smartphones realisiert. Die Auswahl an Netzanbietern, die eSIMs unterstützen, ist in Deutschland, Österreich und der Schweiz aber eingeschränkt - ein Ãœberblick.
Von Tobias Költzsch

  1. Apple Das iPhone Xr macht's billiger und bunter
  2. Apple iPhones sollen Stiftunterstützung erhalten
  3. XMM 7560 Intel startet Serienfertigung für iPhone-Modem

Yara Birkeland: Autonome Schiffe sind eine neue Art von Transportsystem
Yara Birkeland
Autonome Schiffe sind eine neue Art von Transportsystem

Die Yara Birkeland wird das erste elektrisch angetriebene Schiff, das autonom fahren soll. Das ist aber nicht das einzige Ungewöhnliche daran. Diese Schiffe seien ein ganz neues Transportmittel, das nicht nur von den üblichen Akteuren eingesetzt werde, sagt ein Experte.
Ein Interview von Werner Pluta

  1. Power Pac Strom aus dem Container für Ozeanriesen
  2. Yara Birkeland Norwegische Werft baut den ersten autonomen E-Frachter
  3. SAVe Energy Rolls-Royce bringt Akku zur Elektrifizierung von Schiffen

  1. Sprachassistent: Google Assistant kommt für Android Auto
    Sprachassistent
    Google Assistant kommt für Android Auto

    Autofahrer in Deutschland können künftig den Google Assistant über Android Auto verwenden. Damit lassen sich per Sprachbefehl Whatsapp-Nachrichten verschicken oder Smart-Home-Geräte bedienen.

  2. Ampere Emag: ARM-CPU mit 32 Kernen zum Preis eines 16-Kern-Threadrippers
    Ampere Emag
    ARM-CPU mit 32 Kernen zum Preis eines 16-Kern-Threadrippers

    32 Kerne bei einer recht kleinen Leistungsaufnahme: Der ARM-Prozessor Emag soll sich laut Hersteller Ampere besonders für Multitasking eignen - etwa Virtualisierung. Der recht niedrige Preis dafür ist ein weiteres Argument. Allerdings ist der Chip nicht für alle Serveranwendungen gut geeignet.

  3. Playstation Classic: Sony bringt Miniversion der ersten Playstation für 100 Euro
    Playstation Classic
    Sony bringt Miniversion der ersten Playstation für 100 Euro

    Golem.de live Sony macht es Nintendo nach und hat eine kleine Version seiner ersten Playstation vorgestellt, auf der 20 Spieleklassiker installiert sind. Das Gerät ist etwa 45 Prozent kleiner als die echte Playstation, die mitgelieferten Controller hingegen haben Originalgröße.


  1. 10:56

  2. 10:21

  3. 09:42

  4. 09:31

  5. 09:11

  6. 08:10

  7. 07:49

  8. 07:24