1. Foren
  2. Kommentare
  3. Games
  4. Alle Kommentare zum Artikel
  5. › Virtual Reality: Stanford und Nvidia…

Ja aber...

  1. Thema

Neues Thema Ansicht wechseln


  1. Ja aber...

    Autor: Ach 10.08.15 - 20:07

    Woran orientiert sich der Tiefenschärfe Wert? Das System muss ja an irgendwas messen, auf welche Tiefe das Auge des Betrachters gerade "eingestellt" ist. Liest da das System die Größe der Pupille, oder strahlt da ein schwacher Laser ins Auge und errechnet aus der Reflektion die "Augeinstellung", oder ist das alles erst mal nicht so wichtig und Hauptsache man hat überhaupt erst mal eine einstellbare Tiefenschärfe auf kleinem Raum zustande gebracht? :].

    Edit:
    Ui, jetzt ist mir gerade selber eine Lösung gekommen. Das Auge zielt ja auf Objekte im Raum. Auf die Objekte die es betrachtet, fokussiert das Auge automatisch. Zudem sind dem System alle Objekt Positionen numerisch bekannt, und wie bei einem auggesteuertem Zielerfassungssystem, kann der Sichtwinkel ja mit heutiger Technik recht zuverlässig abgelesen werden, é voila, so funktioniert die Schärfenachführung.



    2 mal bearbeitet, zuletzt am 10.08.15 20:24 durch Ach.

  2. Re: Ja aber...

    Autor: _warheart_ 10.08.15 - 20:40

    Das ist ja das tolle an dem Lichtfeld-Prinzip, da muss die Hardware nix messen und anpassen. So wie ich das verstanden habe zeigt das Display kein fokusiertes Bild sondern eine Art von Überlagerung durch ein Array aus Linsen und das Auge kann den Fokus selbst festlegen.



    1 mal bearbeitet, zuletzt am 10.08.15 20:41 durch _warheart_.

  3. Re: Ja aber...

    Autor: Stupixion 10.08.15 - 20:50

    Ich kann mir irgendwie nicht vorstellen wie das ohne zusätzliche Messungen funktionieren soll. Immerhin steht im Artikel dass das "Array" aus nur zwei Displays besteht. Damit kann man ohne Messungen meiner Vorstellungskraft nach höchstens zwei verschiedene Tiefenebenen darstellen, das Auge kann aber unendlich viele Tiefenebenen erfassen. Sollte ich einen Denkfehler haben so möge man mich bitte erleuchten :)

  4. Re: Ja aber...

    Autor: Poison Nuke 10.08.15 - 21:01

    Zwei Tiefenschärfe Ebenen sind mehr als eine. So wie ich es verstanden habe, werden es auch nicht mehr Ebenen sein, muss aber auch nicht.

    Du kannst überhaupt schonmal fokussieren, was ein großer Fortschritt ist. Irgendwann gibt es dann wohl auch Displays mit 3 oder mehr Ebenen. Die aktuellen Lichtfeld-Kameras erfassen 9 Ebenen wenn ich das richtig in Erinnerung hab.

    Ich denke die erreichbare Auflösung pro Ebene dürfte das Problem sein, da sich nach meinem Verständnis der Lichtfeld-Technik die Displays die Pixel teilen, bzw irgendwie muss das Licht des hinteren Displays am anderen vorbeigeleitet werden, weshalb zwangsweise die Auflösung pro Ebene sinkt.

    Greetz

    Poison Nuke

  5. Re: Ja aber...

    Autor: Ach 10.08.15 - 21:29

    Was aber dann nur funktionieren könnte, wenn die zwei Ebenen eine Art virtuelles Hologramm generieren würden. Hört sich Doppelt gemoppelt an, muss es aber auch. Das Auge müsste in ein Hologramm schauen, welches sich eben virtuell in den Raum erstreckt, oder so halt :], denn erst mit so einem Hologramm könnte man ja, wie du sagst, frei wählen. Andererseits, und wenn man den Fokus des Auges auslesen würde, bräuchte man nur eine Ebene in echtzeit errechnen. Den Aufwand für den ganzen nicht fokusierten Rest könnte man sich stark vereinfachen.

    Ich find das jedenfalls alles sau kompliziert und ich hab auch, glaube ich den Faden darüber verloren, wie das Prinzip von Lichtfeld da einspielen soll. Vielleicht kann man da ja erst mal festhalten, dass bei einem Lichtfeldpixel auch die Richtung des Lichtstrahls gespeichert wird. Vielleicht ist das ja mal ein funktionaler Ansatz zum guten Theoretisieren :].

    In der Praxis könnte das etwas bedeuten, dass die zwei Display nahezu das gleiche Bild darstellen, aber nur im Betrachterfokus die Pixel übereinander liegen, außerhalb der Fokusbereichs also verschwommen erscheinen, z.B. halt, keine Ahnung eben, Stanford soll mich bitte schlau machen :]. Gibt aber vielleicht ne Videopräsentation dazu, das wäre typisch für Stanford.



    2 mal bearbeitet, zuletzt am 10.08.15 21:44 durch Ach.

  6. Re: Ja aber...

    Autor: Stupixion 10.08.15 - 22:04

    Könnte man nicht theoretisch durch Projektion in das Auge mit unterschiedlich starkem Licht das natürliche sehen übergangsfrei ohne begrenzte Tiefenebenen und ohne Hologramm abbilden? Den Depthbuffer zur modulation des Lichtes zu benutzen sollte jedenfalls kein Problem sein. Allerdings ist mir bisher keine Projektionstechnik bekannt die das zu leisten vermag...

  7. Re: Ja aber...

    Autor: Ach 10.08.15 - 23:24

    Ich denke das Problem ist, dass man mit einem einzelnem Display das Auge nicht dazu bringen kann, unterschiedlich zu fokussieren. Mit nur einem Display würde das Auge immer dort hin fokussieren, wo das Bild am schärfsten ist, und das sind dann die wenigen cm vor dem Auge, bzw, der durch die Linse verlängerte Abstand auf 10 oder 20cm oder so. Diese Lichtfeld Technik dagegen, die bestimmt auch die Richtung der ins Auge fallenden Pixel. Legt man die Richtung der einfallenden Pixel nämlich fest, so wird man die so in sein Auge einfallenden Pixel nur klar wahrnehmen können, wenn man den Augfokus ensprechend des Einfallswinkels der Objektstahlen einstellt, und das würde bedeuten, dass man Tiefe wahrnimmt, die Technik lässt dem Auge damit quasi gar keine andere Möglichkeit als zu fokussieren um etwas zu erkennen. Die Richtung ließe technisch so festlegen, dass das Licht der Displayhintergrundbeleuchtung ja immer die zwei Displays durchlaufen muss, also jeder Strahl immer zwei bestimmte Pixel, je einer pro Display, bevor er das Auge erreicht. Der Strahl ist eine Gerade und mit den zwei Punkten wäre dessen Richtung eindeutig definiert, so die Theorie, so jedenfalls meine Theorie :], immer offen für sinnvolle Ergänzungen. Ich warte dann mal ab was dran ist oder auch nicht.

  8. Re: Ja aber...

    Autor: Anonymer Nutzer 11.08.15 - 00:27

    Licht also Photonen die auf das Auge Treffen haben folgende mögliche Eigenschaften

    1) Anzahl (Luminosität "Helligkeit")
    2) Frequenz (Farbe, Energie per Photon)
    3) Richtung (Lichtfeld)

    1 beherrschen wir seit Anfang an in der Fotografie
    2 war dann der Farbfilm
    3 ist Lichtfeldfotografie bzw. Display

    ein perfektes Lichtfelddisplay ist auch ein perfektes 3D Display, stell dir das so vor das du mit freiem Auge kein Unterschied zu deinem Fenster erkennen kannst - soweit ist die Technik nicht.

    Der Winkel der auftreffenden Photonen ist schuld das deine Augen fokussieren müssen http://www.optik-reisdorff.com/bilder/lexikon/dasauge.png - wenn man jetzt ein Lichtfelddisplay hat bestimmt man diesen Winkel.

    Ich hoffe das erklärt das ausreichend.

  9. Re: Ja aber...

    Autor: Ach 11.08.15 - 12:19

    Danke für diese wirklich sehr anschauliche Erklärung und gute Übersicht. In der einen Antwort über dieser, da habe ich zur ziemlich selben Zeit zur ziemlich identischen Konsequenz gefunden, was ich ziemlich klasse finde. Zwei verschiedenen Ausgangspunkten und das selbe Ergebnis, wir liegen auf dem richtigen Weg :], der Augfokus folgt dem Einfallswinkeln der Lichtstrahlen,

    Was noch fehlt, ist die tatsächliche Erzeugung des Bildes mit den beiden Displays. Problem bei der Geschichte, es gibt da einen unzahl verschiedener Techniken um mit zwei Ebenen einen 3D Effekt vorzutäuschen, und der Begriff "Lichtfeld" beschreibt nicht eine bestimmte dieser Techniken, sondern das darüber liegende Prinzip.

    Du sprichst von physikalischem Fenster vor dem man steht, und das ein ideales Lichtfeld Display darstellt. Stimmt. Das Fenster liefert auch nicht nur ein, sondern eine unendliche Anzahl an Lichtfeldbildern für eine unendliche Anzahl möglicher Betrachtungswinkel. Ein Lichtfeld dagegen, bedient immer genau einen Winkel und es benötigt immer zwei Displays, oder allgemeiner; zwei Matrizen. Zwei, aber auch nicht mehr. Mit zwei Matrizen lässt sich ein komplettes und hochqualitatives Lichtfeld erzeugen. Jede weitere Matrize erzeugt ein weiteres Lichtfeld, das an einem weiteren Winkel gebunden ist. Systeme mit vielen Matrizen kommen folglich bei Monitoren ins Spiel, die ohne Brille und von mehreren Personen gleichzeitig betrachtet werden. Dabei muss jede Augenposition getrackt werden, so dass für jede Augenposition das passende Lichtfeld berechnet werden kann. Die Anzahl der maximal möglichen Betrachter ist durch die Anzahl der Lichtfeldmatrizen definiert.

    Ich habe hier eine etwas ausführlicheres Stanford Video Präsentation gefunden:

    ---------------------- Personalizing Light Fields -----------------------

    Ich muss aber feststellen, dass Gordon Wetzstein da ein bisschen um den Heißen Brei herum redet. Er gibt ja viele interessante Einblicke, wie aber die Pixel in speziell diesem Display geführt werden, darauf geht er kaum ein. Naja, dieses Detail lässt sich mit etwas Recherche sicher auch noch aufschlüsseln :] ...

    LG, Ach

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Product Manager Cloud / PaaS / IaaS (m/w/d)
    iWelt GmbH + Co. KG, Eibelstadt
  2. Kundenbeziehungsmanager Service (m/w/d)
    Gladbacher Bank AG, Korschenbroich
  3. Senior Projektmanager (m/w/d) klinische Anwendungen
    Helios IT Service GmbH, Berlin-Buch
  4. IT Service Manager für SaaS-Produkte (w/m/d)
    EnBW Energie Baden-Württemberg AG Holding, Karlsruhe, Köln

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Fire TV Stick 4K Ultra HD für 28,99€, Fire TV Stick Lite für 18,99€, Echo Dot (4...
  2. (u. a. Galaxy Tab A7 10,4 Zoll 32GB für 132,09€, Galaxy Tab S7+ 12,4 Zoll 256GB für 650,30€)
  3. über 2 Millionen Spar-Deals für Prime-Mitglieder
  4. (u. a. Robas Lund DX Racer 1 für 194,99€, Corsair T1 Race für 207€, Razer Iskur für 389...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Neues Betriebssystem von Microsoft: Wir probieren Windows 11 aus
Neues Betriebssystem von Microsoft
Wir probieren Windows 11 aus

Windows 11 ist bereits im Umlauf. Wir haben die Vorabversion ausprobiert und ein schickes OS durchstöbert. Im Kern ist es aber Windows 10.
Ein Hands-on von Oliver Nickel

  1. Microsoft Windows-10-Nutzer von neuer Wetter-App genervt
  2. Microsoft Windows 10 Ist die "nächste Generation von Windows" ein Windows 11?
  3. Windows 10 Microsoft stellt "die Zukunft von Windows" am 24. Juni vor

Realme GT im Test: Realmes neues Top-Smartphone startet zum Sonderpreis
Realme GT im Test
Realmes neues Top-Smartphone startet zum Sonderpreis

Das Realme GT mit Snapdragon 888, schnellem AMOLED-Display und guter Kamera kostet anfangs nur 370 Euro - aber auch zum Normalpreis lohnt es sich.
Ein Test von Tobias Költzsch

  1. Realme 8 und 8 5G Realme bringt 5G-Smartphone für 200 Euro
  2. Realme 8 Pro im Test Viel Hauptkamera für wenig Geld
  3. Android Realme bringt 5G-Smartphone für 230 Euro nach Deutschland

Telefon- und Internetanbieter: Was tun bei falschen Auftragsbestätigungen?
Telefon- und Internetanbieter
Was tun bei falschen Auftragsbestätigungen?

Bei Telefon- und Internetanschlüssen kommt es öfter vor, dass Verbraucher Auftragsbestätigungen bekommen, obwohl sie nichts bestellt haben.
Von Harald Büring