1. Foren
  2. Kommentare
  3. Software-Entwicklung-Forum
  4. Alle Kommentare zum Artikel
  5. › Euclideon-Chef…

RAM

Neue Foren im Freiraum! Raumfahrt und freie Software haben jetzt einen Platz, die Games tummeln sich jetzt alle in einem Forum.
  1. Thema

Neues Thema


  1. RAM

    Autor: teenriot 03.08.11 - 16:41

    Ich kann mir einfach nicht vorstellen wie das gehen soll.
    Es ist die Rede davon das "64 Atoms pro Kubikmillimeter" dargestellt werden können. Da frage ich mich was das Koordinatensystem einer 3D-Engine mit dem metrischen System zu tun hat. Aber diese Aussage mal für bare Münze genommen.

    Es ist also eine Auflösung von 1/4 mm möglich. Sagen wir 1mm reicht uns und ein Punkt (32Bit-Koordinaten, 16Bit-Normalen, 32Bit-Farben + sonstigen Materialeigenschaften) hat rund 200 Byte. Dann könnte man mit einem Gigabyte Ram gerade mal eine quadratische Fläche mit der Seitenlänge 2,2m speichern. Diese Fläche wäre allerdings nur ein 1mm dick.

    Selbst wenn man nur die Koordinaten speichert also 96 Byte ändert das nicht viel. Ich kann mir nur vorstellen das man nicht alle Punkte speichern sondern Kurven definiert, die on-the-fly bei Bedarf erzeugt werden. Aber wie soll das wiederum akzeptabel ohne GPU ablaufen?

    Ich hoffe das es diese Quadratur des Kreises wirklich gibt und ich kann verstehen das es gute Gründen die entscheidene Technik als Betriebsgeheimnis einzustufen, dennoch denke ich das ein gehöriges Maß an Skepsis angebracht ist



    2 mal bearbeitet, zuletzt am 03.08.11 16:44 durch teenriot.

  2. Re: RAM

    Autor: gorsch 03.08.11 - 16:54

    Naja, mit seiner Behauptung, dass er drölf quadrillionen Punkte darstellen kann, hat er natürlich jede Menge Milchmädchenrechnungen (unter anderem die von Notch) provoziert. Er kann diese Anzahl von Punkten darstellen, aber er kann natürlich nicht eine solche Menge von (einzigartigen!) Punkten im RAM vorhalten.
    Das ist aber auch garnicht nötig, einige zufällig angeordnete, sich wiederholende Elemente sind in der Praxis ausreichend. (Die gezeigten Demos haben ungeschickterweise eine starke Regularität und auch insgesamt sehr wenige verschiedene Assets)
    Allerdings können Rasterizer (im Gegensatz zu Raytracern) durch dieses Verfahren (Instanziierung) nicht deutlich beschleuningt werden, weswegen Spiele davon auch nicht unbedingt profitieren.

  3. Re: RAM

    Autor: teenriot 03.08.11 - 18:07

    Diese Techniken werden aber doch bereits bei Polygon-Engines angewandt. Selbst wenn sich die Datenmenge nur verzehnfacht, gegenüber heutigen Engines, um die selbe Qualität zu erreichen, bedeutet das 5GB statt 500mb, welche ja noch nicht einmal sonderlich hoch gegriffen sind. Damit hätte man allerdings noch nicht das Super-Feature Mikro-Details erreicht.

    Und wenn man Modell-Instanzen verwendet müssen Transformationen der Koordinaten und Normalen durchgeführt werden. Diese wiederum würden ein vielfaches dessen an Performance verbrauchen als es heute der Fall ist, aufgrund der sehr viel höheren Anzahl an Vertices (nicht ganz korrekt - ich weis). Und wie soll das ohne GPUs geschehen die für solche Sachen spezialisiert sind.
    Milchmädchenrechnung: 10fache Daten & 1/10 Transformationsleistung der CPU ggü GPU ergibt 100fachen Performanceverbrauch.



    1 mal bearbeitet, zuletzt am 03.08.11 18:26 durch teenriot.

  4. Re: RAM

    Autor: gorsch 03.08.11 - 18:27

    >Selbst wenn sich die Datenmenge nur verzehnfacht, gegenüber heutigen Engines, um die selbe Qualität zu erreichen, bedeutet das 5GB statt 500mb
    Ich gehe eher von einer ca. 1,5x Steigerung aus, bei einer Pixeldichte die heutigen Assets entspricht. (Die Texturen beanspruchen den meisten Speicher)

    >Damit hätte man allerdings noch nicht das Super-Feature Mikro-Details erreicht.
    Das kommt ganz darauf an wie groß dein Objekt dargestellt wird. Bei vielen kleinen, sich wiederholenden Elemente kommt man da schon auf eine enorme Dichte.

    >Und wenn man Modell-Instanzen verwendet müssen Transformationen der Koordinaten und Normalen durchgeführt werden. Diese wiederum würden ein vielfaches dessen an Performance verbrauchen als es heute der Fall ist, aufgrund der sehr viel höheren Anzahl an Vertices (nicht ganz korrekt - ich weis). Und wie soll das ohne GPUs geschehen die für solche Sachen spezialisiert sind.
    Diese Transformationen müssen nicht auf die einzelnen Punkte angewandt werden, sie müssen nur im Algorithmus bei der Suche nach den Punkten berücksichtigt werden. Sobald man dann den entsprechenden Punkt für den Pixel gefunden hat, kann die Normale dann auch nur für diesen Pixel transformiert werden. Wie es genau funktioniert weiß ich nicht, aber meines Erachtens könnte man das ganze auch gut mit pixelshadern ergänzen.
    >Milchmädchenrechnung: 10fache Daten & 1/10 Transformationsleistung der CPU ggü GPU ergibt 100fachen Performanceverbrauch.
    Die GPU kann sowas 100-1000x schneller. Die Rechnung geht aber trotzdem nicht auf ;-)

  5. Re: RAM

    Autor: teenriot 03.08.11 - 20:14

    gorsch schrieb:
    --------------------------------------------------------------------------------
    > Ich gehe eher von einer ca. 1,5x Steigerung aus, bei einer Pixeldichte die
    > heutigen Assets entspricht. (Die Texturen beanspruchen den meisten
    > Speicher)
    Milchmädchen-Rechnung:
    Bildschirmauflösung 2 Mio Pixel & 50% verdeckter Vertices => 4 Millionen Vertices damit jeder Pixel mit einem Vertex belegt ist.
    Das ist allerdings das best-case-Szenario. Damit aber nah an der Kamera liegende frontale Flächen keine Lücken erzeugen muss die Dichte, meiner Laien-Einschätzung nach, mindestens 5 mal höher sein. Dann wären wir schon bei bei 20 Mio Vertices. Naja gut - klingt realistisch. Allerdings ist das erst ein Bild und nicht der aktuell benötigte Weltausschnitt. Ich habe keine Vorstellung wieviel prozent einer Welt üblicherweise im Speicher gehalten werden. Mich würde es aber nicht wundern wenn das 10 fache dessen, was im Sichtfeld liegt, im Speicher gehalten wird. Dann wären wir bei 200 Mio Vertices. Das sind 40 GB bei 200 Byte pro Punkt. Wenn man das durch Instanzierung zehnteln kann, bleiben 4 GB übrig, Naja gut - klingt auch realistisch. Allerdings auch nur im Vergleich mit heute üblichen Details.

    Es würde mich nicht wundern wenn diese Laienmeinung ignoriert wird, würde Korrekturen aber begrüßen.

  6. Re: RAM

    Autor: gorsch 03.08.11 - 20:43

    Jetzt wird die Milch aber langsam sauer ;)
    >Bildschirmauflösung 2 Mio Pixel & 50% verdeckter Vertices => 4 Millionen Vertices damit jeder Pixel mit einem Vertex belegt ist.
    Das Verfahren brüstet ja sich damit, dass verdeckte Vertices garnicht erst beachtet werden. Man kann auch davon ausgehen, dass ein Vertex mehrere Pixel ausfüllen kann (also eher eine Scheibe/Sphäre statt ein pixelgroßer Punkt)...
    >Damit aber nah an der Kamera liegende frontale Flächen keine Lücken erzeugen muss die Dichte, meiner Laien-Einschätzung nach, mindestens 5 mal höher sein
    ... damit eben keine Lücken entstehen.
    >Ich habe keine Vorstellung wieviel prozent einer Welt üblicherweise im Speicher gehalten werden.
    Es müssen die Daten für die einzigartigen Modelle, sowie die Information über deren Instanziierung (position, rotation, evtl. andere variierende Features) sowie der Overhead für die Struktur in der sie abgelegt wird, vorgehalten werden. Wieviel das nun ist hängt sehr stark vom Einzelfall ab, ggf. kann man auch Daten nachstreamen (in verschiedenen Detailstufen).
    >Mich würde es aber nicht wundern wenn das 10 fache dessen, was im Sichtfeld liegt, im Speicher gehalten wird.
    Das kann man nicht generalisieren.
    [open-tube.com]
    In diesem Bild siehst du sicherlich abermillionen von Polygonen, es ist aber sich sehr viel sich wiederholende Struktur darin. Du kannst davon ausgehen, dass die gesamte Szene in 2GB Speicher gepasst hat (behaupte ich jetzt mal nach meiner Erfahrung mit dem Programm - Vue heißt es)
    >Wenn man das durch Instanzierung zehnteln kann
    Wenn du 1 Million gleiche Blätter hast, kannst du's mit Instanziierungen durch 1 Million teilen. Wie gesagt, man kann es nicht generalisieren.



    1 mal bearbeitet, zuletzt am 03.08.11 20:44 durch gorsch.

  7. Re: RAM

    Autor: teenriot 03.08.11 - 21:07

    gorsch schrieb:
    --------------------------------------------------------------------------------
    > Jetzt wird die Milch aber langsam sauer ;)
    > >Bildschirmauflösung 2 Mio Pixel & 50% verdeckter Vertices => 4 Millionen
    > Vertices damit jeder Pixel mit einem Vertex belegt ist.
    > Das Verfahren brüstet ja sich damit, dass verdeckte Vertices garnicht erst
    > beachtet werden. Man kann auch davon ausgehen, dass ein Vertex mehrere
    > Pixel ausfüllen kann (also eher eine Scheibe/Sphäre statt ein pixelgroßer
    > Punkt)...
    Allerdings müssen auch verdeckte Vertices im Speicher gehalten werden. Und Multipixel-Vertices widersprechen dem Mikrodetail-Qualitätsanspruch der Entwickler.

    > Es müssen die Daten für die einzigartigen Modelle, sowie die Information
    > über deren Instanziierung (position, rotation, evtl. andere variierende
    > Features) sowie der Overhead für die Struktur in der sie abgelegt wird,
    > vorgehalten werden. Wieviel das nun ist hängt sehr stark vom Einzelfall ab,
    > ggf. kann man auch Daten nachstreamen (in verschiedenen Detailstufen).
    > >Mich würde es aber nicht wundern wenn das 10 fache dessen, was im
    > Sichtfeld liegt, im Speicher gehalten wird.
    > Das kann man nicht generalisieren.
    Sicherlich nicht. Um aber einen gedanklichen 'Stresstest' zu machen geht man wohl am besten von Outdoor-Szenen aus.

    > open-tube.com
    > In diesem Bild siehst du sicherlich abermillionen von Polygonen, es ist
    > aber sich sehr viel sich wiederholende Struktur darin. Du kannst davon
    > ausgehen, dass die gesamte Szene in 2GB Speicher gepasst hat (behaupte ich
    > jetzt mal nach meiner Erfahrung mit dem Programm - Vue heißt es)
    Schickes Bild.

    > Wenn du 1 Million gleiche Blätter hast, kannst du's mit Instanziierungen
    > durch 1 Million teilen. Wie gesagt, man kann es nicht generalisieren.
    Ok überzeugt. Ich denke ich weis jetzt auch wo das 'psychische' Problem der Skeptiker liegt. Man erwartet, wenn man die Ankündigungen hört, eine eierlegende Wohlmilchsau die detailierter, echter und flüßiger als die Wirklichkeit ist und es nicht nötig hat auf Tricks zurückzugreifen. Das ist ein bischen so wie in der DDR. Das da 'drüben' wurde Mangels Unkenntnis zum Paradies auf Erden verklärt wo einem das Brathänchen in den Mund fliegt. Die Wahrheit liegt eben irgendwo in der Mitte.
    Deswegen werde ich auch nicht mehr versuchen Milch aus der Sau zu pressen :)
    (Ich bin Ossi - habe übertrieben - und verbitte mir politische Diskussionen)



    1 mal bearbeitet, zuletzt am 03.08.11 21:09 durch teenriot.

  1. Thema

Neues Thema


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Mitarbeiter:in für Datenmanagement und -recherche (m/w/d)
    DIMA Finanzierungs- und Immobilientreuhand GmbH, Berlin-Wilmersdorf
  2. Graduate* Operational Technology/OT (m/w/d)
    SCHOTT AG, Landshut
  3. Process Consultant PLM (m/w/d)
    INNEO Solutions GmbH, deutschlandweit
  4. Softwarearchitekt:in (m/w/d)
    Governikus GmbH & Co. KG, Bremen

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)
  2. 399,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Arbeit in der IT: Depression vorprogrammiert
Arbeit in der IT
Depression vorprogrammiert

ITler unterschätzen oft mentale Probleme. Dabei bietet gerade ihre Arbeitswelt einen Nährboden für Depressionen und Angstzustände.
Ein Feature von Andreas Schulte

  1. IT-Arbeit Zwei Informatikstudien und immer noch kein Programmierer
  2. Work-Life-Balance in der IT Ich will mein Leben zurück
  3. Mitarbeiterbewertung in der IT Fair ist schwer

Rollen in Data-Science-Teams: Data Scientist, Data Engineer, Data... was?
Rollen in Data-Science-Teams
Data Scientist, Data Engineer, Data... was?

In vielen Firmen kümmert sich ein Data Scientist darum, Infos aus Daten zu gewinnen. Es gibt aber noch andere "Data"-Rollen - und alle sind sie wichtig.
Von Florian Voglauer

  1. Data Scientists und Data Engineers Die Rockstars alleine machen nicht die Show

Konkurrenz zu Netflix und Disney+: Katalog von Paramount+ in Europa viel kleiner als in USA
Konkurrenz zu Netflix und Disney+
Katalog von Paramount+ in Europa viel kleiner als in USA

Im Dezember 2022 startet Paramount+ in Deutschland, Österreich und der Schweiz. Der Katalog könnte deutlich kleiner als bei der Konkurrenz ausfallen.
Von Ingo Pakalski

  1. Konkurrenz zu Disney+ Paramount+ kommt für 7,99 Euro pro Monat
  2. Konkurrenz zu Disney+ und Netflix Paramount+ hat rund 40 Millionen Abonnenten
  3. Konkurrenz zu Netflix und Disney+ Paramount+ startet im zweiten Halbjahr 2022