1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Software Rasterizer im Test: Wenn…

Nur: wozu?

  1. Thema

Neues Thema Ansicht wechseln


  1. Nur: wozu?

    Autor: recluce 05.01.21 - 18:13

    Ich fand den Artikel irgendwo durchaus interessant. Aber auch wenn ich jetzt hier im Forum geteert und gefedert werden sollte, bleibt die Frage: wozu? Mir fällt irgendwie keine praktisch zu erwartende Hardware ein, auf der das Sinn machen würde. Auch wenn es vielleicht die schnellste Möglichkeit wäre, auf dem Server (z.B. 64 Core Epyc mit Grafikchip im Stil von Tseng ET 4000 und Co) zu daddeln....

  2. Re: Nur: wozu?

    Autor: kaesekuchen 05.01.21 - 19:40

    Ich glaub, die Absicht dahinter ist nicht, etwas schnelleres zu haben als eine Hardware-GPU, bzw. vielleicht nicht mal unbedingt, das Ganze überhaupt mit interaktiven Framerates zu nutzen.

    Letztlich weiß ich's auch nicht, aber ich vermute mal, es dient eher Testzwecken, oder für spezielle Anwendungsfälle, wo man per 3D-Grafik-API Bilder erzeugen möchte, aber aus irgendwelchen Gründen eine echte GPU nicht oder nicht optimal verwenden kann.

    Ich hatte vor vielen Jahren tatsächlich mal so einen Fall, wofür ich einen OpenGL-Softwaremodus-Renderer (Mesa Offscreen) verwendet hatte. Da ging es darum, 3D-Grafiken in hoher Auflösung (Druckqualität) in Bilddateien zu schreiben. Mit dem Umweg über die echte GPU wäre das deutlich umständlicher gewesen als so. Die Renderzeit für ein einzelnes Bild hatte dabei keine Rolle gespielt.

  3. Re: Nur: wozu?

    Autor: paletto 05.01.21 - 20:25

    Bei DirectX gab es im SDK einen Referenz-Renderer in Software. Damit konnte man seine eigenen Entwicklungen testen, auch um festzustellen, ob der Bug im Treiber oder im eigenen Code sich befindet.

  4. Re: Nur: wozu?

    Autor: Renegade3349 05.01.21 - 22:56

    recluce schrieb:
    --------------------------------------------------------------------------------
    > wozu? Mir fällt irgendwie keine praktisch zu erwartende Hardware ein, auf
    > der das Sinn machen würde.
    Mein erster Gedanke war ein Terminalserver.

    Wenn nicht gerade ein Spiel beschleunigt werden muss könnte das einiges an Anwendungen ermöglichen. GPU Virtualisierung ist halt immer noch recht teuer. Soweit ich weiß sind die momentanen Möglichkeiten Softwareberechung, Aufteilung von GPU Resourcen (was aber wohl nur für die Profi/Server Karten freigeschaltet ist) und 1zu1 durchreichen einer kompletten GPU, was halt auch wieder teuer wird.

  5. Re: Nur: wozu?

    Autor: derLaie 05.01.21 - 23:22

    Mit der nächsten Generation CPU die auf Magnonik statt Elektronik setzt kann das schnell alles anders werden. Stell dir mal vor Prozessoren Takten auf einmal im Tera- oder Exabereich. Das ermöglicht Magnonik bei der eben nicht ein Elektronenfluss geschaltet wird (el. Widerstände erzeugen Verlustleistung und Hitzeentwicklung) sondern Magnonen. Das sind Wellen die sich als Elektronen-Spin ausbreiten. Da sich Elektronen nicht mehr bewegen gibt es auch kaum einen Widerstand. Der Wirkungsgrad steigt rapide an und es werden Taktraten jenseits von Gut und Böse möglich. Ich glaube Microsoft weiß dass es theoretisch möglich ist und hält die Option einfach offen. Ob und wann sowas kommen könnte weiß ich nicht. Das letztr mal das ich darüber gelesen hatte ist schon mehr als 10 Jahre her und da war das noch in der ganz frühen Forschung.

    Der Wikipedia Artikel ist sogar nur 6 Zeilen lang^^ [de.wikipedia.org]

    Da die Bildrate mit ner CPU praktisch zu 100% skaliert wären schon bei nem Faktor 100 mehr Rechenleistung plötzlich 400 statt 4 fps möglich.



    4 mal bearbeitet, zuletzt am 05.01.21 23:26 durch derLaie.

  6. Re: Nur: wozu?

    Autor: p4m 05.01.21 - 23:32

    derLaie schrieb:
    --------------------------------------------------------------------------------
    > Der Wikipedia Artikel ist sogar nur 6 Zeilen lang^^

    Ist nicht alleine das schon ein Indiz darüber, wie relevant das Verfahren derzeit ist?

  7. Re: Nur: wozu?

    Autor: danh 05.01.21 - 23:40

    Ich hatte mich vor einiger Zeit mal gefragt, ob es Möglichkeiten gibt Shader-Code zu debuggen und ich würde erwarten, dass das durch diese Option z. B. deutlich einfacher werden könnte als wenn er wirklich auf der GPU ausgeführt wird.

    Oder gibt es dafür geeignetere Funktionen?

  8. Re: Nur: wozu?

    Autor: derLaie 05.01.21 - 23:48

    Heute sicher irrelevant aber in 10 Jahren? Wie schnell sind 10 Jahre mal eben vorbei und so ein Software-Renderer entwickelt sich nicht mal eben so binnen Monaten um das zu nutzen. Das dauert sicher auch einige Jahre es sei denn man bleibt mit nem kleinen Entwickler-Team einfach die ganze Zeit dran.

    Sobald die Technik interessant genug für einen Hersteller wird der da mal eben Milliarden investieren kann gibt es das in Null-Komma-Nix. Apple könnte sich sowas sicher leisten.



    2 mal bearbeitet, zuletzt am 05.01.21 23:54 durch derLaie.

  9. Re: Nur: wozu?

    Autor: nate 06.01.21 - 08:57

    > so ein Software-Renderer entwickelt sich nicht mal eben so
    > binnen Monaten

    Doch, genau das dürfte der Zeitrahmen sein, den ein Software-Renderer von "erste Idee" bis zu "erste brauchbare Version" braucht, wenn man die richtigen Ingenieure dran setzt.

  10. Re: Nur: wozu?

    Autor: Bruto 06.01.21 - 10:45

    Ich denke da an Cloud-Anwendungen. CPU-Cluster sind im Rechenzentrum deutlich günstiger als GPUs (NVIDIA zwingt einen ja dazu, mindestens Quadro-Karten zu kaufen) und skalieren sehr gut.

    So kann man dynamisch, skalierbar und auch weitgehend plattformunabhängig 3D-Inhalte rendern, ohne die Grafikengine neu zu schreiben. Egal ob im Rechenzentrum oder auf einem Smartphone. Mal nur angeregt: Google hat mit SwiftShader sowas schon länger im Einsatz für Vulkan und OpenGL.

  11. Re: Nur: wozu?

    Autor: kaesekuchen 06.01.21 - 12:57

    Bruto schrieb:
    --------------------------------------------------------------------------------
    > Ich denke da an Cloud-Anwendungen. CPU-Cluster sind im Rechenzentrum
    > deutlich günstiger als GPUs (NVIDIA zwingt einen ja dazu, mindestens
    > Quadro-Karten zu kaufen) und skalieren sehr gut.
    >
    > So kann man dynamisch, skalierbar und auch weitgehend plattformunabhängig
    > 3D-Inhalte rendern, ohne die Grafikengine neu zu schreiben. Egal ob im
    > Rechenzentrum oder auf einem Smartphone. Mal nur angeregt: Google hat mit
    > SwiftShader sowas schon länger im Einsatz für Vulkan und OpenGL.

    Ich geh aber mal ganz stark davon aus, dass sich das für performancekritische Anwendungen wie Spiele-Streaming-Betrieb (Hardware- und Energiekosten für eine gegebene Anzahl Frames pro Sekunde) nicht lohnt. GPUs existieren ja nicht ohne Grund, und warum sollte 3D-Rendering auf CPUs im Rechenzentrum billiger sein als zu hause?

    Ich hab jedenfalls noch nie gehört, dass irgend wo, wo Render-Leistung wichtig ist, CPUs gegenüber GPUs bevorzugt werden. Der Trend geht vielmehr genau in die entgegengesetzte Richtung, nämlich dass auch für nicht-interaktives Rendering (Standbilder und Animationsfilme) schon seit einiger Zeit immer mehr auf GPU-basierte Implementierungen gesetzt wird.



    2 mal bearbeitet, zuletzt am 06.01.21 13:02 durch kaesekuchen.

  12. Re: Nur: wozu?

    Autor: Bruto 06.01.21 - 13:25

    Naja, es rentiert sich immer wenn Flexibilität für die Entwickler wichtig ist (läuft ohne Anpassung auf jeder Hardware, egal ob Server oder Handy), und gleichzeitig nicht die geballte Leistung einer ganzen GPU gebraucht wird. Spielestreaming sicher nicht, und Crysis ist ja auch nur eine lustige Demo, die sicher nicht der Einsatzzweck ist.

    Ich glaube, die Crysis-Demo führt ein wenig auf die falsche Fährte, mit Sicherheit wird niemand leistungshungrige Spiele auf der CPU spielen. Es geht eher um ein Niedrigleistungs-Segment, das unkompliziert und skalierbar betrieben werden kann (Swiftshader zumindest läuft sogar auf ARM).

    Konkret zum WARP: soweit ich weiß, unterstützt SwiftShader nicht die neuesten D3D-Versionen, das neue Ding von MS aber schon. Vielleicht wollen sie hier gegensteuern, denn OpenGL/Vulkan setzt sich (außerhalb der Spielewelt) mehr und mehr durch.



    2 mal bearbeitet, zuletzt am 06.01.21 13:27 durch Bruto.

  13. Re: Nur: wozu?

    Autor: gorsch 11.01.21 - 13:30

    Erstens: Validierung. Grafiktreiber haben oft Bugs, wenn der Code auf dem Software-Renderer läuft, dann weist das auf ein Treiberproblem hin.

    Zweitens: Fallback. Man stelle sich eine Anwendung vor, die mit GPU-Beschleunigung arbeiten *kann*, sie aber nicht unbedingt benötigt. Die geht dann nicht gleich kaputt, nur weil entsprechende Hardware nicht verbaut ist.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Kyberg Pharma Vertriebs-GmbH & Co. KG, Oberhaching bei München
  2. Blutspendedienst des Bayerischen Roten Kreuzes gGmbH, Wiesentheid
  3. procilon Group GmbH, Berlin
  4. ING Deutschland, Frankfurt

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)


Haben wir etwas übersehen?

E-Mail an news@golem.de