1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Software Rasterizer im Test: Wenn…

Nur: wozu?

Helft uns, die neuen Foren besser zu machen! Unsere kleine Umfrage dauert nur wenige Sekunden!
  1. Thema

Neues Thema Ansicht wechseln


  1. Nur: wozu?

    Autor: recluce 05.01.21 - 18:13

    Ich fand den Artikel irgendwo durchaus interessant. Aber auch wenn ich jetzt hier im Forum geteert und gefedert werden sollte, bleibt die Frage: wozu? Mir fällt irgendwie keine praktisch zu erwartende Hardware ein, auf der das Sinn machen würde. Auch wenn es vielleicht die schnellste Möglichkeit wäre, auf dem Server (z.B. 64 Core Epyc mit Grafikchip im Stil von Tseng ET 4000 und Co) zu daddeln....

  2. Re: Nur: wozu?

    Autor: kaesekuchen 05.01.21 - 19:40

    Ich glaub, die Absicht dahinter ist nicht, etwas schnelleres zu haben als eine Hardware-GPU, bzw. vielleicht nicht mal unbedingt, das Ganze überhaupt mit interaktiven Framerates zu nutzen.

    Letztlich weiß ich's auch nicht, aber ich vermute mal, es dient eher Testzwecken, oder für spezielle Anwendungsfälle, wo man per 3D-Grafik-API Bilder erzeugen möchte, aber aus irgendwelchen Gründen eine echte GPU nicht oder nicht optimal verwenden kann.

    Ich hatte vor vielen Jahren tatsächlich mal so einen Fall, wofür ich einen OpenGL-Softwaremodus-Renderer (Mesa Offscreen) verwendet hatte. Da ging es darum, 3D-Grafiken in hoher Auflösung (Druckqualität) in Bilddateien zu schreiben. Mit dem Umweg über die echte GPU wäre das deutlich umständlicher gewesen als so. Die Renderzeit für ein einzelnes Bild hatte dabei keine Rolle gespielt.

  3. Re: Nur: wozu?

    Autor: paletto 05.01.21 - 20:25

    Bei DirectX gab es im SDK einen Referenz-Renderer in Software. Damit konnte man seine eigenen Entwicklungen testen, auch um festzustellen, ob der Bug im Treiber oder im eigenen Code sich befindet.

  4. Re: Nur: wozu?

    Autor: Renegade3349 05.01.21 - 22:56

    recluce schrieb:
    --------------------------------------------------------------------------------
    > wozu? Mir fällt irgendwie keine praktisch zu erwartende Hardware ein, auf
    > der das Sinn machen würde.
    Mein erster Gedanke war ein Terminalserver.

    Wenn nicht gerade ein Spiel beschleunigt werden muss könnte das einiges an Anwendungen ermöglichen. GPU Virtualisierung ist halt immer noch recht teuer. Soweit ich weiß sind die momentanen Möglichkeiten Softwareberechung, Aufteilung von GPU Resourcen (was aber wohl nur für die Profi/Server Karten freigeschaltet ist) und 1zu1 durchreichen einer kompletten GPU, was halt auch wieder teuer wird.

  5. Re: Nur: wozu?

    Autor: derLaie 05.01.21 - 23:22

    Mit der nächsten Generation CPU die auf Magnonik statt Elektronik setzt kann das schnell alles anders werden. Stell dir mal vor Prozessoren Takten auf einmal im Tera- oder Exabereich. Das ermöglicht Magnonik bei der eben nicht ein Elektronenfluss geschaltet wird (el. Widerstände erzeugen Verlustleistung und Hitzeentwicklung) sondern Magnonen. Das sind Wellen die sich als Elektronen-Spin ausbreiten. Da sich Elektronen nicht mehr bewegen gibt es auch kaum einen Widerstand. Der Wirkungsgrad steigt rapide an und es werden Taktraten jenseits von Gut und Böse möglich. Ich glaube Microsoft weiß dass es theoretisch möglich ist und hält die Option einfach offen. Ob und wann sowas kommen könnte weiß ich nicht. Das letztr mal das ich darüber gelesen hatte ist schon mehr als 10 Jahre her und da war das noch in der ganz frühen Forschung.

    Der Wikipedia Artikel ist sogar nur 6 Zeilen lang^^ [de.wikipedia.org]

    Da die Bildrate mit ner CPU praktisch zu 100% skaliert wären schon bei nem Faktor 100 mehr Rechenleistung plötzlich 400 statt 4 fps möglich.



    4 mal bearbeitet, zuletzt am 05.01.21 23:26 durch derLaie.

  6. Re: Nur: wozu?

    Autor: p4m 05.01.21 - 23:32

    derLaie schrieb:
    --------------------------------------------------------------------------------
    > Der Wikipedia Artikel ist sogar nur 6 Zeilen lang^^

    Ist nicht alleine das schon ein Indiz darüber, wie relevant das Verfahren derzeit ist?

  7. Re: Nur: wozu?

    Autor: danh 05.01.21 - 23:40

    Ich hatte mich vor einiger Zeit mal gefragt, ob es Möglichkeiten gibt Shader-Code zu debuggen und ich würde erwarten, dass das durch diese Option z. B. deutlich einfacher werden könnte als wenn er wirklich auf der GPU ausgeführt wird.

    Oder gibt es dafür geeignetere Funktionen?

  8. Re: Nur: wozu?

    Autor: derLaie 05.01.21 - 23:48

    Heute sicher irrelevant aber in 10 Jahren? Wie schnell sind 10 Jahre mal eben vorbei und so ein Software-Renderer entwickelt sich nicht mal eben so binnen Monaten um das zu nutzen. Das dauert sicher auch einige Jahre es sei denn man bleibt mit nem kleinen Entwickler-Team einfach die ganze Zeit dran.

    Sobald die Technik interessant genug für einen Hersteller wird der da mal eben Milliarden investieren kann gibt es das in Null-Komma-Nix. Apple könnte sich sowas sicher leisten.



    2 mal bearbeitet, zuletzt am 05.01.21 23:54 durch derLaie.

  9. Re: Nur: wozu?

    Autor: nate 06.01.21 - 08:57

    > so ein Software-Renderer entwickelt sich nicht mal eben so
    > binnen Monaten

    Doch, genau das dürfte der Zeitrahmen sein, den ein Software-Renderer von "erste Idee" bis zu "erste brauchbare Version" braucht, wenn man die richtigen Ingenieure dran setzt.

  10. Re: Nur: wozu?

    Autor: Bruto 06.01.21 - 10:45

    Ich denke da an Cloud-Anwendungen. CPU-Cluster sind im Rechenzentrum deutlich günstiger als GPUs (NVIDIA zwingt einen ja dazu, mindestens Quadro-Karten zu kaufen) und skalieren sehr gut.

    So kann man dynamisch, skalierbar und auch weitgehend plattformunabhängig 3D-Inhalte rendern, ohne die Grafikengine neu zu schreiben. Egal ob im Rechenzentrum oder auf einem Smartphone. Mal nur angeregt: Google hat mit SwiftShader sowas schon länger im Einsatz für Vulkan und OpenGL.

  11. Re: Nur: wozu?

    Autor: kaesekuchen 06.01.21 - 12:57

    Bruto schrieb:
    --------------------------------------------------------------------------------
    > Ich denke da an Cloud-Anwendungen. CPU-Cluster sind im Rechenzentrum
    > deutlich günstiger als GPUs (NVIDIA zwingt einen ja dazu, mindestens
    > Quadro-Karten zu kaufen) und skalieren sehr gut.
    >
    > So kann man dynamisch, skalierbar und auch weitgehend plattformunabhängig
    > 3D-Inhalte rendern, ohne die Grafikengine neu zu schreiben. Egal ob im
    > Rechenzentrum oder auf einem Smartphone. Mal nur angeregt: Google hat mit
    > SwiftShader sowas schon länger im Einsatz für Vulkan und OpenGL.

    Ich geh aber mal ganz stark davon aus, dass sich das für performancekritische Anwendungen wie Spiele-Streaming-Betrieb (Hardware- und Energiekosten für eine gegebene Anzahl Frames pro Sekunde) nicht lohnt. GPUs existieren ja nicht ohne Grund, und warum sollte 3D-Rendering auf CPUs im Rechenzentrum billiger sein als zu hause?

    Ich hab jedenfalls noch nie gehört, dass irgend wo, wo Render-Leistung wichtig ist, CPUs gegenüber GPUs bevorzugt werden. Der Trend geht vielmehr genau in die entgegengesetzte Richtung, nämlich dass auch für nicht-interaktives Rendering (Standbilder und Animationsfilme) schon seit einiger Zeit immer mehr auf GPU-basierte Implementierungen gesetzt wird.



    2 mal bearbeitet, zuletzt am 06.01.21 13:02 durch kaesekuchen.

  12. Re: Nur: wozu?

    Autor: Bruto 06.01.21 - 13:25

    Naja, es rentiert sich immer wenn Flexibilität für die Entwickler wichtig ist (läuft ohne Anpassung auf jeder Hardware, egal ob Server oder Handy), und gleichzeitig nicht die geballte Leistung einer ganzen GPU gebraucht wird. Spielestreaming sicher nicht, und Crysis ist ja auch nur eine lustige Demo, die sicher nicht der Einsatzzweck ist.

    Ich glaube, die Crysis-Demo führt ein wenig auf die falsche Fährte, mit Sicherheit wird niemand leistungshungrige Spiele auf der CPU spielen. Es geht eher um ein Niedrigleistungs-Segment, das unkompliziert und skalierbar betrieben werden kann (Swiftshader zumindest läuft sogar auf ARM).

    Konkret zum WARP: soweit ich weiß, unterstützt SwiftShader nicht die neuesten D3D-Versionen, das neue Ding von MS aber schon. Vielleicht wollen sie hier gegensteuern, denn OpenGL/Vulkan setzt sich (außerhalb der Spielewelt) mehr und mehr durch.



    2 mal bearbeitet, zuletzt am 06.01.21 13:27 durch Bruto.

  13. Re: Nur: wozu?

    Autor: gorsch 11.01.21 - 13:30

    Erstens: Validierung. Grafiktreiber haben oft Bugs, wenn der Code auf dem Software-Renderer läuft, dann weist das auf ein Treiberproblem hin.

    Zweitens: Fallback. Man stelle sich eine Anwendung vor, die mit GPU-Beschleunigung arbeiten *kann*, sie aber nicht unbedingt benötigt. Die geht dann nicht gleich kaputt, nur weil entsprechende Hardware nicht verbaut ist.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Amprion GmbH, Pulheim
  2. mahl gebhard konzepte Landschaftsarchitekten BDLA Stadtplaner Partnerschaftsgesellschaft mbB, München
  3. BG Klinikum Unfallkrankenhaus Berlin gGmbH, Berlin
  4. ifp ? Personalberatung Managementdiagnostik, Rheinland

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. 6,50€
  2. 25,99€
  3. für PC, PS4/PS5, Xbox und Switch
  4. 26,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme