1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › AMD Ryzen: Threadripper bringt 16…

CPU vs GPU (CUDA)

  1. Thema

Neues Thema Ansicht wechseln


  1. CPU vs GPU (CUDA)

    Autor: gs2 17.05.17 - 08:07

    Sobald ich in Blender ein 3D Modell erstelle, merke ich den krassen Unterschied zws. CPU (langsam) und GPU (schnell) Rendering. Da auch aktuelle "KI" Systeme mehr auf CUDA setzen, frage ich mich, wie lange hier noch immer mehr "langsame" CPUs entwickelt werden. Lieber sollten die Prozessorschmieden etwas CUDA artiges implementieren und dazu entsprechende Softwaretechniken etablieren. Dann kommt endlich der nächste große Leistungssprung in dieser abgegrasten CPU Sparte.

  2. Re: CPU vs GPU (CUDA)

    Autor: tuxx 17.05.17 - 08:13

    > Lieber sollten die Prozessorschmieden etwas CUDA artiges implementieren...

    So etwas wie AVX (https://en.wikipedia.org/wiki/Advanced_Vector_Extensions) und co?

    > ...und dazu entsprechende Softwaretechniken etablieren

    Nicht jedes Problem lässt sich durch SIMD effizient lösen. Der Grund warum z. B. Blender so stark davon profitiert liegt in der Natur der Problemstellung und nicht daran, dass SIMD das "Silver Bullet" ist.

  3. Re: was du meinst soll sicherlich der Cycle Render sein

    Autor: Signator 17.05.17 - 08:21

    Dieser unterstützt mittlerweile, seit 2.78 (glaube c), auch AMD.

  4. Re: CPU vs GPU (CUDA)

    Autor: Signator 17.05.17 - 08:35

    Ich glaube nicht dass er von SIMD (Single Instruction, multiple Data) ausging.

    Allein dass die CPU-Hersteller CUDA implementieren sollten ist schon etwas weit hergeholt. CUDA ist von Nvidia und deren Produkt ist (Lizenzrechte).
    Und warum sollte AMD Cuda implementieren?

    Er hat wahrscheinlich auch mit Cycle-Render gerendert. Sehr Nvidia-lastig bis zur Blender-Version 2.78c.

  5. Re: CPU vs GPU (CUDA)

    Autor: PiranhA 17.05.17 - 08:56

    CPUs und GPUs sind halt grund verschieden in ihrer Bauart. GPUs setzten vor allem auf stark parallelisierte Berechnungen. So was wie Blender kann davon einfach extrem profitieren. Das hat auch nichts mit CUDA zu tun (nur indirekt), sondern liegt grundsätzlich erstmal am Aufbau der Hardware. Umgekehrt kann eine GPU auch gar nicht die Aufgaben einer CPU übernehmen.
    Das hängt einfach von den Aufgaben ab, was besser eine GPU oder eine CPU leisten kann.

  6. Re: CPU vs GPU (CUDA)

    Autor: mannzi 17.05.17 - 09:31

    In Blender macht die GPU dann ja quasi genau dass, wofür die GPU gebaut wurde: Irgendwelche Grafiken rendern.

  7. Re: CPU vs GPU (CUDA)

    Autor: gs2 17.05.17 - 09:34

    PiranhA schrieb:
    --------------------------------------------------------------------------------
    > CPUs und GPUs sind halt grund verschieden in ihrer Bauart.
    > Umgekehrt kann eine GPU auch gar nicht die Aufgaben einer CPU übernehmen.
    > Das hängt einfach von den Aufgaben ab, was besser eine GPU oder eine CPU
    > leisten kann.
    Ja, der Aufbau ist grundsätzlich anders. Aber da ich davon ausgehe, dass mit einem anpassen von Software/Befehlen, auch CPU Aufgaben auf eine Art(!) CUDA zu verlegen, halte ich es für machbar.

    Immerhin gibt es hier auch Ansätze, welche die Prozessorarchitektur verlassen wollen:
    https://www.golem.de/news/microsoft-weil-cpus-zu-langsam-sind-muessen-fpgas-her-1705-127784.html

  8. Re: CPU vs GPU (CUDA)

    Autor: LennStar 17.05.17 - 09:39

    PiranhA schrieb:
    --------------------------------------------------------------------------------
    > CPUs und GPUs sind halt grund verschieden in ihrer Bauart. GPUs setzten vor
    > allem auf stark parallelisierte Berechnungen. So was wie Blender kann davon
    > einfach extrem profitieren. Das hat auch nichts mit CUDA zu tun (nur
    > indirekt), sondern liegt grundsätzlich erstmal am Aufbau der Hardware.
    > Umgekehrt kann eine GPU auch gar nicht die Aufgaben einer CPU übernehmen.
    > Das hängt einfach von den Aufgaben ab, was besser eine GPU oder eine CPU
    > leisten kann.

    Das ist imho nicht ganz richtig. Soweit ich weiß sind die aktuellen GPUs Turing-complete.
    Bringt dir natürlich nichts, wenn du wegen dem geringeren Takt und aufwendigen ablauf dann mit der GPU 10 Mal langsamer bist als mit der CPU und/oder mehrfaches an Strom verbrauchst.

  9. Re: CPU vs GPU (CUDA)

    Autor: Suppenpulver 17.05.17 - 10:40

    Gibt es für AMD und Co nicht schon LANGE etwaas ähnliches? OpenCL ?

  10. Re: CPU vs GPU (CUDA)

    Autor: Sarkastius 17.05.17 - 12:50

    gs2 schrieb:
    --------------------------------------------------------------------------------
    > Sobald ich in Blender ein 3D Modell erstelle, merke ich den krassen
    > Unterschied zws. CPU (langsam) und GPU (schnell) Rendering. Da auch
    > aktuelle "KI" Systeme mehr auf CUDA setzen, frage ich mich, wie lange hier
    > noch immer mehr "langsame" CPUs entwickelt werden. Lieber sollten die
    > Prozessorschmieden etwas CUDA artiges implementieren und dazu entsprechende
    > Softwaretechniken etablieren. Dann kommt endlich der nächste große
    > Leistungssprung in dieser abgegrasten CPU Sparte.
    Was hat jetzt eine zentrale Einheit mit einer dedizierten Einheit zu tun die nur bestimmte Aufgaben beherrscht? Allein x86 Kompatibilität benötigt sehr viel Overhead. Davon abgesehen gibt's onboard Grafikkarten die laut MS Werbung von 2015 mit DX 12 zusätzlich ein postprocessing ausführen können. Da kam bis jetzt nix.
    Am kann sehr viel auf einen dedizierten Chip auslagern (Lan, Sound, Grafik, Physics, Rendering). Fragt sich dann immer nur wie teuer alles wird.

  11. Re: CPU vs GPU (CUDA)

    Autor: thecrew 17.05.17 - 13:57

    Suppenpulver schrieb:
    --------------------------------------------------------------------------------
    > Gibt es für AMD und Co nicht schon LANGE etwaas ähnliches? OpenCL ?

    Yup OpenCL können beide NVIDIA und AMD.
    AMD unterstützt darin dann auch ihren eigenen Standard "Vulkan" vormals Mantle.

  12. Re: CPU vs GPU (CUDA)

    Autor: Anonymer Nutzer 17.05.17 - 15:44

    Die Vulkan API ist ein offener Standard, welcher von einem Industriekonsortium namens Khronos Group verwaltet wird und welches aus weit über 100 Mitgliedern besteht, darunter auch AMD, Intel, NVIDIA, SGI, Apple, Microsoft, Google & Oracle.

    Bevor man irgendwelche Lügen verbreitet, informiert man sich vorher, denn AMD hat Mantle aufgeben und ist die Vulkan API gewechselt, welche als Nachfolger von OpenCL angekündigt wurde.

  13. Re: CPU vs GPU (CUDA)

    Autor: triri 17.05.17 - 16:46

    gs2 schrieb:
    --------------------------------------------------------------------------------
    > Ja, der Aufbau ist grundsätzlich anders. Aber da ich davon ausgehe, dass
    > mit einem anpassen von Software/Befehlen, auch CPU Aufgaben auf eine Art(!)
    > CUDA zu verlegen, halte ich es für machbar.

    Nein, das ist so einfach nicht und die Anwendungsfälle in denen aktuelle GPUs und ihre Schnittstellen Sinn machen, sind eher überschaubar. Mal davon ganz abgesehen ist das technisch aufwändiger als du dir das wahrscheinlich vorstellst und macht auch nur in Kombination mit performanten CPUs so richtig Sinn. ;)

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. IT-Administrator/IT-Kaufmann (m/w/d)
    Elektrizitätswerk Mittelbaden AG & Co. KG, Lahr
  2. Software & Data Engineer / Machine Learning Engineer (m/w/d)
    h.a.l.m. elektronik GmbH, Frankfurt
  3. Leitung IT-Infrastruktur und Basisdienste / Rechenzentrum (d/m/w)
    THD - Technische Hochschule Deggendorf, Deggendorf
  4. Stellentitel (Senior) SAP Technology Engineer (m/w/d)
    OEDIV KG, Bielefeld

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote


Haben wir etwas übersehen?

E-Mail an news@golem.de


Probleme mit Agilität in Konzernen: Agil sein muss man auch wollen
Probleme mit Agilität in Konzernen
Agil sein muss man auch wollen

Ansätze wie das Spotify-Modell sollen großen Firmen helfen, agil zu werden. Wer aber erwartet, dass man es überstülpen kann und dann ist alles gut, der irrt sich.
Ein Erfahrungsbericht von Marvin Engel


    Neues Apple TV 4K im Test: Teures Streaming-Gerät mit guter Fernbedienung
    Neues Apple TV 4K im Test
    Teures Streaming-Gerät mit guter Fernbedienung

    Beim neuen Apple TV 4K hat sich Apple eine ungewöhnliche Steuerung einfallen lassen, die aber im Alltag eher eine Spielerei ist.
    Ein Test von Ingo Pakalski

    1. Shareplay TVOS 15 soll gemeinsame Streaming-Erlebnisse schaffen
    2. Apple TV Farbkalibrierung per iPhone schneidet schlecht ab
    3. Sofasuche beendet Airtag-Hülle für Apple-TV-Fernbedienung

    TECH TALKS: Kann Europa Chips?
    TECH TALKS
    Kann Europa Chips?

    In eigener Sache Die Autobauer leiden unter Chip-Mangel, die EU will mehr Chips in Europa produzieren. Doch ist das realistisch? Über dieses und weitere spannende Themen diskutiert die IT-Branche am 10. Juni bei den Tech Talks von Golem.de und Zeit Online.

    1. TECH TALKS Drohnen, Daten und Deep Learning in der Landwirtschaft
    2. In eigener Sache Englisch lernen mit Golem.de und Gymglish
    3. Tech Talks Eintauchen in spannende IT-Themen und Jobs für IT-Profis