1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Software Rasterizer im Test: Wenn…

GPU und CPUs

  1. Thema

Neues Thema Ansicht wechseln


  1. GPU und CPUs

    Autor: Kaiser Ming 05.01.21 - 17:23

    sollten zusammenwachsen
    wäre im Endeffekt effektiver
    und man könnte auch über die CPU auf schnelle Einheiten zugreifen
    statt über umständliche GPU Programmierung
    man bräuchte dafür allerdings eine neue Architektur

  2. Re: GPU und CPUs

    Autor: xPandamon 05.01.21 - 17:45

    Gibt es doch, nennt sich APU. Nur kann sowas nicht die erforderliche Performance bieten, es wäre zu teuer und gäbe gegebenenfalls Kompatibilitätsprobleme. Eine Konsole kommt wohl noch am ehesten an deine Idee dran von der Umsetzung, da ist eben alles auf diese eine Konfigurationen optimiert.

  3. Re: GPU und CPUs

    Autor: nate 05.01.21 - 18:14

    > Gibt es doch, nennt sich APU.

    APUs, so wie sie derzeit angeboten werden, sind nur CPUs und GPUs auf dem selben Die oder Package. Das einzige, was da irgendwie zwischen den beiden Welten konvergiert, ist die Tatsache, dass beide den gleichen Speicher verwenden. Die Kerne sind aber nach wie vor physikalisch und vom Programmiermodell völlig verschieden.

  4. Re: GPU und CPUs

    Autor: yinyangkoi 05.01.21 - 18:47

    Physikalisch sind sie identisch

  5. Re: GPU und CPUs

    Autor: Kaiser Ming 05.01.21 - 18:58

    xPandamon schrieb:
    --------------------------------------------------------------------------------
    > Gibt es doch, nennt sich APU. Nur kann sowas nicht die erforderliche

    das meine ich aber nicht
    die sind da einfach nur zusammengeklebt



    2 mal bearbeitet, zuletzt am 05.01.21 18:59 durch Kaiser Ming.

  6. Re: GPU und CPUs

    Autor: ms (Golem.de) 05.01.21 - 19:16

    Nein, das sind monolithische Dies.

    Marc Sauter, Sr Editor
    Golem.de

  7. Re: GPU und CPUs

    Autor: Cerdo 05.01.21 - 22:24

    Kaiser Ming schrieb:
    --------------------------------------------------------------------------------
    > sollten zusammenwachsen
    > wäre im Endeffekt effektiver
    > und man könnte auch über die CPU auf schnelle Einheiten zugreifen
    > statt über umständliche GPU Programmierung
    > man bräuchte dafür allerdings eine neue Architektur

    Warum will ich im Betriebssystem tausende identische Berechnungen auf unterschiedlichen Daten machen (SIMD)? Andersrum ist eine GPU für die üblichen Operationen der CPU völlig ungeeignet. Die ist auch überhaupt nicht "schneller" als die CPU, wenn man die blanken Rechenoperationen betrachtet.

    Es hat schon einen Grund, warum man die beiden trennt und sie zu kombinieren ist für die meisten Anwendungsfälle überhaupt nicht sinnvoll.

  8. Re: GPU und CPUs

    Autor: Renegade3349 05.01.21 - 23:12

    Gab es da nicht vor ein paar Jahren eine Lösung mit Intel CPU und AMD GPU wo die CPU zumindest direkt an den HBM2 Speicher angebunden war? Ist zwar dann nur so etwas wie L3 oder 4 Cache, aber immerhin.
    Interessant wäre es schon zu sehen ob man manche der beidseits vorhandenen Funktionen auf einer Seite zusammenlegen könnte um dafür häufiger genutzte Funktionen zu erweitern, aber das wäre halt in vielen Fällen ein Rückschritt in der Leistung...

  9. Re: GPU und CPUs

    Autor: nate 06.01.21 - 08:55

    > Physikalisch sind sie identisch

    Überhaupt nicht. Außer dass da im Inneren irgendwo ALUs für Integer und Floating Point im Kern werkeln, unterscheiden sich CPU- und GPU-Cores fundamental.

    CPUs sind auf Latenz optimiert, Durchsatz ist zweitrangig.
    GPUs sind rücksichtslos auf Durchsatz optimiert, Latenz spielt gar keine Rolle.

    Schon deshalb handelt es sich dabei um völlig verschiedene Architekturen. Ich finde den Gedanken auch spannend, diese beiden Welten irgendwann in einem gemeinsamen Design unter einen Hut zu bringen, aber bisher habe ich noch nicht einmal Ansätze für so etwas gesehen. (Mit Ausnahme von Intel MIC, alias LRB/KNF/KNC/KNL, aber da ging es auch nicht um ein "konvergentes" Design, sondern eher um "lasst uns mal schauen, ob wir GPUs Konkurrenz machen können, wenn wir einfach ganz viele CPUs mit super-breiten Vektoreinheiten auf ein Die packen".)

  10. Re: GPU und CPUs

    Autor: xPandamon 06.01.21 - 11:50

    Wenn nicht APUs, dann sowas wie Apples M1. Wo man wieder beim Performanceproblem ist :)

  11. Re: GPU und CPUs

    Autor: nate 06.01.21 - 12:23

    > Wenn nicht APUs, dann sowas wie Apples M1.

    Du meinst, SoCs mit Arm- anstatt x86-ISA für die CPUs? So wie bei Qualcomm, MediaTek, Samsung, HiSilicon, RockChip, Allwinner, Amlogic, NXP, nVidia, Marvell, Broadcom und bestimmt zwei Dutzend weiteren?

  12. Re: GPU und CPUs

    Autor: Kaiser Ming 07.01.21 - 12:41

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Nein, das sind monolithische Dies.

    falsch kommentiert?
    oder nicht verstanden?

  13. Re: GPU und CPUs

    Autor: Kaiser Ming 07.01.21 - 12:43

    Cerdo schrieb:
    --------------------------------------------------------------------------------
    > Kaiser Ming schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > sollten zusammenwachsen
    > > wäre im Endeffekt effektiver
    > > und man könnte auch über die CPU auf schnelle Einheiten zugreifen
    > > statt über umständliche GPU Programmierung
    > > man bräuchte dafür allerdings eine neue Architektur
    >
    > Warum will ich im Betriebssystem tausende identische Berechnungen auf
    > unterschiedlichen Daten machen (SIMD)? Andersrum ist eine GPU für die
    > üblichen Operationen der CPU völlig ungeeignet. Die ist auch überhaupt
    > nicht "schneller" als die CPU, wenn man die blanken Rechenoperationen
    > betrachtet.
    >
    > Es hat schon einen Grund, warum man die beiden trennt und sie zu
    > kombinieren ist für die meisten Anwendungsfälle überhaupt nicht sinnvoll.

    Wenn du recht hättest würde es CUDA nicht geben.
    Im Zweifel einfach mal googeln.

  14. Re: GPU und CPUs

    Autor: Cerdo 07.01.21 - 14:20

    Kaiser Ming schrieb:
    --------------------------------------------------------------------------------
    > Wenn du recht hättest würde es CUDA nicht geben.
    Danke, ich kenne und nutze CUDA und OpenCL seit Jahren professionell. Du weißt auch, wofür man das verwendet?
    > Im Zweifel einfach mal googeln.

  15. Re: GPU und CPUs

    Autor: gorsch 11.01.21 - 13:39

    Ja, wäre im Prinzip nett, aber wenn das wirklich so vorteilhaft wäre, würdest du das in den ARM CPUs sehen. Die sind ja schon hochintegriert aber selbst da sind GPU-Kerne und CPU-Kerne getrennt. Tatsächlich kommen eher sogar noch mehr CPU-Kern-Typen hinzu (big.LITTLE).

    Du kannst einen Kern entweder in die Breite (SIMD) oder Tiefe (Pipelines) optimieren, je nach Anwendungsfall. Ein Kern, der in der Mitte läge, würde in keinem Anwendungsfall optimal rechnen.

  16. OpenCL?

    Autor: yumiko 12.01.21 - 16:03

    Softwareseitig nennt sich das OpenCL, da ist es aber egal wo und welche Hardware genutzt wird.

  17. Re: GPU und CPUs

    Autor: Kaiser Ming 12.01.21 - 18:46

    Cerdo schrieb:
    --------------------------------------------------------------------------------
    > Kaiser Ming schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Wenn du recht hättest würde es CUDA nicht geben.
    > Danke, ich kenne und nutze CUDA und OpenCL seit Jahren professionell. Du
    > weißt auch, wofür man das verwendet?


    CUDA nutzen heisst nicht verstehen, da reichts schon einen Browser benutzen.

    Reden wir aneinander vorbei?

  18. Re: GPU und CPUs

    Autor: Kaiser Ming 12.01.21 - 18:54

    gorsch schrieb:
    --------------------------------------------------------------------------------
    > Ja, wäre im Prinzip nett, aber wenn das wirklich so vorteilhaft wäre,
    > würdest du das in den ARM CPUs sehen. Die sind ja schon hochintegriert aber
    > selbst da sind GPU-Kerne und CPU-Kerne getrennt. Tatsächlich kommen eher
    > sogar noch mehr CPU-Kern-Typen hinzu (big.LITTLE).

    Wie ich schon sagte bräuchte es dafür eine neue Architektur sowas macht man nicht mal ebend.
    ARM macht perse die klassische Architektur nur als RISC.



    >
    > Du kannst einen Kern entweder in die Breite (SIMD) oder Tiefe (Pipelines)
    > optimieren, je nach Anwendungsfall. Ein Kern, der in der Mitte läge, würde
    > in keinem Anwendungsfall optimal rechnen.

    Glaub du hast das Thema nicht verstanden.
    Mir gings um die Recheneinheiten der Grafikchips nicht um SIMD.
    Einfach gesagt warum ist ein Grafikchip bei Videokomprimierung 10x schneller als ne CPU.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Computacenter AG & Co. oHG, München
  2. dSPACE GmbH, Paderborn
  3. operational services GmbH & Co. KG, Dresden, Berlin, Senftenberg
  4. procilon Group GmbH, Taucha bei Leipzig

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. mit 3.298€ neuer Bestpreis auf Geizhals
  2. (u. a. Xbox Series S 299,99€, Xbox Wireless Controller Robot White 55,95€, Xbox Play & Charge...
  3. (u. a. Zotac GeForce RTX 3060 Ti TWIN EDGE OC für 809€)


Haben wir etwas übersehen?

E-Mail an news@golem.de