1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Nvidia: Jensen Huang beschwört…

CPU vs GPU

Über PC-Games lässt sich am besten ohne nerviges Gedöns oder Flamewar labern! Dafür gibt's den Freiraum!
  1. Thema

Neues Thema Ansicht wechseln


  1. CPU vs GPU

    Autor: blaub4r 10.10.17 - 15:20

    Warum sind die CPUs nicht schneller als die gpu‘s ?

    Sind beides nicht Prozessoren ? Kann das eine nicht das andere sein ?

  2. Re: CPU vs GPU

    Autor: razer 10.10.17 - 15:32

    eine CPU, Central Processing Unit, ist darauf ausgelegt eine moeglichst grosse vielfalt an befehlen abzuarbeiten.

    eine GPU, Graphic Processing Unit, ist darauf ausgelegt eine kleine auswahl an befehlen moeglichst schnell abzuarbeiten.


    Damit ein hinkender vergleich da ist:
    Ein Leichtathletik-Zehnkaempfer kann 10 Sportarten recht gut, um am Ende genug Punkt abzusahnen.
    Ein Sprinter kann 1-2 Sportarten wahnsinnig gut, aber im Stabhochsprung wird er einem Zehnkaempfer immer unterliegen.

    nVidia sucht sich gerade 1-2 Sportarten aus, um CPUs tot zu reden.

  3. Re: CPU vs GPU

    Autor: Anonymer Nutzer 10.10.17 - 15:43

    razer schrieb:
    --------------------------------------------------------------------------------
    > eine CPU, Central Processing Unit, ist darauf ausgelegt eine moeglichst
    > grosse vielfalt an befehlen abzuarbeiten.
    >
    > eine GPU, Graphic Processing Unit, ist darauf ausgelegt eine kleine auswahl
    > an befehlen moeglichst schnell abzuarbeiten.
    >
    > Damit ein hinkender vergleich da ist:
    > Ein Leichtathletik-Zehnkaempfer kann 10 Sportarten recht gut, um am Ende
    > genug Punkt abzusahnen.
    > Ein Sprinter kann 1-2 Sportarten wahnsinnig gut, aber im Stabhochsprung
    > wird er einem Zehnkaempfer immer unterliegen.
    >
    > nVidia sucht sich gerade 1-2 Sportarten aus, um CPUs tot zu reden.

    Perfekt formuliert ;) +1

  4. Re: CPU vs GPU

    Autor: Anonymer Nutzer 10.10.17 - 16:31

    Wobei es auf der anderen Seite natürlich nicht von der Hand zu weisen ist, dass die Performance Zuwächse, die wir von den 1970er bis in die 2000er Jahre recht konitnuierlich gesehen haben nicht mehr da sind. Bei GPUs gibt es zur Zeit noch diese Zuwächse. Ich will damit nicht das Konzept der CPU für tod erklären und natürlich hat der NVidia CEO ein Interesse daran die Vorteile von GPUs herauszustellen und deren Nachteile möglichst unerwähnt zu lassen, trotzdem ist sein reiner Befund über die Stagnation im CPU Bereich deshalb nicht unbedingt falsch.

  5. Re: CPU vs GPU

    Autor: Bobbit 10.10.17 - 16:47

    Auch sollte man hier die Architektur nicht vergessen. Wenn man sich die Entwicklung anschaut hat es seit 20 Jahren keine neue Architektur mehr gegeben.

    CISC ~1970
    RISC ~1980
    EPIC ~1997

    Also für mich kein Wunder wenn man mit Altlasten noch zu kämpfen hat das man irgendwann nicht weiter kommt. Eine GPU ist deswegen schneller weil sie nur gewisse Funktionen bietet und sich die Anzahl und Komplexität der Instruktionen damit reduziert. Somit kann das was es noch zu verarbeiten gilt schneller verarbeitet werden bzw. ist für die Aufgaben optimiert.

  6. Leistungszuwächse werden mit elektrischer Leistung bezahlt

    Autor: Anonymer Nutzer 10.10.17 - 17:26

    Das mag in Bezug auf den Anwendungsfall ja ganz OK sein,
    im Allgemeinen ist das aber nicht so erwünscht.

    Da werden wir uns noch was einfallen lassen müssen.
    Und ich denke, da kommt auch noch was.

    Dauert halt, und bei den immer kleiner werdenden Strukturen wird es auch immer teurer einen einzigen Chip zu entwickeln und zu fertigen.

    .

  7. Re: CPU vs GPU

    Autor: Top-OR 10.10.17 - 18:19

    blaub4r schrieb:
    --------------------------------------------------------------------------------
    > Warum sind die CPUs nicht schneller als die gpu‘s ?
    >
    > Sind beides nicht Prozessoren ? Kann das eine nicht das andere sein ?

    Moin! Mein Erklärungsversuch:

    GPUs wurden für Shader(-Programme) erschaffen. Shader sind Programme, die die Farbe EINES Pixels anhand bestimmter, von der Datenmenge her limitierter Eingaben berechnen. Wir reden hier also über Computergrafik/Echtzeitgrafik.

    Da wir ein komplettes Bild rendern wollen, besteht dieses bei FullHD 1920x1080=2073600 Pixeln.

    Das Shaderprogramm muss also zur Erzeugung aller Pixel 2 Millionen Mal durchlaufen/ausgeführt werden. Bei Überlappungen von Polygonen, sogar noch u.U. ein Vielfaches öfter (Overdraw).

    Zwischendurch hast du bei verschiedenen Oberflächen auch noch verschiedene Shader, die dann gewechselt werden müssen (Kontextwechsel) – Ein Shader rendert selten das ganze Bild alleine… aber dass können wir hier der Einfachheit halber mal weglassen.

    Wichtig zu verstehen ist die Idee, dass ein und das selbe Programm mit den selben Eingabeparametern mehrere tausendmale ausgeführt werden muss, um ein Bild zu rendern. Die Ausführungsdurchläufe unterscheiden sich u.U. nur in der Position des Pixels (im Modelspace/Worldspace/Screenspace).

    Die Idee ist also, eine große schnelle Hardware zu bauen, die diese tausenden Programmdurchläufe nicht hintereinander abrockt, sondern eine Hardware zu bauen, die aus vielen verschiedenen kleinen, relativ primitiven Rechenwerken besteht, die aber zur gleichen Zeit alle das GLEICHE Berechnen … also das SELBE Programm laufen lassen:

    Das sind dann GPUs. Diese Shadereinheiten auf dem GPUs berechnen alle zur selben Zeit den selben Schritt im selben Programm, nur mit leicht unterschiedlichen Werten (z.B. Pixelpositionen).

    Es ist also eine große Parallelisierungshardware. Würdest du auf einmal für jeden Pixel ein anderes Shader-Programm laufen lassen, würde man auch nicht mehr von den Parallelisierungseigenschaften der GPU profitieren, sondern wäre wieder im Schneckentempo angekommen.

    GPUs sind also nur Cool, wenn du eine Aufgabe hast, die sich gut Paralellisieren lässt und ein Programm hast, was bis auf wenige Parameter für alle Laufinstanzen gleich abläuft und auf dieselben Daten zugreift (Texturen, Vertices, etc).

    Heutzutage hat man entdeckt, dass diese Eigenschaften nicht nur für das Berechnen von Pixelfarben cool ist, sondern auch anderen Anwendungsgebiete wie u.U. KI davon profitieren können.

    Dazu wurden Schnittstellen geschaffen, die eben weniger den grafischen Kontext haben, sondern abstrakter sind (OpenCL, Cuda, etc.) jedoch am Ende auch nur auf die Nutzung dieser Massiven Parallelisierungschips/Rechenwerke abzielen.

    GPUs sind also nicht per se "schneller" als CPUs, sie sind nur auf massive Parallelisierung ausgelegt, was zu einem bestimmten Preis kommt:
    Alle bzw. möglichst viele Rechenwerke müssen gleichzeitig auch an der selben Formel nur mit u.U. leicht anderen Parametern rechnen, sonst wirds auch lahm.

    Ist das so ein bisschen nachvollziehbar oder war das völlig daneben/unverständlich/falsch/whatever?

    Beste Grüße,
    Top-OR

    -----
    Verallgemeinerungen sind IMMER falsch.

  8. Re: CPU vs GPU

    Autor: razer 11.10.17 - 23:50

    bei intel sieht man dass die jetzt einige jahre die ruhige kugel geschoben haben: es war einfach kein grund da, grosse spruenge zu machen. schliesslich war keine konkurrenz da. jetzt hat amd endlich mal nachgezogen, da kommt vielleicht in den naechstne 4-5 jahren wieder mehr.

    und softwaremaessig nutzt auch kaum was eine cpu vollends aus. man braucht einfach zurzeit nicht mehr leistung. ein paar ausnahmen video rendering gibts, aber 95% der benutzer spueren es nicht ob sie eine 2010er oder 2017er cpu drin haben, bremsen tut da eher der massenspeicher.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Ascom Deutschland GmbH, deutschlandweit
  2. dSPACE GmbH, Paderborn
  3. Schwarz Produktion GmbH & Co. KG, Weißenfels, Raum Halle/Leipzig
  4. operational services GmbH & Co. KG, verschiedene Standorte

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. (u. a. Unravel für 9,99€, Battlefield 1 für 7,99€, Anthem für 8,99€)
  2. 16,99€
  3. 47,99€
  4. 17,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme