1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › IDF: Intel zeigt 80-Kern-CPU mit 2…

2 TFlops - schneller als ne GPU :-P

  1. Thema

Neues Thema Ansicht wechseln


  1. 2 TFlops - schneller als ne GPU :-P

    Autor: /mecki78 17.04.07 - 17:30

    Die 8800 GTX von NVidia hat gerade mal 330 GFlops, also ist sie um den Faktor 6 langsamer als das. Das liegt vor allem daran, dass man GPU Operationen so schön parallel berechnen kann. Aber das könnte ne CPU auch mit 80 Threads, einen pro Core ;-)

    Mich würde mal interessieren, ob diese CPU mit 2 TF OpenGL in Software so schnell rendern kann, dass es einer heutigen Graka das Wasser reichen könnte. Ist harte Arbeit, weil auch wenn sie 80 Cores hat, die Grakas haben Pipelines, die teilweise parallel und teilweise seriel sind. z.B. liegen die Pixelshader Pipes hinter den Vertex Shadern. D.h. sie kann schon mal Polygone mit Pixeln füllen, während die Vertex Shader noch Polygone transformieren.

    Wobei bei 2 TF, scheiss drauf wie Grakas arbeiten, mach Raytracing, sieht viel besser aus, ist realistischer und skaliert besser.

  2. Re: 2 TFlops - schneller als ne GPU :-P

    Autor: ich auch 17.04.07 - 18:01

    /mecki78 schrieb:
    -------------------------------------------------------
    > Die 8800 GTX von NVidia hat gerade mal 330 GFlops,

    Falsch, die theoretische (also mit derartigen systhetischen benchmarks liegt schon bei >500 GFlops)

    > also ist sie um den Faktor 6 langsamer als das.
    > Das liegt vor allem daran, dass man GPU
    > Operationen so schön parallel berechnen kann. Aber
    > das könnte ne CPU auch mit 80 Threads, einen pro
    > Core ;-)

    Das hier waren auch sehr paralelle tasks, sonst bekommst du die 80 cores nicht genutzt

    > Mich würde mal interessieren, ob diese CPU mit 2
    > TF OpenGL in Software so schnell rendern kann,
    > dass es einer heutigen Graka das Wasser reichen
    > könnte.

    Wenn NV "endlich" den OpenSource Treiber rausbringen würde, könnte sie das. Deswegen wird es den OS Treiber wohl nie geben

    > Ist harte Arbeit, weil auch wenn sie 80
    > Cores hat, die Grakas haben Pipelines, die
    > teilweise parallel und teilweise seriel sind. z.B.
    > liegen die Pixelshader Pipes hinter den Vertex
    > Shadern. D.h. sie kann schon mal Polygone mit
    > Pixeln füllen, während die Vertex Shader noch
    > Polygone transformieren.

    Falsch, eine GF8800 hat diese spezialisierungen nicht mehr! Die sieht IMHO fast genauso/sehr ähnlich aus, wie das was intel da gebastelt hat. Deswegen gibt es ja auch so feine sachen wie CUDA.

    > Wobei bei 2 TF, scheiss drauf wie Grakas arbeiten,
    > mach Raytracing, sieht viel besser aus, ist
    > realistischer und skaliert besser.

    Schon wieder so ein Schwachsinniger RT Freak. RT ist teilmenge aktueller Shader auf Grakas. Auch wenn man in RT wiederum z.B. die alten Texturierungseinheiten simulieren kann...


  3. Re: 2 TFlops - schneller als ne GPU :-P

    Autor: /mecki78 18.04.07 - 10:15

    ich auch schrieb:
    -------------------------------------------------------
    > Falsch, die theoretische (also mit derartigen
    > systhetischen benchmarks liegt schon bei >500
    > GFlops)

    Woher weisst du wie NVidia benchmarkt? Ich denke die 330 GFlops kommen aus NVidia's Factsheet, aber wer weiss schon, womit die die ermittelt haben? Wer sagt, dass das ein "real live" Wert ist? Vielleicht haben die einfach nur geschaut, wieviele FADD Operation sie in der Sekunde ausführen können, wenn alle Pipes immer dauerhaft ausgelastet sind.

    > Wenn NV "endlich" den OpenSource Treiber
    > rausbringen würde, könnte sie das. Deswegen wird
    > es den OS Treiber wohl nie geben

    Warum müssen sie den rausbringen? Ich meine, OpenGL ist doch ein unabhängiger Standard. D.h. ich kann ihn so implementieren, dass er alles auf der GPU macht oder alles auf der CPU oder irgend was dazwischen. Das Problem ist nur, wenn ich OpenGL noch so super auf heutige CPUs optimiere, kriege ich vielleicht 2-5 Frames wo ne GPU etwa 200 Frames und mehr produziert (und dabei auch noch schöner rendert, weil die Softwareemulation trickst, wo sie nur kann)

    > Falsch, eine GF8800 hat diese spezialisierungen
    > nicht mehr!

    Ach nicht? Interessant. D.h. jede Pipe kann jetzt wahlweise Pixel- oder Vertexshader sein? Macht das überhaupt Sinn? Ich meine, wenn GPUs mehr und mehr Pipes haben, die beliebige Berechnungen durchführen können, wie unterscheiden sie sich dann noch von CPUs? Der Grund warum man GPUs eingeführt hat war doch der, dass ein "spezialisierter" Chip bestimmte Aufgaben um Potenzen schneller erledigen kann als eine generische CPU. Aber wenn die GPU nun auch generisch ist, dann geht dieses Argument zum Teufel.

    Dann soll Intel SSE5 (SSE4 ist ja schon fest, wenn auch noch nicht am Markt glaube ich) eben alle die Befehle spendieren, die eine GPU bisher hatte, aber eine CPU nicht und anfangen CPUs mit >64 Cores zu bauen, dann brauche ich keine GPU mehr, denn alles was meine heutige GPU kann, kann diese CPU auch (sie hat den gleichen Befehelssatz, kann über SSE eine Operation auf mehrere Werte gleichzeitig ausführen und hat so viele Cores, dass sie massiv parallel arbeiten kann).

    Der Flaschenhals ist dann nur das RAM, weil standard PC RAM langsamer angebunden ist an die CPU als das RAM an die GPU (unter anderem weil das GPU RAM nicht gesteckt wird, sondern verlötet ist und daher mit viel höheren Taktraten noch sauber funktionieren kann, ohne Störungen bei der Übertragung). Aber ich denke hier kann man mit Cache sehr viel machen. Man spendiert einfach jedem Core nen eigenen L1-Cache, der, wenn er gross genug ist, sogar mehrere kleinere Texturen komplett aufnehmen kann oder die Punkte aller Vektoren eines 3D Objektes, und alle Cores zusammen teilen sich einen riesigen L2-Cache (von wo aus man dann eben Objekte und Texturen nachladen kann). Sofern der Cache Controller ne gute Prediction hat, kann er dafür sorgen, dass während die CPU noch die aktuellen Daten im L1 Cache verarbeitet, bereits die Daten, die die CPU wohl gleich danach benötigen wird schon mal in das L2 Cache vorgeladen werden.

    Notfalls kann man hier sogar dem Programmierer etwas mehr Macht geben. So würde ich es nicht schlecht finden, wenn ich der CPU über einen Befhelssatz sagen kann "Als nächstes wird ein Core Daten aus dem Speicher, Adresse 0x...., grösse 0x.... brauchen". z.B. wenn ich ne Liste von 3D Objekte nacheinander rendere, sie der Reihe nach auf die Cores verteile, dann weiss ich ja schon, wenn einem Core sage "Rendere mal Objekt 124", das als nächstes 125 dran kommt. Das könne ich schon mal "vorladen" lassen (in den L2 Cache, nicht in den L1, weil ich ja noch nicht weiss, welcher Core das bekommen wird, wird der sein, der als erstes wieder IDLE ist), in das Cache um Wartepausen beim Zugriff zu minimieren (der Transfer von L2 nach L1 ist um Dimensionen schneller als der von RAM nach L2).

    > Schon wieder so ein Schwachsinniger RT Freak. RT
    > ist teilmenge aktueller Shader auf Grakas. Auch
    > wenn man in RT wiederum z.B. die alten
    > Texturierungseinheiten simulieren kann...

    Eine klassische GPU sendet keine "Strahlen" aus, wie Raytracing das tut. GPUs müssen Dinge wie Licht (Lightmaps) oder nicht glatte Oberflächen (Bumpmapping) oder Schatten (Stencil-Buffers) simmulieren. Das fällt beim RT alles gratis ab. RT ist deutlich Rechenaufwendiger, aber auch deutlich einfacher, weil es realistische Bilder liefert, ohne hunderte von Tricks.



    /Mecki

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Technische Universität Darmstadt, Darmstadt
  2. ITSCare ? IT-Services für den Gesundheitsmarkt GbR, Frankfurt am Main, Stuttgart
  3. H-O-T Härte- und Oberflächentechnik GmbH & Co. KG, Nürnberg
  4. WDR mediagroup GmbH, Köln

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 119,99€ inkl. Direktabzug (Bestpreis)
  2. 77,97€ (Bestpreis)
  3. (u. a. Racing Promo & Angebote der Woche (u. a. Nascar Heat 5 für 11€, Valentino Rossi: The Game...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Boeing 737 Max: Neustart mit Hindernissen
Boeing 737 Max
Neustart mit Hindernissen

Die Boeing 737 ist nach dem Flugzeugabsturz in Indonesien wieder in den Schlagzeilen. Die Version Max darf seit Dezember wieder fliegen - doch Kritiker halten die Verbesserungen für unzureichend.
Ein Bericht von Friedrich List

  1. Flugzeug Boeing erhält den letzten Auftrag für den Bau der 747
  2. Boeing 737 Max Boeing-Strafverfahren gegen hohe Geldstrafe eingestellt
  3. Zunum Luftfahrt-Startup verklagt Boeing

20 Jahre Wikipedia: Verlässliches Wissen rettet noch nicht die Welt
20 Jahre Wikipedia
Verlässliches Wissen rettet noch nicht die Welt

Noch nie war es so einfach, per Wikipedia an enzyklopädisches Wissen zu gelangen. Doch scheint es viele Menschen gar nicht mehr zu interessieren.
Ein IMHO von Friedhelm Greis

  1. Desktop-Version Wikipedia überarbeitet "klobiges" Design

Azure Active Directory: Weniger Verzeichnisdienst, mehr Tresor
Azure Active Directory
Weniger Verzeichnisdienst, mehr Tresor

Microsofts bekannten Verzeichnisdienst Active Directory gibt es inzwischen auch in der Cloud des Herstellers. Golem.de zeigt, wie er dort funktioniert.
Von Martin Loschwitz

  1. Microsoft Neue Datenschutzregeln für Sprachsteuerung
  2. Microsoft Betrüger erbeuten 20.000 Euro von Rentnerin
  3. Windows 10 20H2 Microsoft hebt Update-Sperre für einige Windows-PCs auf