1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Intel zeigt Larrabee (Update 2)

x86 vs MMP

  1. Thema

Neues Thema Ansicht wechseln


  1. x86 vs MMP

    Autor: Crass Spektakel 23.09.09 - 00:45

    Larrabe ist defacto ein PentiumMMX mit 2Ghz und 32 Kernen. So weit so gut, eine Standard-Architektur aufgeblasen auf Massive-Multi-Processing.

    x86 ist eine durchaus performante Architektur. Im CPU-Markt gibt es nur wenige Architekturen die da wirklich mithalten können und wenn überhaupt dann kommt selbst die gleiche Leistung sehr teuer. Allerdings sind absolute Leistung und Leistung pro Transistorcount zwei paar Stiefel.

    Der Overhead von x86 mag ein paar hundertausend Transistoren ausmachen und bei einem einzelnem Kern stört das nicht. Aber wenn man sich mit NVidia-Architektur (240 Kern) oder AMD (800 Kerne) anlegt dann werden aus "ein paar Hundertausend pro Kern" schnell "untragbare Riesenmengen". Sicherlich wird Larrabe pro Kern mehrfach schneller sein als ein NVidia-Kern oder ein AMD-Kern aber für das Zielfeld ist sowas irrelevant, da sind 800 ultraeinfache Kerne einfach schneller als 32 relativ komplexe Kerne.

    Wo Larrabe aber Sinn machen könnte: Als Server-CPU. Das meine ich toternst, sehr oft kann man sich um 64Bit herummogeln, viele Serverjobs skalieren sehr gut. Ein LAMP-Server mit einem Larrabe würde vermutlich die schnellsten i7-CPUs in den Schatten stellen und weil das Ding relativ normal zu programmieren ist dürfte auch recht schnell ein Unix portiert sein. Da sind NVidia und AMD stark im Nachteil. Trotzdem, solange nicht jeder PC einen 16Kern i7 mitbringt sind NVidia und AMD mit ihren GPUs absolut im Vorteil.

    Wenn Intel mit NVidia und AMD bei Massive-Multi-Processing gleichziehen will dann wird das mit einer überkomplexen x86-Architektur wohl kaum klappen. Vieleicht sollten sie mal ihre alten i860/960/ARM-Architekturen herauskramen, dann könnte das was werden, da gibts mehr Bang-per-Transistor.

  2. Re: x86 vs MMP

    Autor: default 23.09.09 - 00:49

    Naja, also programmieren wird man Larrabee sowieso mit speziell darauf ausgelegten Toolkits, die das Parallelisieren und Optimieren erleichtern. Wofür dann noch x86? Ich sehe da keinen Vorteil.

    Wie auch immer: Larrabee lässt viel zu lange auf sich warten und währenddessen schlafen AMD und NVidia natürlich nicht. Bis das Ding erscheint, haben die wahrscheinlich wieder eine neue Generation ihrer GPUs draußen. Gerade jetzt stellt AMD ja die neue 5xxx-Serie vor, wenn Larrabee erscheint, gibt's bestimmt 6xxx.
    Und mit jeder Generation werden die GPGPU-Fähigkeiten besser.

  3. Re: x86 vs MMP

    Autor: Ach 23.09.09 - 02:05

    Ich find den auch als Redering- oder gleich als Supercomputing Beschleuniger äußerst interessant. Dabei nicht unbedingt als Einzel-GPU, da dürfte nämlich ein schnelles Dualboard in spätestens einem 3/4 Jahr mit 2x8 realen und 2x8 virtuellen Kernen nicht weit entfernt, eventuell sogar darüber liegen. Aber als Karte(n) mit 2 oder mehr GPU´s darauf, da könnte man eine Ganze Menge Rechenpower in einem einzelnen PC Gehäuse bündeln.

    Zudem könnte ich mir gut vorstellen, dass der Larrabee einen effektiven idle Modus besitzen wird, bzw. ganz abgeschaltet würde wenn keine Aufgabe anstände. Schließlich ist er, im Gegensatz zur eigentlichen GPU und zur CPU, für den grundsätzlichen Betrieb eines Computers auch gar nicht nötig.

    Nvidia/Ati mögen die schnellere Hardware besitzen, aber in seiner Vielseitigkeit und in der Einfachheit/Zeitersparnis der Programierung, wird der Larrabee nicht zu schlagen sein.

  4. Re: x86 vs MMP

    Autor: Ach 23.09.09 - 03:08

    @default

    Was soll sich den bei der x86 Programmierung großartig ändern? Multitasking Anwendungen gibt es doch schon lang genug. Das ist ja gerade der Vorteil, das man das bereits Vorhandene effektiv weiternutzen kann.

    Neuartige "Toolkits" findest du wenn, dann bei den GPU Herstellern. Sie nennen sich bei Nvidia "Havok" und "Stream" bei Ati und machen die Weiterverwendung der von Graphikshadern Berechneten Daten in PC Anwendungen überhaupt erst möglich.

    Dass der Geschwindigkeitsvorteil einer GPU schlagartig dahin schmilzt, sobald die Berechnung nicht mehr genau vorhersagbar ist, oder sich eine anstehende(n) Aufgabe(n) nur noch auf einige wenige Shader der GPU verteilen lässt, können diese "Toolkits" aber genauso wenig verhindern, wie sie die Komplexität der Shader-Programmierung auf ein x86 Niveau senken könnten.

    Ist wohl eher ein Hardware- und weniger ein Softwareproblem.
    x86 CPU´s sind vielseitig auf kosten der Geschwindigkeit,
    GPU´s sind sau schnell auf kosten der Vielseitigkeit.

  5. Re: x86 vs MMP

    Autor: default 23.09.09 - 03:42

    Ach schrieb:

    > Neuartige "Toolkits" findest du wenn, dann bei den GPU Herstellern. Sie
    > nennen sich bei Nvidia "Havok" und "Stream" bei Ati und machen die
    > Weiterverwendung der von Graphikshadern Berechneten Daten in PC Anwendungen
    > überhaupt erst möglich.
    >

    Hmm, ich glaube du bringst hier etwas durcheinander. Havok ist eine Physik-Engine. ;) Meinst wohl CUDA?
    Diese (relativ) low-level-Schnittstellen meinte ich aber gar nicht mal speziell.

    >
    > Ist wohl eher ein Hardware- und weniger ein Softwareproblem.
    > x86 CPU´s sind vielseitig auf kosten der Geschwindigkeit,
    > GPU´s sind sau schnell auf kosten der Vielseitigkeit.

    Aber die x86er vom Larrabee sind doch stark vereinfacht, eben drum damit man viele auf ein Die packen kann. Und das, während GPU-Shaderprozessoren immer mehr können (siehe z.B. CUDA-Dokumentation). Ich behaupte einfach mal, die haben sich mittlerweile sehr aneinander angenähert.

  6. Re: x86 vs MMP

    Autor: Phil.42 23.09.09 - 10:32

    Crass Spektakel schrieb:
    --------------------------------------------------------------------------------
    > x86 ist eine durchaus performante Architektur. Im CPU-Markt gibt es nur
    > wenige Architekturen die da wirklich mithalten können und wenn überhaupt
    > dann kommt selbst die gleiche Leistung sehr teuer. Allerdings sind absolute
    > Leistung und Leistung pro Transistorcount zwei paar Stiefel.
    >

    Naja, die x86-Struktur ist veraltet und so langsam stößt sie an Grenzen. Ich hoffe, dass schon munter an einem Nachfolger geforscht wird! Also bei Intel und AMD und nicht nur bei IBM und so :D

    > Der Overhead von x86 mag ein paar hundertausend Transistoren ausmachen und
    > bei einem einzelnem Kern stört das nicht. Aber wenn man sich mit
    > NVidia-Architektur (240 Kern) oder AMD (800 Kerne) anlegt dann werden aus
    > "ein paar Hundertausend pro Kern" schnell "untragbare Riesenmengen".

    Hier hast du einen Fehler drin. Klassische GPUs sind mit CPUs nicht so wirklich zu vergleichen, da die Shaderunits deutlich schwächer sind und man defakto 5 Shaderunits braucht um normale Berechnungen (Addition, Multiplikation) durchführen zu können.
    Die GPUs haben also etwa 200-250 "Kerne" die aber jeweils dennoch deutlich kleiner und primitiver sind als wirkliche CPU-Kerne.
    Ähnliches schreibst du ja gleich, wollte es nur nochmal klarstellen, dass hier niemand zu einfache Schlüsse zieht :)

    > Sicherlich wird Larrabe pro Kern mehrfach schneller sein als ein
    > NVidia-Kern oder ein AMD-Kern aber für das Zielfeld ist sowas irrelevant,
    > da sind 800 ultraeinfache Kerne einfach schneller als 32 relativ komplexe
    > Kerne.
    >

    Tja, man sagte auch mal, dass Hardwarebeschleunigung immer schneller ist als Softwarerendering...Unreal hat uns erstmals das Gegenteil bewiesen.
    Die vielen primitiven Kerne sind für einige Aufgaben äußerst praktisch und sehr gut geeignet, das heißt aber nicht, dass sie in der gesamten Grafikberechnung den richtigen CPUs überlegen sind (Stichwort: Programmierung und Softwarerendering)

    > Wo Larrabe aber Sinn machen könnte: Als Server-CPU. Das meine ich toternst,
    > sehr oft kann man sich um 64Bit herummogeln, viele Serverjobs skalieren
    > sehr gut. Ein LAMP-Server mit einem Larrabe würde vermutlich die
    > schnellsten i7-CPUs in den Schatten stellen und weil das Ding relativ
    > normal zu programmieren ist dürfte auch recht schnell ein Unix portiert
    > sein. Da sind NVidia und AMD stark im Nachteil. Trotzdem, solange nicht
    > jeder PC einen 16Kern i7 mitbringt sind NVidia und AMD mit ihren GPUs
    > absolut im Vorteil.
    >
    > Wenn Intel mit NVidia und AMD bei Massive-Multi-Processing gleichziehen
    > will dann wird das mit einer überkomplexen x86-Architektur wohl kaum
    > klappen. Vieleicht sollten sie mal ihre alten i860/960/ARM-Architekturen
    > herauskramen, dann könnte das was werden, da gibts mehr
    > Bang-per-Transistor.

  7. Re: x86 vs MMP

    Autor: Ach 23.09.09 - 12:58

    > Meinst wohl CUDA?
    Jau, da hast du recht :).

    Wobei Havok selber keine Engine sondern tatsächlich eine Software ist. Siehe:
    http://de.wikipedia.org/wiki/Havok_%28Software%29
    Und auch darin, dass Intel an einem eigenen DSK arbeitet muss ich dir recht geben, allerdings ändert es nichts daran, dass GPU´s nicht viel mehr als leistungsstarke Co Prozessoren mit eigener Befehlssprache sind.

    > während GPU-Shaderprozessoren immer mehr können (siehe z.B. CUDA-Dokumentation).
    > Ich behaupte einfach mal, die haben sich mittlerweile sehr aneinander angenähert.

    Naja, und ich behaupte mal, dass sich GPU-Shaderprozessoren nur im Bereich der Graphik/Physik Berechnung erheblich weiterentwickelt haben, und es nach wie vor mit viel Aufwand und vielen Einschränkungen verbunden ist, ihre Leistung in x86 Programme sinnvoll zum Einsatz kommen zu lassen. Als Numbercrasher halt :). Das war´s dann aber auch schon.

  8. Re: x86 vs MMP

    Autor: ultrapaine 23.09.09 - 15:30

    >Naja, die x86-Struktur ist veraltet und so langsam stößt sie an >Grenzen. Ich hoffe, dass schon munter an einem Nachfolger >geforscht wird! Also bei Intel und AMD und nicht nur bei IBM und so :D

    Ich weiß nicht ob ich das Prinzip richtig verstanden habe, aber bei aktuellen CPUs von Intel/AMD ist doch nur der Microcode x86.
    Bis auf dem etwas aufwändigeren Befehlsdecoder ist doch eine x86 CPU nix anderes als eine normale RISC CPU, von daher würde es doch reichen, wenn man den Microcode anpasst, und den Softwareherstellern mal ein wenig auf die Füße tritt, ähnlich wie beim BIOS und EFI.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. AKKA, Wolfsburg
  2. über duerenhoff GmbH, Frankfurt am Main
  3. Hochschule Furtwangen, Furtwangen
  4. Schwarz Dienstleistung KG, Raum Neckarsulm

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. (-79%) 12,50€
  2. 59,99€
  3. -36%) 31,99€
  4. 4,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


In eigener Sache: Die offiziellen Golem-PCs sind da
In eigener Sache
Die offiziellen Golem-PCs sind da

Leise, schnell, aufrüstbar: Golem.de bietet erstmals eigene PCs für Kreative und Spieler an. Alle Systeme werden von der Redaktion konfiguriert und getestet, der Bau und Vertrieb erfolgen über den Partner Alternate.

  1. In eigener Sache Was 2019 bei Golem.de los war
  2. In eigener Sache Golem.de sucht Produktmanager/Affiliate (m/w/d)
  3. In eigener Sache Aktiv werden für Golem.de

Dauerbrenner: Bis dass der Tod uns ausloggt
Dauerbrenner
Bis dass der Tod uns ausloggt

Jedes Jahr erscheinen mehr Spiele als im Vorjahr. Trotzdem bleiben viele Gamer über Jahrzehnte hinweg technisch veralteten Onlinerollenspielen wie Tibia treu. Woher kommt die anhaltende Liebe für eine virtuelle Welt?
Von Daniel Ziegener

  1. Unchained Archeage bekommt Parallelwelt ohne Pay-to-Win
  2. Portal Knights Computerspielpreis-Gewinner bekommt MMO-Ableger

Dreams im Test: Bastelwastel im Traumiversum
Dreams im Test
Bastelwastel im Traumiversum

Bereits mit Little Big Planet hat das Entwicklerstudio Media Molecule eine Kombination aus Spiel und Editor produziert, nun geht es mit Dreams noch ein paar Schritte weiter. Mit dem PS4-Titel muss man sich fast schon anstrengen, um nicht schöne Eigenkreationen zu erträumen.
Ein Test von Peter Steinlechner

  1. Ausdiskutiert Sony schließt das Playstation-Forum
  2. Sony Absatz der Playstation 4 geht weiter zurück
  3. PS4-Rücktasten-Ansatzstück im Test Tuning für den Dualshock 4

  1. Entwicklertagung: Game Developers Conference 2020 wird verschoben
    Entwicklertagung
    Game Developers Conference 2020 wird verschoben

    GDC 2020 Die traditionsreiche Game Developers Conference findet 2020 nicht wie geplant im März statt, sondern im Sommer - in welcher Form, ist noch unklar.

  2. Rip and Replace Act: Huawei-Ersatz im US-Mobilfunknetz kostet 1 Milliarde Dollar
    Rip and Replace Act
    Huawei-Ersatz im US-Mobilfunknetz kostet 1 Milliarde Dollar

    Der US-Senat hat dem sogenannten Rip and Replace Act zugestimmt, der die Demontage von Huawei-Technik finanziert. Das politische Verbot wird für den Steuerzahler teuer.

  3. Elektromobilität: Die Post baut keine Streetscooter mehr
    Elektromobilität
    Die Post baut keine Streetscooter mehr

    Der Streetscooter, ein elektrisch angetriebener Lieferwagen aus Aachen, galt als Vorzeigeprojekt der Elektromobilität. Ein wirtschaftlicher Erfolg war das Auto aber nicht. Deshalb hat die Deutsche Post bekannt gegeben, dass sie die Produktion des Elektroautos beende.


  1. 01:26

  2. 18:16

  3. 17:56

  4. 17:05

  5. 16:37

  6. 16:11

  7. 15:48

  8. 15:29