1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Xeon Phi 3100 und 5110P: Intels…

Auch als Gamerkarte brauchbar ?

Anzeige
  1. Thema

Neues Thema Ansicht wechseln


  1. Auch als Gamerkarte brauchbar ?

    Autor Phreeze 13.11.12 - 09:02

    Ich kenne mich mit dem Thema nicht so super aus, und frage mich, ob die Architektur auch für normale Spiele geeignet ist ? (vom preis, Strom abgesehen)

    Benutzer wird von Ihnen ignoriert. Anzeigen

  2. Re: Auch als Gamerkarte brauchbar ?

    Autor c3rl 13.11.12 - 09:55

    Nein. Das Teil hat nichts mit einer Grafikkarte zu tun, sondern stellt dem lediglich weitaus mehr CPU-Kerne zur Verfügung.
    Um moderne Grafik zu produzieren brauchst du viel mehr Kerne als das Teil bietet.

    Die Idee basiert allerdings auf der Nutzung der Grafikkarten in den letzten Jahren für Berechnungen:
    Du hast einen starken und schnellen Kern, die CPU, die alles verwaltet, und dazu dann viele kleine, langsame Kerne. Bei einer Grafikkarte sind das 500 bis 3000 Shader-Kerne, oder hier eben 61 x86-Kerne. Letztere sind deutlich leistungsfähiger, da ihr Befehlssatz viel größer ist als der einer Grafikkarte. Das ist auch der Grund, warum dieses Teil so interessant ist.

    Als Beispiel dazu: Das Berechnen von SHA1-Hashes dauert auf einer Grafikkarte pro Kern ca. 8-10x so lang wie auf einer modernen CPU. Dafür hast du halt aber das tausendfache an Kernen (natürlich abhängig von CPU und GPU), weswegen du dann trotzdem 100x mehr Hashes in der gleichen Zeit berechnen kannst, und damit effektiv 100x schneller bist.
    Und genau in diese Richtung ziehlt dieser x86-Beschleuniger.



    3 mal bearbeitet, zuletzt am 13.11.12 09:57 durch c3rl.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  3. Re: Auch als Gamerkarte brauchbar ?

    Autor nie (Golem.de) 13.11.12 - 10:29

    Vielleicht. Wenn man einen Displayport dranlötet und dann noch die Treiber für DirectX und OpenGl schreibt ;)

    Nico Ernst
    Redaktion Golem.de

    Benutzer wird von Ihnen ignoriert. Anzeigen

  4. Re: Auch als Gamerkarte brauchbar ?

    Autor Guardian 16.11.12 - 13:54

    Was ich immernoch nicht verstehe ist, warum jetzt gleich nochmal grafikkarten die CPU komplett ablösen.

    Ich meine, dieser Grafikbeschleuniger mit seinen vielen Kernen sollte ja wesentlich leistungsfähiger sein, als der größte i7.

    Kann das mal jemand erklären warum ne Graka bzw der Beschleuniger nicht als haupt CPU benutzt werden können?
    (Oder liegt das nur am OS, das nicht darauf ausgelegt ist?)

    Benutzer wird von Ihnen ignoriert. Anzeigen

  5. Re: Auch als Gamerkarte brauchbar ?

    Autor Smartcom5 16.11.12 - 19:59

    Weil diese zu GPGPUs umfunktionierten GPUs nur einen sehr kleinen Teilaspekt einer CPU abdecken – diese aber aufgrund ihrer architektonisch-bedingt optimierten Parallelität in einer im Vergleich zur CPU weitaus höheren Geschwindigkeit und damit technische/wissenschaftliche Berechnungen erheblich beschleunigen können.
    … sinngemäß.

    Kurzer Abriß der Leistung (single/dounble):
    AMD Radeon HD 7970 3789/947 GFlops
    Nvidia Geforce GTX 580 1581/198 GFlops
    Intel Core i7-3930K 307,2/153,6 GFlops
    Intel Pentium 4
    mit SSE3, 3,6 GHz 14/7 GFlops


    Smart

    "Ich weiß nicht ob es besser wird, wenn es sich ändert. Aber ich weiß das es sich ändern muß, wenn es besser werden soll."
    Georg Christoph Lichtenberg *1742, †1799, deutscher Schriftsteller

    Benutzer wird von Ihnen ignoriert. Anzeigen

  6. Re: Auch als Gamerkarte brauchbar ?

    Autor irata 18.11.12 - 22:02

    Guardian schrieb:
    --------------------------------------------------------------------------------
    > Kann das mal jemand erklären warum ne Graka bzw der Beschleuniger nicht als
    > haupt CPU benutzt werden können?
    > (Oder liegt das nur am OS, das nicht darauf ausgelegt ist?)

    Im Prinzip könntest du die CPU auch raus nehmen,
    sofern die GPU die dafür notwendigen Befehle unterstützt.
    Dafür wäre dann auch ein darauf ausgelegtes OS notwendig.
    Um mit einem gängigen OS zu laufen, bräuchte man dann ziemlich viele kompatible Befehle.
    Fragt sich nur, ob das auch zielführend ist.
    Schöner wäre es vielleicht, ein paar spezialisierte Chips zu integrieren, wie es beim Amiga war. Die CPU müsste dafür dann nicht unbedingt der "Rechenknecht" sein.

    Benutzer wird von Ihnen ignoriert. Anzeigen

Neues Thema Ansicht wechseln


Entschuldigung, nur registrierte Benutzer dürfen in diesem Forum schreiben. Klicken Sie hier um sich einzuloggen


Anzeige

Haben wir etwas übersehen?

E-Mail an news@golem.de


Liebessimulation Love Plus: "Ich hoffe, du wirst für immer schön bleiben"
Liebessimulation Love Plus
"Ich hoffe, du wirst für immer schön bleiben"
  1. PES 2015 angespielt Neuer Ball auf frischem Rasen
  2. Metal Gear Solid - The Phantom Pain Krabbelnde Kisten und schwebende Schafe

LG 34UM95 im Test: Ultra-Widescreen-Monitor für 3K-Gaming
LG 34UM95 im Test
Ultra-Widescreen-Monitor für 3K-Gaming
  1. Free-Form Display Sharp zeigt LCD mit kurvigem Rahmen
  2. Eizo Foris FS2434 IPS-Display mit schmalem Rahmen für Spieler
  3. Philips 19DP6QJNS Klappmonitor mit zwei IPS-Displays

Bluetooth Low Energy und Websockets: Raspberry Pi als Schaltzentrale fürs Haus
Bluetooth Low Energy und Websockets
Raspberry Pi als Schaltzentrale fürs Haus
  1. Echtzeitkommunikation Socket.io 1.0 mit neuer Engine

  1. Arbeitsspeicher: Erste Smartphones mit Low-Power-DDR4 erscheinen 2015
    Arbeitsspeicher
    Erste Smartphones mit Low-Power-DDR4 erscheinen 2015

    Ab 2015 werden nicht nur Computer und Notebooks mit DDR4-Speicher ausgeliefert, sondern auch Smartphones und Tablets: Erste Geräte sollen im zweiten Halbjahr auf LPDDR4-RAM setzen, um genug Bandbreite für 4K und Spiele zu liefern.

  2. Wearables: Samsung lässt sich runde Smartwatch-Designs patentieren
    Wearables
    Samsung lässt sich runde Smartwatch-Designs patentieren

    Die US-Patentbehörde hat Samsung drei Design-Patente auf runde Smartwatches zugesprochen. Der Verschluss des Armbands ist bei den Modellen gleichzeitig der Ladeanschluss, zudem haben die Geräte offenbar eine Kamera im Armband.

  3. Tinkerforge: Linux anpassen für ein neues Prozessorboard
    Tinkerforge
    Linux anpassen für ein neues Prozessorboard

    Neue Hardware erfordert oft auch neue Software. Wie aufwendig die Programmierung ist und wieso Open Source dabei eine große Hilfe sein kann, erklärten uns die Macher von Tinkerforge anhand ihres RED-Brick.


  1. 12:40

  2. 12:28

  3. 12:05

  4. 12:01

  5. 11:59

  6. 11:55

  7. 11:53

  8. 11:46