1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Ryse: Der römische ESRAM-Trick
  6. Th…

Vorlage für PS4 Fans

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Re: Vorlage für PS4 Fans

    Autor: ms (Golem.de) 19.09.13 - 20:42

    Eigentlich heißt es Datentransferrate, das nur am Rande.

    Einzig den GDDR5 gegen den DDR3 zu stellen und den ESRAM sowie die elementaren Move Engines außen vor zu lassen, funktioniert nicht. Die XBO hat zwar kein HUMA, aber eine sehr ähnliche (kohärente) Speicherverwaltung, die jedoch für GPU und CPU genutzt wird. Wie gesagt beide Systeme haben ihre Vorteile, vor allem 8 ACEs mit je 8 Queues liefern bei der PS4 viel (asynchone) Compute-Leistung, der ESRAM samt den Move Engines ist aber nicht zu unterschätzen.

    Marc Sauter, Sr Editor
    Golem.de

  2. Re: Vorlage für PS4 Fans

    Autor: Allandor 19.09.13 - 20:52

    Wie kommen die Leute immer darauf das alles immer aus dem Hauptspeicher kommen muss. Zwischenergebnisse die Errechnet werden gibt es wohl nicht? Und genau um solche Sachen geht es. Es werden kleine Teile in den schnellen Speicher geladen, x-mal umgeschrieben, x-mal gelesen, neu berechnet und was weiß ich noch alles damit gemacht. Bei solchen Sachen knickt klassischer dram einfach ein (8-fach prefetch & co wirken dann nicht mehr so gut). Der esram wird auch nicht komplett mit Texturen gefüllt werden, sondern höchstens mit kleinen ausschnitten. Im schlimmsten Fall knickt die Bandbreite von Dram bei kleinen Operationen drastisch ein. Die Latenzen geben diesen Operationen dann noch den Rest. Die 176GB/s beim GDDR5 Speicher sind nur rein theoretischer Natur, wenn man quasi mit einer Adresse anfängt zu lesen und eine große Read oder Write Operation durchführt. Das klappt auf Grafikarten bisher immer recht gut, weil hier z.B. häufig große Texturen & co liegen, die gelesen/geschrieben werden, aber kleine Operationen sind hier einfach Kontraproduktiv für den dram (bzw. dessen hohe Bandbreite), da die Tricks nicht mehr komplett wirken, was die effektive Bandbreite stark verringert (gilt natürlich auch für den DDR3 Speicher der xbone). Und genau für solche Dinge ist der esram. Dinge die klein sind und daher teuer in der Bandbreite.

    Wie bei so vielem im Leben, Größe ist halt nicht alles ;)
    Gepaart mit GDDR5 Speicher wäre es aber sicherlich ein bisschen netter :)

    Es ist halt einfach ein anderer Ansatz der sowohl Vor- als auch Nachteile hat.

  3. Re: Vorlage für PS4 Fans

    Autor: Anonymer Nutzer 19.09.13 - 21:27

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Die PS4 hat auf dem Papier mehr Compute-Leistung, aber eben keinen ESRAM -
    > das gleicht sich je nach workload aus.

    Das ist eine Aussage, die mMn noch zu früh getroffen wurde.
    Je nach workload klingt erstmal nach, alles kann, nichts muss.
    Und eine interessante Technologie von AMD, der hUMA,ist dadurch auch nicht möglich.
    Wenn man den ESRAM nicht unterschätzen soll, warum ist das Ergebnis denn bei Ryse nur so mager? Workloads können natürlich verschieden sein, allerdings lesen sich die Ausführungen von Crytek schon jetzt so, als hätte man die Xb1 ans Limit bringen müssen.
    Natürlich bin ich überzeugt davon, dass das Ergebnis gut sein wird, aber tricksen, um an eine aufgepumpte Auflösung zu kommen die mit 30 FPS abläuft? Wirkt auf mich nicht sonderlich positiv.

  4. Re: Vorlage für PS4 Fans

    Autor: ms (Golem.de) 19.09.13 - 21:51

    Wo ist Ryse mager? Diese Optik muss man erst mal hinbekommen.

    Marc Sauter, Sr Editor
    Golem.de

  5. Re: Vorlage für PS4 Fans

    Autor: Allandor 19.09.13 - 22:01

    Tzven schrieb:
    --------------------------------------------------------------------------------
    > ms (Golem.de) schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > Und eine interessante Technologie von AMD, der hUMA,ist dadurch auch nicht
    > möglich.

    Das Lustige an HUMA ist, das die xbone schon allein wegen der 32MB nicht mehr in die Definition passt. Wie es mit dem DDR3 Speicher aussieht, weiß ich nicht. Eventuell können CPU & GPU gleichberechtigt die gleichen Speicherbereiche nutzen oder eben nicht. Wüsste ehrlich gesagt aber nicht was dagegen spricht (abgesehen von den 32MB)

    und der PS4 bisher bitte nicht unterstellen das diese es könnte. UMA, ja aber zu HUMA hat sony bisher nichts gesagt. Das Statement das da einer von AMD getroffen hat muss nicht korrekt gewesen sein. Kann auch ein Grund gewesen sein, warum es zurückgezogen wurde.

  6. Re: Vorlage für PS4 Fans

    Autor: Xultra 20.09.13 - 00:09

    Allandor schrieb:
    --------------------------------------------------------------------------------
    > Wie kommen die Leute immer darauf das alles immer aus dem Hauptspeicher
    > kommen muss. Zwischenergebnisse die Errechnet werden gibt es wohl nicht?
    > Und genau um solche Sachen geht es. Es werden kleine Teile in den schnellen
    > Speicher geladen, x-mal umgeschrieben, x-mal gelesen, neu berechnet und was
    > weiß ich noch alles damit gemacht. Bei solchen Sachen knickt klassischer
    > dram einfach ein (8-fach prefetch & co wirken dann nicht mehr so gut). Der
    > esram wird auch nicht komplett mit Texturen gefüllt werden, sondern
    > höchstens mit kleinen ausschnitten. Im schlimmsten Fall knickt die
    > Bandbreite von Dram bei kleinen Operationen drastisch ein. Die Latenzen
    > geben diesen Operationen dann noch den Rest. Die 176GB/s beim GDDR5
    > Speicher sind nur rein theoretischer Natur, wenn man quasi mit einer
    > Adresse anfängt zu lesen und eine große Read oder Write Operation
    > durchführt. Das klappt auf Grafikarten bisher immer recht gut, weil hier
    > z.B. häufig große Texturen & co liegen, die gelesen/geschrieben werden,
    > aber kleine Operationen sind hier einfach Kontraproduktiv für den dram
    > (bzw. dessen hohe Bandbreite), da die Tricks nicht mehr komplett wirken,
    > was die effektive Bandbreite stark verringert (gilt natürlich auch für den
    > DDR3 Speicher der xbone).
    Hier redest Du aber hauptsächlich von Grafik, da GPUs auf Bandbreite optimiert sind verstehe ich den Nachteil von GDDR5 nicht ganz.
    Bei GPGPU Berechnungen sehe ich Licht, wobei bei der XBone, soweit ich die Diagramme richtig verstehe, bei Einsatz der CPU ,die Daten zumindest durch die beiden Chaches der GPU gehen müssen incl. Flush ,bei der PS4 ist ein direkter Zugriff auf die GPU möglich.
    http://ht4u.net/reviews/2012/msi_radeon_hd_7750_2gb_ddr3_test/index32.php
    Hier sieht man mit erstaunen das die Karten mit GDDR5 schneller sind?!
    "Sony's hUMA" könnte den Vorteil vom ESRAM sogar übertrumpfen, das ist aber imho
    Ich denke ( leider ohne Programmkenntnisse) das es verdächtig ist das trotz niedriger Latenz, die GPGPU Benchmarks höcher sind ,also was bringt hier noch weniger Latenz ( des ESRAM) ?
    Bei der PlayStation 4,während GPGPU kann die CPU direkt auf die GPU zugreifen und muss nicht zwei Caches leeren was deutlich mehr Latenz spart als -ESRAM -> GPU-> DDR3-> CPU (eventuell hier noch durch Chaches durch)
    Richtig ?
    Bei GPGPU Berechnungen hat die XBone einen Vorteil durch den ESRAM, wenn diese nur 'autonom' in der GPU + ESRAM abläuft, ist aber nicht GPGPU auf PCs 'relativ' erfolglos ( außer wenn nur eine Sache z.B. Videostreams umkodiert werden) da Die Kommunikation zwischen CPU und GPU sehr sehr hohe Latenzen aufwies? Kommt die CPU ins Spiel müssen die Daten zuerst durch zwei Caches und dann mit weniger als 68 GB/s , mit einem Haufen 'Latenz' zur CPU.
    Bitte gerne korrigieren falls ich irgendwo einen Denkfehler hab!

    >Und genau für solche Dinge ist der esram. Dinge
    > die klein sind und daher teuer in der Bandbreite.
    >
    > Wie bei so vielem im Leben, Größe ist halt nicht alles ;)
    > Gepaart mit GDDR5 Speicher wäre es aber sicherlich ein bisschen netter :)
    >
    > Es ist halt einfach ein anderer Ansatz der sowohl Vor- als auch Nachteile
    > hat.
    Sony's Ansatz ( Hier meine ich hauptsächlich GPGPU) einen direkten Bus von der CPU zur GPU zu schaffen ist doch aus Latenz-Sicht genial.
    Denn wie Weiter oben schon geschrieben ist aus der Sicht GPU&Grafik ,der GDDR5 Speicher einfach optimal.
    Wenn Microsoft uns bei GPGPU Aufgaben auf der XBONE überrascht wäre ich nicht unglücklich :-)
    Aber Sony's Ansatz direkt von der CPU ,GPGPU Aufgaben, ohne Chaches (grob gesagt) auf 8 ACEs ,die alles auf 64 Threds verteilen, viele ALUs und viele ROPs zu verteilen ,so das die Grafik nicht leidet, sehr gelungen.
    Peace

  7. Re: Vorlage für PS4 Fans

    Autor: Xultra 20.09.13 - 00:21

    Allandor schrieb:
    --------------------------------------------------------------------------------
    > Tzven schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > ms (Golem.de) schrieb:
    > >
    > ---------------------------------------------------------------------------
    >
    > > -----
    > > Und eine interessante Technologie von AMD, der hUMA,ist dadurch auch
    > nicht
    > > möglich.
    >
    > Das Lustige an HUMA ist, das die xbone schon allein wegen der 32MB nicht
    > mehr in die Definition passt. Wie es mit dem DDR3 Speicher aussieht, weiß
    > ich nicht. Eventuell können CPU & GPU gleichberechtigt die gleichen
    > Speicherbereiche nutzen oder eben nicht. Wüsste ehrlich gesagt aber nicht
    > was dagegen spricht (abgesehen von den 32MB)
    >
    > und der PS4 bisher bitte nicht unterstellen das diese es könnte. UMA, ja
    > aber zu HUMA hat sony bisher nichts gesagt. Das Statement das da einer von
    > AMD getroffen hat muss nicht korrekt gewesen sein. Kann auch ein Grund
    > gewesen sein, warum es zurückgezogen wurde.
    Nö, der nette aber verrückte , AMD Sprecher wollte eine zukünftige Technik pushen, die im PS4 Design steckt ( Garlic und Onion &Onion+und dieses Bit ... Ka wie das hieß) für genau das nämlich ->hUMA ,ABER ... er hätte das nie so sagen dürfen wegen NDAs und viel wichtiger ,MS und Sony sind Vertragspartner\Kunden und wenn die das Design offenlegen okay,aber dann darf das AMD auf keinen Fall ,das ist Geheimnissverrat. Armer Kerl. Aber Sony ( die dürfen ja es ist ihr Design) bzw. Cerny hat ja darüber gesprochen und es sogar erklärt !
    Es bleibt aber Sony's hUMA, da es ihr Design ist.
    Wenn MS sagt unseres ist auch ein MS hUMA , dann wird es wohl auch so sein, das Erfahren wir noch hoffentlich bald ;-)
    Peace

  8. Re: Vorlage für PS4 Fans

    Autor: Anonymer Nutzer 20.09.13 - 08:02

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Wo ist Ryse mager? Diese Optik muss man erst mal hinbekommen.

    Die Optik muss man natürlich erstmal hinbekommen.
    Bei Spielen wo man mehr in Zeitlupe und Quicktime-Events unterwegs ist, muss man das sogar tatsächlich hinbekommen. Mager ist mMn, dass die Optik insgesamt sehr durchwachsen wirkt.
    Teilweise genial und an weniger gescripteten Stellen oftmals garnicht zu unterscheiden von GoW.
    Allerdings ist natürlich am Ende das fertige Spiel entscheident.

  9. Re: Vorlage für PS4 Fans

    Autor: lock_vogell 20.09.13 - 08:44

    ich möchte hier noch mal in den raum schmeißen, dass der unterschied bei den beiden konsolen von 1,24 gfp/s zu 1,88 gfp/s beträgt und selbst mittelklasse gpus irgendwo bei 7 gfp/s liegen.
    wenn man jetzt noch dazu nimmt, dass die angabe der gfp/s eine reine PR maßnahme sind, kann man sich die ganze kacke eh direkt schenken.
    am ende werden bei allen konsolen (auch der wii u) eh wieder die 1st party titel den unterschied machen und reine grafik performance wird nach spätestens 6 monaten eh keinen mehr interessieren außer vieleicht die über fanboys.
    forza 5 sieht jedenfalls schon schicker aus als grantourismo 6.

    im übrigen darf man nicht vergesse, dass am ende die ganze spielperformance zählt, also auch physik berechnungen und da könnte die xbo durchaus ihre vorteile mit dem esram design haben, aber das muss man erst mal abwarten.

  10. Re: Vorlage für PS4 Fans

    Autor: Allandor 20.09.13 - 08:55

    Xultra schrieb:
    > Hier redest Du aber hauptsächlich von Grafik, da GPUs auf Bandbreite
    > optimiert sind verstehe ich den Nachteil von GDDR5 nicht ganz.
    > Bei GPGPU Berechnungen sehe ich Licht, wobei bei der XBone, soweit ich die
    > Diagramme richtig verstehe, bei Einsatz der CPU ,die Daten zumindest durch
    > die beiden Chaches der GPU gehen müssen incl. Flush ,bei der PS4 ist ein
    > direkter Zugriff auf die GPU möglich.
    > ht4u.net
    > Hier sieht man mit erstaunen das die Karten mit GDDR5 schneller sind?!

    Klar sind die Grafikkarten mit GDDR5 schneller als mit DDR3. Aber, besonders bei den kleineren Grafikkarten wird häufig nicht DDR3 2133 verwendet sondern nur mit 800/900Mhz laufender DDR3 Speicher (der dann vielleicht 64-Bit oder vielleicht sogar 128 Bit angebunden ist (xbone 256 Bit)), was dann natürlich auch so einer geringeren Bandbreite führt. Das ist zwar nicht das einzige, aber bei der PS4 steht der GDDR5 Speicher dem Gesamten System zur Verfügung. D.h. die Bandbreite kann die GPU nie komplett nutzen. Die Bandbreite des esRams in der xbone ist mehr oder minder exklusiv für die GPU gedacht (kann der Entwickler ja entscheiden was er damit macht). Hier kann die GPU über die vollständige Bandbreite verfügen + noch einen teil der Bandbreite die vom Hauptspeicher kommt (hier werden wohl hauptsächlich die großen Texturen liegen).
    Ich hätte zwar garantiert auch nichts dagegen wenn GDDR5 Speicher in der xbone stecken würde, die frage ist nur, ob sie mit der höheren Bandbreite dann noch was anfangen könnte. Bei unoptimierten Sachen, sicherlich, aber bei optimierten Sachen würde die Bandbreite dann wohl nicht genutzt. Hier hat MS also einfach gespart weil es wohl nicht viel brachte.

    Ich sag ja nicht das der esram der xbone generell die bessere Lösung ist, ich sage nur, das es Vorteile gibt, die man damit ausspielen kann und dadurch dinge möglich sind, die auf der PS4 nicht realisierbar sind. Genau das gleiche gilt natürlich umgekehrt, das auf der PS4 wohl dinge Möglich sind die auf der xbone nicht realisierbar sind (beides bezieht sich immer auf gleichbleibende Qualität).

  11. Re: Vorlage für PS4 Fans

    Autor: it-boy 20.09.13 - 09:20

    GT6 ist bis jetzt ausschließlich ein PS3-Spiel.

  12. Re: Vorlage für PS4 Fans

    Autor: PhilAd 20.09.13 - 09:34

    Welche Mittelklasse Grafikkarte liegt bei 7.000GFlop/s???????
    Für mich ist eine AMD Radeon HD7850 eine übliche Mittelklasse-Karte. Eher sogar höhere Mittelklasse. Diese bewegt sich bei 1.760GFlop's und liegt damit unter der Leistung des Chips aus der PS4.

    Selbst eine 7990 schafft SP keine 7.000GFlops ....

    lock_vogell schrieb:
    --------------------------------------------------------------------------------
    > ich möchte hier noch mal in den raum schmeißen, dass der unterschied bei
    > den beiden konsolen von 1,24 gfp/s zu 1,88 gfp/s beträgt und selbst
    > mittelklasse gpus irgendwo bei 7 gfp/s liegen.
    > wenn man jetzt noch dazu nimmt, dass die angabe der gfp/s eine reine PR
    > maßnahme sind, kann man sich die ganze kacke eh direkt schenken.
    > am ende werden bei allen konsolen (auch der wii u) eh wieder die 1st party
    > titel den unterschied machen und reine grafik performance wird nach
    > spätestens 6 monaten eh keinen mehr interessieren außer vieleicht die über
    > fanboys.
    > forza 5 sieht jedenfalls schon schicker aus als grantourismo 6.
    >
    > im übrigen darf man nicht vergesse, dass am ende die ganze spielperformance
    > zählt, also auch physik berechnungen und da könnte die xbo durchaus ihre
    > vorteile mit dem esram design haben, aber das muss man erst mal abwarten.



    2 mal bearbeitet, zuletzt am 20.09.13 09:40 durch PhilAd.

  13. Re: Vorlage für PS4 Fans

    Autor: Xultra 20.09.13 - 12:01

    Allandor schrieb:
    --------------------------------------------------------------------------------
    > Xultra schrieb:
    > > Hier redest Du aber hauptsächlich von Grafik, da GPUs auf Bandbreite
    > > optimiert sind verstehe ich den Nachteil von GDDR5 nicht ganz.
    > > Bei GPGPU Berechnungen sehe ich Licht, wobei bei der XBone, soweit ich
    > die
    > > Diagramme richtig verstehe, bei Einsatz der CPU ,die Daten zumindest
    > durch
    > > die beiden Chaches der GPU gehen müssen incl. Flush ,bei der PS4 ist ein
    > > direkter Zugriff auf die GPU möglich.
    > > ht4u.net
    > > Hier sieht man mit erstaunen das die Karten mit GDDR5 schneller sind?!
    >
    > Klar sind die Grafikkarten mit GDDR5 schneller als mit DDR3. Aber,
    > besonders bei den kleineren Grafikkarten wird häufig nicht DDR3 2133
    > verwendet sondern nur mit 800/900Mhz laufender DDR3 Speicher (der dann
    > vielleicht 64-Bit oder vielleicht sogar 128 Bit angebunden ist (xbone 256
    > Bit)), was dann natürlich auch so einer geringeren Bandbreite führt.
    Bei meinem Beispiel wo man Die Grafikkarte mit GDDR5 und DDR3 Speicher vergleichen kann, laufen beide mit 800 bzw. 900 MHz ,wo sind da große Unterschiede und Wie schon mal gesagt die Latenzen müssen auf einem ähnlichenn Niveau sein , da die GDDR5 Karte bei den GPGPU Tests immer führen.
    Die Benchmarks da widerlegen eigentlich die ''Latenz ist wichtig'' für GPGPU Aufgaben. Das wundert mich ja selbst

    >Das
    > ist zwar nicht das einzige, aber bei der PS4 steht der GDDR5 Speicher dem
    > Gesamten System zur Verfügung. D.h. die Bandbreite kann die GPU nie
    > komplett nutzen. Die Bandbreite des esRams in der xbone ist mehr oder
    > minder exklusiv für die GPU gedacht (kann der Entwickler ja entscheiden was
    > er damit macht). Hier kann die GPU über die vollständige Bandbreite
    > verfügen + noch einen teil der Bandbreite die vom Hauptspeicher kommt (hier
    > werden wohl hauptsächlich die großen Texturen liegen).
    > Ich hätte zwar garantiert auch nichts dagegen wenn GDDR5 Speicher in der
    > xbone stecken würde, die frage ist nur, ob sie mit der höheren Bandbreite
    > dann noch was anfangen könnte. Bei unoptimierten Sachen, sicherlich, aber
    > bei optimierten Sachen würde die Bandbreite dann wohl nicht genutzt. Hier
    > hat MS also einfach gespart weil es wohl nicht viel brachte.
    >
    > Ich sag ja nicht das der esram der xbone generell die bessere Lösung ist,
    > ich sage nur, das es Vorteile gibt, die man damit ausspielen kann und
    > dadurch dinge möglich sind, die auf der PS4 nicht realisierbar sind.
    Veto. Genau da finde ich Sonys Ansatz besser. Über das, Interface (die (Garlic & Onion Busse ) hab ich einen direkten Zugriff auf die GPU ohne Caches und den Auftretenden Latenzen Die beim leeren dieser Speicher entstehen.
    >Genau
    > das gleiche gilt natürlich umgekehrt, das auf der PS4 wohl dinge Möglich
    > sind die auf der xbone nicht realisierbar sind (beides bezieht sich immer
    > auf gleichbleibende Qualität).
    Hoffen wir auf gute Spiele, Von der HW überzeugt mich Sony's Ansatz mehr.
    Peace

  14. Re: Vorlage für PS4 Fans

    Autor: Allandor 20.09.13 - 15:55

    Xultra schrieb:
    > Bei meinem Beispiel wo man Die Grafikkarte mit GDDR5 und DDR3 Speicher
    > vergleichen kann, laufen beide mit 800 bzw. 900 MHz ,wo sind da große
    > Unterschiede und Wie schon mal gesagt die Latenzen müssen auf einem
    > ähnlichenn Niveau sein , da die GDDR5 Karte bei den GPGPU Tests immer
    > führen.
    > Die Benchmarks da widerlegen eigentlich die ''Latenz ist wichtig'' für
    > GPGPU Aufgaben. Das wundert mich ja selbst

    Einer der Unterschiede ist, der DDR3 Speicher läuft mit 800 MHz, der GDDR5 Speicher mit 1125Mhz, was die Latenzen dann natürlich wieder ausgleicht. Deshalb ist GPGPU auch nicht besser an der Stelle, weil bei den DDR3 Kärtchen halt meist ziemlich mieser DDR3 Speicher eingesetzt wird (häufig auch noch mit recht schlechten Latenzen von sich aus)

    >Veto. Genau da finde ich Sonys Ansatz besser. Über das, Interface (die (Garlic & >Onion Busse ) hab ich einen direkten Zugriff auf die GPU ohne Caches und den >Auftretenden Latenzen Die beim leeren dieser Speicher entstehen.
    mit maximal 10GB/s zwischen CPU (und deren Caches) und dem ganzen Rest. Ist nicht grad viel. Verstehen tue ich das nicht, das man hier so knauserig mit der Anbindung ist. Immerhin sollte die 8core cpu ja nicht noch an der Bandbreite krepieren.

    Das interessant an hUMA ist an sich, das z.B. die CPU und GPU in den gleichen Speicherbereichen arbeiten können. Nur bisher hat sony nicht gezeigt, das das geht, sondern eher das Gegenteil ist der Fall, z.B. Killzone nutzt fest definierte Speicherbereiche (logisch von einander getrennte). Mag sein, das das noch daher kommt das die ersten Dev-kits einfache PCs waren und sich das Spiel ja schon ne Weile in der Entwicklungs befindet, aber Sony hat sich bisher wirklich davor gehütet "hUMA" in Verbindung mit der PS4 zu nennen. Bisher ist es laut Sony nur ein gemeinsamer Speicherbereich (UMA), aber bei hUMA kommt es ja besonders auf das "h" an.


    Aber das wichtigste ist wie immer, gute Spiele :)

  15. Re: Vorlage für PS4 Fans

    Autor: Z101 20.09.13 - 18:08

    vol1 schrieb:
    --------------------------------------------------------------------------------
    > Auf der PS4 wird es dann einfach gleich in full HD berechnet. :P

    Naja. Die ganzen PS4-Spiele laufen auch nur in 30 FPS, und zumindestens die aktuellen Demo-Versionen von Killzone ruckelt sogar noch gelegentlich heftig. Selbst das Rennspiel Drive Club läuft nun nur in 30FPS, obwohl man zuerst von 60FPS gesprochen hatte. Offensichtlich wird auch bei der PS4 nur mit Wasser gekocht. Auf dem Papier war die PS3 auch leistungsfähiger als die Xbox360, nur gibt es keine Spiele die das in der Realität zeigen.

    Thema eSRAM: Die Wii U hat ja 32MB eDRAM auf den sogar angeblich CPU und GPU zugreifen können, dürfte ja auch einiges mit zu bewerkstelligen sein. Aber man weiß ja wenig genaues über die Wii U Hardware, die ja stark modifiziert wurde und sich eigentlich nicht mehr mit PC-Komponenten vergleichen lässt. Allerdings sollen ja einige kommende Wii U Spiele wie Smash Bros, Mario Kart und Bayonetta 2 angeblich in 1080p laufen und das bei recht aufwendiger Grafik.

  16. Re: Vorlage für PS4 Fans

    Autor: Ovaron 20.09.13 - 18:51

    Plany schrieb:
    --------------------------------------------------------------------------------
    > Den schon die alten Römer wussten.... wenn du crossplattform Spiele
    > schreibst, musst du dich an den schwächsten Glied orientieren. Was in
    > diesen fall wohl eindeutig die... ?

    Smartphonses oder Wii? Ich bin gespannt wie der Satz enden wird.

  17. Re: Vorlage für PS4 Fans

    Autor: Xultra 20.09.13 - 20:18

    Z101 schrieb:
    --------------------------------------------------------------------------------
    > vol1 schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Auf der PS4 wird es dann einfach gleich in full HD berechnet. :P
    >
    > Naja. Die ganzen PS4-Spiele laufen auch nur in 30 FPS, und zumindestens die
    > aktuellen Demo-Versionen von Killzone ruckelt sogar noch gelegentlich
    > heftig.
    Multiplayer soll in 60 FPS laufen und hält recht gut durch ,auf einer echten PS4. Einbrüche gibt,s noch.
    >Selbst das Rennspiel Drive Club läuft nun nur in 30FPS, obwohl man
    > zuerst von 60FPS gesprochen hatte. Offensichtlich wird auch bei der PS4 nur
    > mit Wasser gekocht. Auf dem Papier war die PS3 auch leistungsfähiger als
    > die Xbox360, nur gibt es keine Spiele die das in der Realität zeigen.
    >
    > Thema eSRAM: Die Wii U hat ja 32MB eDRAM auf den sogar angeblich CPU und
    > GPU zugreifen können, dürfte ja auch einiges mit zu bewerkstelligen sein.
    Und ? Die XBone hat ESRAM keinen eDRAM.
    Fail ;-)
    > Aber man weiß ja wenig genaues über die Wii U Hardware, die ja stark
    > modifiziert wurde und sich eigentlich nicht mehr mit PC-Komponenten
    > vergleichen lässt. Allerdings sollen ja einige kommende Wii U Spiele wie
    > Smash Bros, Mario Kart und Bayonetta 2 angeblich in 1080p laufen und das
    > bei recht aufwendiger Grafik.
    ...und durchgehend in 60fps !
    Ich freu mich schon :-)
    Peace

  18. Re: Vorlage für PS4 Fans

    Autor: Xultra 20.09.13 - 22:14

    Allandor schrieb:
    --------------------------------------------------------------------------------
    > Xultra schrieb:
    > > Bei meinem Beispiel wo man Die Grafikkarte mit GDDR5 und DDR3 Speicher
    > > vergleichen kann, laufen beide mit 800 bzw. 900 MHz ,wo sind da große
    > > Unterschiede und Wie schon mal gesagt die Latenzen müssen auf einem
    > > ähnlichenn Niveau sein , da die GDDR5 Karte bei den GPGPU Tests immer
    > > führen.
    > > Die Benchmarks da widerlegen eigentlich die ''Latenz ist wichtig'' für
    > > GPGPU Aufgaben. Das wundert mich ja selbst
    >
    > Einer der Unterschiede ist, der DDR3 Speicher läuft mit 800 MHz, der GDDR5
    > Speicher mit 1125Mhz, was die Latenzen dann natürlich wieder ausgleicht.
    Danke! Mea Culpa ,hab's noch mal durchgelesen, es sind 1125Mhz bei der GDDR5 Karte. Wobei die Konsolen etwa 2,5 fache Bandbreite und 2 fache Geschwindigkeit haben. Ich vermute :-) aber das der GDDR Speicher auch nicht HighEnd( bei den Grafikkarten ) ist, d beide sehr günstig sind.
    > Deshalb ist GPGPU auch nicht besser an der Stelle, weil bei den DDR3
    > Kärtchen halt meist ziemlich mieser DDR3 Speicher eingesetzt wird (häufig
    > auch noch mit recht schlechten Latenzen von sich aus)
    >
    > >Veto. Genau da finde ich Sonys Ansatz besser. Über das, Interface (die
    > (Garlic & >Onion Busse ) hab ich einen direkten Zugriff auf die GPU ohne
    > Caches und den >Auftretenden Latenzen Die beim leeren dieser Speicher
    > entstehen.
    > mit maximal 10GB/s zwischen CPU (und deren Caches) und dem ganzen Rest. Ist
    > nicht grad viel.
    10 Gigabytes pro Sekunde ist aber auch nicht wirklich wenig ;-) will haben Internet mit einem hundertstel ;-)
    >Verstehen tue ich das nicht, das man hier so knauserig mit
    > der Anbindung ist. Immerhin sollte die 8core cpu ja nicht noch an der
    > Bandbreite krepieren.
    >
    Okay ,das verstehe ich ,wenn man sich Benchmarks mit CPU in Verbindung mit schnellerem Speicher anschaut , sind die Performance Gewinne wirklich extrem gering. CPUs brauchen keine hohe Bandbreite.
    :-) die einzige Ausnahme sind die Richland APUs. Wobei hier die Spielperformance natürlich hauptsächlich steigt. Im 3dcenter stand aktuell was ,ich komm aber nicht heute dazu. Nur eine Grafik mit Spielbenchs ist hängengeblieben.
    > Das interessant an hUMA ist an sich, das z.B. die CPU und GPU in den
    > gleichen Speicherbereichen arbeiten können. Nur bisher hat sony nicht
    > gezeigt, das das geht, sondern eher das Gegenteil ist der Fall, z.B.
    > Killzone nutzt fest definierte Speicherbereiche (logisch von einander
    > getrennte). Mag sein, das das noch daher kommt das die ersten Dev-kits
    > einfache PCs waren und sich das Spiel ja schon ne Weile in der Entwicklungs
    > befindet, aber Sony hat sich bisher wirklich davor gehütet "hUMA" in
    > Verbindung mit der PS4 zu nennen.
    AMD nicht :-). RoFL. Der Heiseartikel hat hoche Wellen geschlagen. AMD hat rausposaunt das Sony's APU hUMA hat, deswegen meine Verwunderung hier ,hab ich die 40 min Show mit Cerny über die Technik der PS4 falsch verstanden? .... Ich lese da noch nach.... Würde mich aber wundern ,ich nenne es Sony's hUMA da es vielleicht nicht 100% in AMD's Schema passt... AMD darf sowas über die Producte ,nicht veröffentlichen. Da wurden wahrscheinlich NDA 's gebrochen deswegen das zurückrudern. Eigentlich hat es AMD verbotenerweise 'zugegeben'.
    > Bisher ist es laut Sony nur ein
    > gemeinsamer Speicherbereich (UMA), aber bei hUMA kommt es ja besonders auf
    > das "h" an.
    >
    Hm , GPU und CPU wissen was im Speicher und in den Caches ist,
    Und bei DigitalFoundry gab's einen Artikel über Killzone und es gab 500 MB Daten für beide, die könnte Onion 20 mal in der Sekunde hin und her Schaufeln :-)
    >
    > Aber das wichtigste ist wie immer, gute Spiele :)

    Joar :-)
    Peace



    1 mal bearbeitet, zuletzt am 20.09.13 22:21 durch Xultra.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. dSPACE GmbH, Paderborn
  2. ITDZ Berlin über Kienbaum Consultants International GmbH, Berlin
  3. Proximity Technology GmbH, Hamburg
  4. Swyx Solutions GmbH, Dortmund

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Mobile-Angebote
  1. 159,99€ (mit Rabattcode "POWERFRIDAY20" - Bestpreis!)
  2. (u. a. Apple iPhone 11 Pro Max 256GB 6,5 Zoll Super Retina XDR OLED für 929,98€)
  3. 699€ (mit Rabattcode "POWERFRIDAY20" - Bestpreis!)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Radeon RX 6800 (XT) im Test: Die Rückkehr der Radeon-Ritter
Radeon RX 6800 (XT) im Test
Die Rückkehr der Radeon-Ritter

Lange hatte AMD bei Highend-Grafikkarten nichts zu melden, mit den Radeon RX 6800 (XT) kehrt die Gaming-Konkurrenz zurück.
Ein Test von Marc Sauter

  1. Radeon RX 6800 (XT) Das Unboxing als Gelegenheit
  2. Radeon RX 6000 AMD sieht sich in Benchmarks vor Nvidia
  3. Big Navi (RDNA2) Radeon RX 6900 XT holt Geforce RTX 3090 ein

Futuristische Schwebebahn im Testbetrieb: Verkehrsmittel der Zukunft für die dritte Dimension
Futuristische Schwebebahn im Testbetrieb
Verkehrsmittel der Zukunft für die dritte Dimension

Eine Schwebebahn für die Stadt, die jeden Passagier zum Wunschziel bringt - bequem, grün, ohne Stau und vielleicht sogar kostenlos. Ist das realistisch?
Ein Bericht von Werner Pluta

  1. ÖPNV Infraserv Höchst baut Wasserstofftankstelle für Züge

Weiterbildung: Was IT-Führungskräfte können sollten
Weiterbildung
Was IT-Führungskräfte können sollten

Wenn IT-Spezialisten zu Führungskräften aufsteigen, müssen sie Fachwissen in fremden Gebieten aufbauen - um Probleme im neuen Job zu vermeiden.
Ein Bericht von Manuel Heckel

  1. IT-Profis und Visualisierung Sag's in Bildern
  2. IT-Jobs Die schwierige Suche nach dem richtigen Arbeitgeber
  3. Digitalisierung in Firmen Warum IT-Teams oft übergangen werden