1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Test: AMDs Radeon 4850 und 4870…

Sieht unrealistisch aus.

Neue Foren im Freiraum! Raumfahrt und freie Software haben jetzt einen Platz, die Games tummeln sich jetzt alle in einem Forum.
  1. Thema

Neues Thema Ansicht wechseln


  1. Sieht unrealistisch aus.

    Autor: Randal 25.06.08 - 07:49

    weiss nicht, woran das liegt, aber ich glaube nicht, dass sich die 4870 nur so gering von der 4850 absetzen kann, auch der vergleich mit gtx 260/280 fehlt hier.

    könnte cpu-limitiert sein....ich muss zugeben, ich hab nur die benchmarks überflogen, kann es sein, dass ich da irgendwas übersehen habe?

  2. Re: Sieht unrealistisch aus.

    Autor: Hurz 25.06.08 - 08:58

    Randal schrieb:
    -------------------------------------------------------
    > weiss nicht, woran das liegt, aber ich glaube
    > nicht, dass sich die 4870 nur so gering von der
    > 4850 absetzen kann, auch der vergleich mit gtx
    > 260/280 fehlt hier.
    >
    > könnte cpu-limitiert sein....ich muss zugeben, ich
    > hab nur die benchmarks überflogen, kann es sein,
    > dass ich da irgendwas übersehen habe?


    Naja, 20% bis 30% Unterschied sind schon völlig ok. Das ein QX9770 bei einem FSB von 1600 irgendetwas limitiert ist eher unwahrscheinlich.
    Ich hab hier einen QX6800@3400 und 2x 9600GT OC und es limitiert nichts.
    Selbst 2x 9800GX2 haben nach oben hin viel Luft.
    Was allerdings Fakt ist, Besitzer von älteren SLI-Boards und SingleCore CPUs (egal wie hoch getaktet) brauchen sich diese Karten nicht kaufen, denn die Leistung verpufft an der CPU und verpuffen meine ich hier wörtlich. Es bleibt nichts übrig :)
    Also eine DualCore-CPU und PCIexpress 2.0 sind ein muss.

  3. Re: Sieht unrealistisch aus.

    Autor: icke123 25.06.08 - 09:40

    Hurz schrieb:
    -------------------------------------------------------
    > Randal schrieb:
    > --------------------------------------------------
    > -----
    > > weiss nicht, woran das liegt, aber ich
    > glaube
    > nicht, dass sich die 4870 nur so
    > gering von der
    > 4850 absetzen kann, auch der
    > vergleich mit gtx
    > 260/280 fehlt hier.
    >
    > könnte cpu-limitiert sein....ich muss
    > zugeben, ich
    > hab nur die benchmarks
    > überflogen, kann es sein,
    > dass ich da
    > irgendwas übersehen habe?
    >
    > Naja, 20% bis 30% Unterschied sind schon völlig
    > ok. Das ein QX9770 bei einem FSB von 1600
    > irgendetwas limitiert ist eher unwahrscheinlich.
    > Ich hab hier einen QX6800@3400 und 2x 9600GT OC
    > und es limitiert nichts.
    > Selbst 2x 9800GX2 haben nach oben hin viel Luft.
    > Was allerdings Fakt ist, Besitzer von älteren
    > SLI-Boards und SingleCore CPUs (egal wie hoch
    > getaktet) brauchen sich diese Karten nicht kaufen,
    > denn die Leistung verpufft an der CPU und
    > verpuffen meine ich hier wörtlich. Es bleibt
    > nichts übrig :)
    > Also eine DualCore-CPU und PCIexpress 2.0 sind ein
    > muss.

    was hat eigentlich pcie und pcie 2.0 für unterschiede? in meinem mb handbuch steht nix zur version, also wohl 1.0.... lieber neues mb kaufen? bringt so eine neue graka da nicht soviel leistung?

  4. Re: Sieht unrealistisch aus.

    Autor: Randal 25.06.08 - 09:50

    pcie 2.0 verdoppelt wohl die speicherbandbreite und die karten können maximal 300W leistung ziehen, d.h. man braucht gar keine zusätzlichen stromanschlüsse, um eine karte damit zu betreiben.

    wichtig ist, dass, soweit ich weiss, pcie v.a. dafür da ist, die befehle der cpu an die graka zu senden, weniger für den zugriff auf den arbeitsspeicher ( die graka hat ja ihren eigenen vram).

    bei den meisten spielen reichen aber die x16 von pcie 1.0 bereits völlig aus, um die komplette menge an befehlen zu übertragen, es gibt aber auch unterschiede, siehe z.b. :

    http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_intel_p45_eaglelake/

    spezifikation zum nachlesen :

    http://www.heise.de/newsticker/Die-Spezifikation-fuer-PCI-Express-2-0-ist-fertig--/meldung/83746

  5. Re: Sieht unrealistisch aus.

    Autor: Hurz 25.06.08 - 09:59

    Randal schrieb:
    -------------------------------------------------------
    > pcie 2.0 verdoppelt wohl die speicherbandbreite
    > und die karten können maximal 300W leistung
    > ziehen, d.h. man braucht gar keine zusätzlichen
    > stromanschlüsse, um eine karte damit zu
    > betreiben.
    >
    > wichtig ist, dass, soweit ich weiss, pcie v.a.
    > dafür da ist, die befehle der cpu an die graka zu
    > senden, weniger für den zugriff auf den
    > arbeitsspeicher ( die graka hat ja ihren eigenen
    > vram).
    >
    > bei den meisten spielen reichen aber die x16 von
    > pcie 1.0 bereits völlig aus, um die komplette
    > menge an befehlen zu übertragen, es gibt aber auch
    > unterschiede, siehe z.b. :
    >
    > www.computerbase.de
    >
    > spezifikation zum nachlesen :
    >
    > www.heise.de

    Ich hab' zB. hier mal ein "altes" nforce4 SLI Brett mit einem P4EE 3,7 bestückt und getestet. Eine 9600GT kann er gerade so noch bedienen, aber eine zweite im SLI bringt gar keine Mehrleistung mehr.
    Auf einem nforce750i mit dem QX dagegen skaliert das System recht ordentlich mit ca. 75% Mehrleistung im Mittel.
    Man sieht es auch gut an der CPU-Auslastung. Der P4EE ist permanent zu 100% ausgelastet, während der QX es eher ruhig angehen lässt.

  6. Re: Sieht unrealistisch aus.

    Autor: Nööö 25.06.08 - 22:52

    Hurz schrieb:
    -------------------------------------------------------
    > Randal schrieb:
    > --------------------------------------------------
    > -----
    > > pcie 2.0 verdoppelt wohl die
    > speicherbandbreite
    > und die karten können
    > maximal 300W leistung
    > ziehen, d.h. man
    > braucht gar keine zusätzlichen
    >
    > stromanschlüsse, um eine karte damit zu
    >
    > betreiben.
    >
    > wichtig ist, dass, soweit
    > ich weiss, pcie v.a.
    > dafür da ist, die
    > befehle der cpu an die graka zu
    > senden,
    > weniger für den zugriff auf den
    >
    > arbeitsspeicher ( die graka hat ja ihren
    > eigenen
    > vram).
    >
    > bei den meisten
    > spielen reichen aber die x16 von
    > pcie 1.0
    > bereits völlig aus, um die komplette
    > menge an
    > befehlen zu übertragen, es gibt aber auch
    >
    > unterschiede, siehe z.b. :
    >
    > www.computerbase.de
    >
    > spezifikation zum
    > nachlesen :
    >
    > www.heise.de
    >
    > Ich hab' zB. hier mal ein "altes" nforce4 SLI
    > Brett mit einem P4EE 3,7 bestückt und getestet.
    > Eine 9600GT kann er gerade so noch bedienen, aber
    > eine zweite im SLI bringt gar keine Mehrleistung
    > mehr.
    > Auf einem nforce750i mit dem QX dagegen skaliert
    > das System recht ordentlich mit ca. 75%
    > Mehrleistung im Mittel.
    > Man sieht es auch gut an der CPU-Auslastung. Der
    > P4EE ist permanent zu 100% ausgelastet, während
    > der QX es eher ruhig angehen lässt.
    >
    >
    Schraube einfach mal die Auflösung höher und dazu höchste Details...und Du wirst schon sehen was nun limitiert, dann werden zwei lahme 9600er gut genug von einem alten P4EE 3,7 befeuert.....


  7. Re: Sieht unrealistisch aus.

    Autor: quote 25.06.08 - 23:42

    Randal schrieb:
    -------------------------------------------------------
    > weiss nicht, woran das liegt, aber ich glaube
    > nicht, dass sich die 4870 nur so gering von der
    > 4850 absetzen kann, auch der vergleich mit gtx
    > 260/280 fehlt hier.
    >
    > könnte cpu-limitiert sein....ich muss zugeben, ich
    > hab nur die benchmarks überflogen, kann es sein,
    > dass ich da irgendwas übersehen habe?

    ich verstehe was du meinst.
    die 4850 und 4870 unterscheiden sich gpu seitig nur durch unterschiedliche taktfrequenzen und durch den speicher (gddr3 und gddr5). ich muss gestehen, ich würde gerne mal einen bench sehen, bei dem die 4870 die gleichen gpu taktraten bekommt, wie eine 4850, um dann die leistungsunterschiede zu betrachten. und ich muss gestehen, es würde mich nicht allzusehr überraschen, wenn der unterschied dann kaum zu spüren wäre, da ich so langsam zu der meinung komme, dass, zur zeit, eine speicheranbindung von 128bit pro 256mb gddr3 ram vollkommen ausreichend ist / ausreichend sein könnte (vermutung gestützt auf radeon hd 2900xt *flop. kann natürlich wirklich nur an der gpu gelegen haben, aber das wird man wohl kaum sicher in erfahrung bringen*, 8800gtx *sicherlich auch bestandteil des enormen leistungssprunges*, 9800gx2 und gtx 260 / 280 *die neuen gt200er karten können sich nur bei hohen auflösungen und details behaupten, weil sie mehr speicher bei konstant guter anbindung mitbringen? gpu seitig hat die gt200 sicherlich einen ordentlichen schritt nach vorne gemacht, aber zu welchem "preis"*)

    ist natürlich alles in allem nur eine subjektive vermutung. aber bisher gibt es noch nicht so viele ausreisser, als dass man sagen könnte, dass sie absolut falsch ist. oder übersehe ich irgendwas?



    p.s.
    ´SCHLAAAAND!!! ;)

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Wissenschaftliche Mitarbeiter / innen (w/m/d)
    Statistisches Bundesamt, Wiesbaden
  2. Mitarbeiter*innen für Anwendungsbetreuung & Support
    GEBIT MÜNSTER Gesellschaft für Beratung sozialer Innovation und Informationstechnologie mbH & Co. KG, Münster
  3. Product Manager Cloud / PaaS / IaaS (m/w/d)
    iWelt GmbH + Co. KG, Eibelstadt
  4. IT Servicetechniker (w/m/d) Onsite Support
    Bechtle Onsite Services GmbH, Hamburg

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. MK470 Slim Combo Tatatur/Maus-Set für 33,99€ (für Club-Mitglieder, sonst 39,99€)
  2. 549€ (Release 05.10.)
  3. (u. a. 15% Rabatt auf Samsung-Fernseher und Tablets, 10% auf PCs, Notebooks, Monitore und...
  4. (u. a. Razer Kraken X Konsolen-Gaming-Headset für 34,99€, Razer Atheris Gaming-Maus für 29...


Haben wir etwas übersehen?

E-Mail an news@golem.de