1. Foren
  2. Kommentare (alt, bis 13.1.2005)
  3. Hardware
  4. Grafikhardware

ATI R520 - ab 2005 Shader-3.0-Unterstützung?

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Golem.de 26.08.04 - 14:46

    Glaubt man den nicht genannten Quellen von The Inquirer, so sind nun erste, allerdings wenig überraschende Infos zu ATIs kommender Grafikchipgeneration aufgetaucht. Der mit Codenamen "Fudo" bezeichnete, noch nicht offiziell angekündigte ATI-Grafikchip R520 soll 2005 auf den Markt kommen und das Shader-Model 3.0 von DirectX 9.0c unterstützen.

    https://www.golem.de/0408/33208.html

  2. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Bernie der Bär 26.08.04 - 14:53

    Nun, aller Wahrscheinlichkeit wird ATi mit dieser Karte die entsprechende G-Force zu 10-30% überflügeln.

    So wie es seit Jahren in der HW Branche üblich ist.
    Nvidia 'gehört' dann wieder die übernächste Generation, sowie Intel den nächsten Top-Prozessor stellen wird.

  3. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: T-Zer0 26.08.04 - 15:14

    Woher du das wissen nimmst, würde ich gerne mal wissen *hihi* ;-)

  4. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Bernie der Bär 26.08.04 - 15:18

    Einfach:

    a) Das ist eine Regelmäßigkeit der letzten 5-6 Jahre.
    b) Damit ich ein Marke verkaufen kann, die weniger gut ist als die Konkurrenz muss ich den Preis senken oder die Qualität/Leistung steigern. ATi/Nvidia sowie Intel/AMD tendieren zu letzterem.

    Das ist nun wirklich kein Geheimnis :-)

  5. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: T-Zer0 26.08.04 - 15:30

    Bernie der Bär schrieb:
    >
    > Einfach:
    >
    > a) Das ist eine Regelmäßigkeit der letzten 5-6
    > Jahre.
    Hmm hatte ich da was mit 3Dfx verpasst???? Bin zwar immer noch Voodoo Fan, aber ich kann mich dadran erinnern, das seit dem GeForce Nvidia immer besser als 3Dfx war, selbst die Voodoo5 5500 konnte dann dem GeForce 2 kein Paroli mehr wirklich bieten (ausser bei der Bildqualität) und Ati war damals einfach nur... naja sagen wir einfach mal bäh ;) *fg*

    > b) Damit ich ein Marke verkaufen kann, die
    > weniger gut ist als die Konkurrenz muss ich den
    > Preis senken oder die Qualität/Leistung
    > steigern. ATi/Nvidia sowie Intel/AMD tendieren
    > zu letzterem.

    Nunja, ich hab 1. nix gegen Intel/AMD gesagt (es gibt weitaus bessere CPUs) und 2. auch nur bezweifelt, das der neue Ati Chip 10 - 30% schneller als der NVidia ist, ich würde eher sagen, die Ati GPU wird ebenbürtig, besonders wenn man dann schön 2 6600er GT im SLI reinkloppen kann :D *gg*

    > Das ist nun wirklich kein Geheimnis :-)

    Naja, solche mutmaßungen sind schon sehr gewagt *gg*

  6. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Bernie der Bär 26.08.04 - 15:45

    > bezweifelt, das der neue Ati Chip 10 - 30%
    > schneller als der NVidia ist, ich würde eher
    > sagen, die Ati GPU wird ebenbürtig, besonders
    > wenn man dann schön 2 6600er GT im SLI

    Na dann guck doch mal um wieviel schneller die 6800 im Vergleich zur x800 ist (in DooM3 zumindest).

    Beziehungsweise um wieviel schneller ein AMD-64 gegenüber einem P4.
    (Wobei das unterschiedlich ist je nachdem ob Du Spielen oder MM Applikationen den Vorzug gibst).

    > Hmm hatte ich da was mit 3Dfx verpasst???? Bin
    > zwar immer noch Voodoo Fan, aber ich kann mich
    > dadran erinnern, das seit dem GeForce Nvidia
    > immer besser als 3Dfx war, selbst die Voodoo5
    > 5500 konnte dann dem GeForce 2 kein Paroli mehr

    Aber das wiederspricht meiner These ja nicht. Denn da 3DFX weder über den Preis noch über Leistung/Qualität Punkten konnte, ging es dem Ende entgegen.

    Es gibt btw ne Reihe von Spielen, sogar noch halbwegs aktuellen, da war/ist GLide besser wie OpenGL -> z.B. Diablo II.

    Aber in letzter Konsquenz gebe Ich zu, genau Zahlen kenn ich natürlich nicht, ich leite lediglich Werte ab und schätze danach mal ein bischen ;)

  7. Ohwe ... ATI R(age) 520

    Autor: Nightwalker_Z 26.08.04 - 15:53

    Nütze selber ne 9800Pro... Aber als die Bezeichnung gesehen habe (R 520) ist mir sofort die andere Produktfamilie mit "R" eingefallen.
    Die Rage Reihe habe ich früher verflucht... diese Karten haben ja echt nix getaugt. Wenn mich früher jemand gefragt hätte ob ich mir je ne ATI Karte kaufe, hätte ich Person wahrscheinlich ausgelacht!

  8. Re: Ohwe ... ATI R(age) 520

    Autor: merv 26.08.04 - 16:01

    Nightwalker_Z

    Du weißt aber schon das die aktuellen Karten auch alle ein R im Chl vorweg haben?
    R200, R300, R350, R420....

  9. Re: Ohwe ... ATI R(adeon) 520 ?

    Autor: Bernie der Bär 26.08.04 - 16:02

    ;-)

  10. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Steinster UAC 26.08.04 - 16:55

    Man sollte wissen, daß Shader 2.0 alles darstellen kann, was die Shader-Generation 3.0 darstellt. Lediglich das Programmieren ist bei 3.0 einfacher.
    Ich hoffe, ATI wird auch zukünftig mit einem Slot zufrieden sein -und mit durchschnittlichen Netzteilen. Und die 2D-Graphik bleibt hoffentlich gut.
    Schön wären 512 MB Speicher.

  11. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Bernie der Bär 26.08.04 - 16:57

    Steinecke?

  12. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Steinster UAC 26.08.04 - 17:15

    Hatte eine Nachgeburt, die den Namen mitbenutzte. Da habe ich ihn sperren lassen.

  13. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: AC 26.08.04 - 19:06

    Bernie der Bär schrieb:
    > Es gibt btw ne Reihe von Spielen, sogar noch
    > halbwegs aktuellen, da war/ist GLide besser wie
    > OpenGL -> z.B. Diablo II.

    Autsch!!!

    1.) Erstmal verwendet Diablo II entweder Glide, Direct3D oder DirectDraw aber NICHT OpenGL.

    2.) Hast Du schonmal mit Glide programmiert? Offensichtlich nicht. Glide war der größte Murks und von Entwicklerseite kann man nur froh sein das man diese propritäre Kacke nicht mehr unterstützen muss. Ich kann mich auch noch gut daran erinnern, dass ich für verschiedene Spiele, verschiedene Versionen der Glide.dll's vorhalten mußte.

    Glide wurde nur verwendet da es 3dfx nie geschafft/gewollt hat vernüftige OpenGL ICD Treiber zu entwickeln und DirectX zur Zeit der Voodoo1+2 ein Witz war.

    Gruß,
    AC

  14. Re: Ohwe ... ATI R(age) 520

    Autor: AC 26.08.04 - 19:30

    Hehehe ja stimmt die Rage Serie war echt schlimm. Dabei ist der Welt die schlimmste Rage Karte, die RageI erspart geblieben. Ich hatte die damals als Prototyp bekommen mit 2MB VRam. Der Hammer ist das die Karte KEINEN z-Buffer unsterstützt hat. Das bräuchte man nicht so ein ATI Mitarbeiter da Spiele den sowieso nie nutzen würden *lol*.

    Offenbar war ich nicht der einzigste der gesagt hat das dies vollkommener Schwachfug ist. Verkauft wurde dann jedenfalls dann nur der Nachfolger die RageII MIT z-buffer *fg*

    Dazu muss ich aber sagen das Nvidia's Erstling, die NV-1 mit Ausnahme der Hardware Unterstützung von Curvedsurfaces auch nicht der Bringer war.

  15. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: AC 26.08.04 - 19:42

    Das würde ich mal mit einem gedehnten JEIN beantworten wollen. Für einige Sachen benötigts Du unter 2.0 mehrere passes und das drückt ganz gewaltig auf die Füllrate. Andere Sachen wie z.B. der Texellookup im Vertexshader läßt sich eigentlich gar nicht nachbilden dabei kann das prima für 1 bzw. 2 dimensionale LUT's gebrauchen.

    Aber eigentlich währen mir Floatingpoint buffer die volles Blending unterstützen VIEL lieber als 3.0 Shader.

    Gruß,
    AC

  16. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Bernie der Bär 27.08.04 - 07:12

    > Autsch!!!
    >
    > 1.) Erstmal verwendet Diablo II entweder Glide,
    > Direct3D oder DirectDraw aber NICHT OpenGL.

    Und wenn schon *kopfschüttel*. Ändert ja faktisch nichts an der Tatsache das Diablo II mit Glide am besten lief. Ich finde sogar noch den Link wo das vor kurzem ein Nvidia Entwickler behauptet hat, und sagt daran solle noch gearbeitet werden. Anderes Beispiel war btw Unreal I.

    > 2.) Hast Du schonmal mit Glide programmiert?
    > Offensichtlich nicht. Glide war der größte Murks

    Und Du schon ?!. Na Bravo! Wow! Ich bin begeistert.
    Nur, ehrlich gesagt interessiert mich das eher weniger und ändert wiederum nichts an der Kern Aussage (!). Obs schwer ist zu programmieren oder nicht kann dem Konsumenten ziemlich egal sein, ne?

    > Glide wurde nur verwendet da es 3dfx nie
    > geschafft/gewollt hat vernüftige OpenGL ICD
    > Treiber zu entwickeln und DirectX zur Zeit der
    > Voodoo1+2 ein Witz war.

    Wenn Du richtig lesen könntest hättest Du gesehen das es bei meinem ursprünglichen Post so _gar nicht_ um Glide ging. Danach kam das zwar ins Spiel, ich jedoch bin/war nie Fan von Glide und habe das nur kontext-technisch mit einbezogen.

    Wenn man geil drauf ist Sachen aus dem Kontext zu reißen um sich und der Welt mal wieder zu beweisen was man für eine coole Sau ist, hast Du natürlich Recht...

  17. Re: Ohwe ... ATI R(age) 520

    Autor: Nightwalker_Z 27.08.04 - 08:52

    Oh mein Gott ... danke für den Hinweis.
    Da ich den Beitrag nicht editieren kann, stell dir bitte vor, dass ich auch frühere ATI Modelle damit gemeint hab.

  18. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Toppinhio 27.08.04 - 09:18

    FULL ACK! @Bernie

  19. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: Steinster UAC 27.08.04 - 10:58

    Ich denke meine -zugegeben pauschale- Aussage ist dennoch grundsätzlich richtig. Die Firma nVidia versucht immer wieder, hier ein getürktes Verkaufsargument zu etablieren.

  20. Re: ATI R520 - ab 2005 Shader-3.0-Unterstützung?

    Autor: AC 27.08.04 - 11:07

    Bernie der Bär schrieb:
    > Ändert ja faktisch nichts an der Tatsache das Diablo II
    > mit Glide am besten lief. Ich finde sogar noch
    > den Link wo das vor kurzem ein Nvidia Entwickler
    > behauptet hat, und sagt daran solle noch
    > gearbeitet werden.

    Das ist zwar richtig, hat aber nichts mit Deiner Behauptung zu tun Glide sei besser als OpenGL. Im übrigen wurde DiabloII auch primär für Glide entwickelt, da es sich aber Jahre verzögert hat, wurde der Direct3D Port noch mit eingebaut.

    >Anderes Beispiel war btw Unreal I.

    Unreal I wurde auch primär für Glide entwickelt da es damals noch nichts anderes gab, die Direct3D und OpenGL wrapper (und nichts anderes waren sie) wurden erst in späteren Patches nachgereicht um auch nicht 3dFX Karten bedienen zu können.
    Das eine Emulation nicht besser sein kann als das Orginal sollte einleuchten.

    > Nur, ehrlich gesagt interessiert mich das eher
    > weniger und ändert wiederum nichts an der Kern
    > Aussage (!).

    Glide war/ist besser als OpenGL?

    > Obs schwer ist zu programmieren
    > oder nicht kann dem Konsumenten ziemlich egal
    > sein, ne?

    Stimmt auch, nur fand ich nicht das Glide für den Konsumenten besser war als OpenGL. SpielA wollte gerne die Glide2x.dll in Version 2.31 SpielB brauchte aber 2.32, etc... von dem nötigen "Hardware Dongle" mal ganz abgesehen.

    > Wenn Du richtig lesen könntest hättest Du
    > gesehen das es bei meinem ursprünglichen Post so
    > _gar nicht_ um Glide ging. Danach kam das zwar
    > ins Spiel, ich jedoch bin/war nie Fan von Glide
    > und habe das nur kontext-technisch mit einbezogen.

    Dessen bin ich mir bewußt. Es ging mir auch nur darum Deine völlig absurde Beweiskette "Glide besser als OpenGL siehe DiabloII" richtig zustellen.

    > Wenn man geil drauf ist Sachen aus dem Kontext
    > zu reißen um sich und der Welt mal wieder zu
    > beweisen was man für eine coole Sau ist, hast Du
    > natürlich Recht...

    Den "neuen" Kontext hast Du selber mit Deiner halbgaren Behauptung eröffnet, ist aber lustig wie Du von Deiner eigenen Unzulänglichkeit ablenken willst entspricht aber wohl der heutigen Kultur: TypA labbert Stuß, TypB korregiert ihn und TypA und TypC beschimpfen TypB als Besserwisser...

    Ja 'ne, ist klar.

    Wenn man keine Ahnung hat einfach mal die Fresse halten.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Hornbach-Baumarkt-AG, Bornheim bei Landau / Pfalz
  2. Stiegelmeyer GmbH & Co. KG, Herford
  3. Bechtle AG, Bonn
  4. Analytik Jena GmbH, Jena

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 389€ (Bestpreis)
  2. 399€ (Bestpreis)
  3. (u. a. Dark Souls 3 - Digital Deluxe Edition für 14,49€, Civilization VI - Gathering Storm...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Blackwidow V3 im Test: Razers Tastaturklassiker mit dem Ping
Blackwidow V3 im Test
Razers Tastaturklassiker mit dem Ping

Die neue Version der Blackwidow mit Razers eigenen Klickschaltern ist eine grundsolide Tastatur mit tollen Keycaps - der metallische Nachhall der Switches ist allerdings gewöhnungsbedürftig.
Ein Test von Tobias Költzsch

  1. Gaming-Notebook Razer Blade 15 mit Geforce RTX 3080 und gestecktem RAM
  2. Project Brooklyn Razer zeigt skurrilen Gaming-Stuhl mit ausrollbarem OLED
  3. Razer Book 13 im Test Razer wird erwachsen

Sprachsteuerung mit Apple Music im Test: Es funktioniert zu selten gut
Sprachsteuerung mit Apple Music im Test
Es funktioniert zu selten gut

Eigentlich sollen smarte Lautsprecher den Musikkonsum auf Zuruf besonders bequem machen. Aber die Realität sieht ganz anders aus.
Ein Test von Ingo Pakalski

  1. Streaming Apple Music kommt auf Google-Lautsprecher
  2. Internetradio Apple kündigt Apple Music 1 an und bringt zwei neue Sender

Laschet, Merz, Röttgen: Mit digitalem Bullshit-Bingo zum CDU-Vorsitz
Laschet, Merz, Röttgen
Mit digitalem Bullshit-Bingo zum CDU-Vorsitz

Die CDU wählt am Wochenende einen neuen Vorsitzenden. Merz, Laschet und Röttgens Chefstrategin Demuth haben bei Netzpolitik noch einiges aufzuholen.
Ein IMHO von Friedhelm Greis

  1. Digitale Abstimmung Armin Laschet ist neuer CDU-Vorsitzender
  2. Netzpolitik Rechte Community-Webseite Voat macht Schluss