1. Foren
  2. Kommentare
  3. PC-Hardware-Forum
  4. Alle Kommentare zum Artikel
  5. › Physik-Berechnung: ATI…

Abwarten und tee trinken...

Neue Foren im Freiraum! Raumfahrt und freie Software haben jetzt einen Platz, die Games tummeln sich jetzt alle in einem Forum.
  1. Thema

Neues Thema Ansicht wechseln


  1. Abwarten und tee trinken...

    Autor: rüdiger 07.06.06 - 14:44

    Diese physik-gesichte finde ich ja grundsätzlich sehr interessant. Aber ohne einen einheitlichen standard bewegt mich nichts, jetzt geld für irgendeine propritäre lösung auszugeben - erst recht keine 3. x1900. da finde ich die PhysX-karte schon interessanter. Aber ebend auch propritär.

    Entscheidend finde ich aber, dass es keinen mehrnutzen hat. Die PhysX-karte bringt ja unter Ghost Recon 3 kaum was. OK, da fliegen jetzt mehr teile durch die gegend - hui. Aber auch ohne PhysX sehen die explosionen spitze aus. Und dann behalte ich doch auch lieber die 10 frames mehr.

    Die dritte sache, die mir in dem zusammenhang einfällt, ist die frage "warum?". Damit meine ich jetzt nicht das übliche "warum brauch ich physik?", sondern IMO ist doch physik jetzt nicht so krass das problem in den spielen. Bei der spiel-intelligenz müsste ne menge getan werden. Also wäre doch eine AI-karte viel interessanter. Mir kommt da der vergleich mit den foto-handys ins gedächnis: foto und handy ist für mich ne total sekundäre kombination. Super finde ich die integration von mp3-player ins handy. Aber diese entwicklung kam erst nach den fotohandys. Und genau das gefühl, dass man hier falsche prioritäten setzt, bekomme ich bei den physik-karten.

    Daher... abwarten und tee trinken, und gucken, wie sich die sache entwickelt.

  2. Re: Abwarten und tee trinken...

    Autor: FlatEric 07.06.06 - 17:05

    rüdiger schrieb:
    -------------------------------------------------------
    > Diese physik-gesichte finde ich ja grundsätzlich
    > sehr interessant. Aber ohne einen einheitlichen
    > standard bewegt mich nichts, jetzt geld für
    > irgendeine propritäre lösung auszugeben - erst
    > recht keine 3. x1900. da finde ich die PhysX-karte
    > schon interessanter. Aber ebend auch propritär.
    >
    > Entscheidend finde ich aber, dass es keinen
    > mehrnutzen hat. Die PhysX-karte bringt ja unter
    > Ghost Recon 3 kaum was. OK, da fliegen jetzt mehr
    > teile durch die gegend - hui. Aber auch ohne PhysX
    > sehen die explosionen spitze aus. Und dann behalte
    > ich doch auch lieber die 10 frames mehr.
    >
    > Die dritte sache, die mir in dem zusammenhang
    > einfällt, ist die frage "warum?". Damit meine ich
    > jetzt nicht das übliche "warum brauch ich
    > physik?", sondern IMO ist doch physik jetzt nicht
    > so krass das problem in den spielen. Bei der
    > spiel-intelligenz müsste ne menge getan werden.
    > Also wäre doch eine AI-karte viel interessanter.
    > Mir kommt da der vergleich mit den foto-handys ins
    > gedächnis: foto und handy ist für mich ne total
    > sekundäre kombination. Super finde ich die
    > integration von mp3-player ins handy. Aber diese
    > entwicklung kam erst nach den fotohandys. Und
    > genau das gefühl, dass man hier falsche
    > prioritäten setzt, bekomme ich bei den
    > physik-karten.
    >
    > Daher... abwarten und tee trinken, und gucken, wie
    > sich die sache entwickelt.

    Also ich sehe die Sache teils genauso.

    1. Ne AI-Karte wird schwierig weil jedes Game egal welchen Genres seine eigene AI hat. Einerseits müsste du so Standarts schaffen sprich in allen Stragiespielen ist die AI gleich oder wenn du z.B. vom Ego-Shooter zum MMORPG wechselst AI Karte wechseln :) .

    2. Geb ich dir vollkommen recht wenn du sagst die Prioritäten wurden falsch gesetzt. 3 PCI-Express? Mit Grakas im QuadSLI - heiße Sache im warsten Sinne des Wortes :) Vom Preis mal abgesehen.

    3. Die ganze Sache steckt noch extrem in den Kinderschuhen wenn selbst noch nichmal DirectX dafür ausgerichtet ist - und an das Prozedere mit DirectX mit OpenGL und Direct3d von damals - bah besorgnis erregend der Gedanke.
    Achja das beste wär noch in 3 Jahren wird die PCI-E Schnittstelle abgelöst und es gibt neue Schnittstellen wofür einzelne Grakas verwendet werden könnten die die Aufgaben der Crossfire Karten übernimmt. Sprich statt 12 Karten lediglich 1 wie gewohnt.

    4. Die Programmierer der Engines sind ebenfalls für den Hardwarehunger verantwortlich. Man kann auch gute Grafikengines mit vielen Physikalischen Eigenschaften die wenig die Hardware fressen.
    Vergleichsbeispiel FarCry und GhostRecon.

  3. Re: Abwarten und tee trinken...

    Autor: rüdiger 07.06.06 - 18:38

    > 1. Ne AI-Karte wird schwierig weil jedes Game egal
    > welchen Genres seine eigene AI hat. Einerseits
    > müsste du so Standarts schaffen sprich in allen
    > Stragiespielen ist die AI gleich oder wenn du z.B.
    > vom Ego-Shooter zum MMORPG wechselst AI Karte
    > wechseln :) .

    Nach der logik müsste ja auch jede grafikengine ne eigene grafikkarte brauchen ;-) daher denke ich einfach, dass ne AI-karte nur diese algorithmen schneller berechnen müsste. ob das technisch überhaupt geht und sinn gegenüber ner CPU macht, weiß ich nicht. Ich weiß aber, dass ne komplexere AI weitaus mehr notwendig ist, als komplexere physik.

    > 2. Geb ich dir vollkommen recht wenn du sagst die
    > Prioritäten wurden falsch gesetzt. 3 PCI-Express?
    > Mit Grakas im QuadSLI - heiße Sache im warsten
    > Sinne des Wortes :) Vom Preis mal abgesehen.

    gerade bei dem preis! 3x x1900 = 1200 € - mein lieber hoschi! dafür, dass die die meiste zeit sowieso nur rumgammeln (weil man ja nicht pausenlos spielt), ist das echt ne investition, die sich kaum rentiert.

    > 3. Die ganze Sache steckt noch extrem in den
    > Kinderschuhen wenn selbst noch nichmal DirectX
    > dafür ausgerichtet ist - und an das Prozedere mit
    > DirectX mit OpenGL und Direct3d von damals - bah
    > besorgnis erregend der Gedanke.

    klar, ohne festen standard braucht man gar nicht über so ne anschaffung reden. wer weiß, ob sich ageia überhaupt durchsetzt, und nicht doch die havok bei ATI/nvidia? nee, nee, ohne standards macht das alles keinen sinn.

    > 4. Die Programmierer der Engines sind ebenfalls
    > für den Hardwarehunger verantwortlich. Man kann
    > auch gute Grafikengines mit vielen Physikalischen
    > Eigenschaften die wenig die Hardware fressen.
    > Vergleichsbeispiel FarCry und GhostRecon.

    ich möchte das nicht alles auf die unfähigkeit der programmierer schieben. klar ist ein HL2 sehr performant. dafür wurde aber auch gut getrickst. wenn ich mir die next-gen games auf der E3 aber angucke, mit immer realistischerer grafik, AI und physik, dann frag' ich mich schon, wer das berechnen soll? und ghost recon 3 ist ja nun nicht gerade hardware-freundlich. ok, ich kann's ganz gut spielen, auf meinem AMD64 3500+ mit ner x850 pro. aber wenn man sich mal den phyx-test auf tomshardware durchliest, bekommt man schon zweifel, ob die physikkarten überhaupt was bringen.

    http://unterhaltung.thgweb.de/2006/06/06/physikberechnung_ageia-steckkarte/

  4. Stromkosten

    Autor: John2k 08.06.06 - 08:47

    Du hast vergessen den imensen Stromverbrauch, den man hat vergessen. Zum Glück hab ich eine nVidia, denn ich finde die Lösung von ATI mehr als schwachsinnig, denn so hab ich eine Grafikkarte und gleichzeitig einen mäßigen Physikbeschleuniger. Scheint mir so, als wenn ich zukünftig auf Kantenglättung verzichten müsste :-)

  5. Re: Stromkosten

    Autor: ??? 08.06.06 - 15:02

    häää... nVidia steht doch im moment weit nach ATI und auch die Grafikkarten von nVidia verbrauchen mehr Strom, ich würde sagen ATI hat es geschickt besser gemacht!!! ^^ Und ich glaube das mit der Qualität hast du auch missverstanden denn auch eine ATI Karte steht der nVidia in nichts nach ...

    MFG ???

  6. Re: Stromkosten

    Autor: Kx 22.09.06 - 14:30

    ??? schrieb:
    -------------------------------------------------------
    > häää... nVidia steht doch im moment weit nach ATI
    > und auch die Grafikkarten von nVidia verbrauchen
    > mehr Strom, ich würde sagen ATI hat es geschickt
    > besser gemacht!!! ^^ Und ich glaube das mit der
    > Qualität hast du auch missverstanden denn auch
    > eine ATI Karte steht der nVidia in nichts nach
    > ...
    >
    > MFG ???


    ich muss dir wiedersprechen, im Stromverbrauch ist Nvidia inzwischen in den meisten fällen der bessere --> sparsamer

    aber recht hast du insofern, dass beide Hersteller ziemlich gleichauf liegen...

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Geoinformatiker Lagerstättenmodellierung (m/w/d)
    Bundesgesellschaft für Endlagerung mbH (BGE), Peine
  2. Softwareentwickler MES (m/w/d)
    Hays AG, Dresden
  3. Scrum Master (m/w/d)
    Scheidt & Bachmann System Technik GmbH, Kiel
  4. Prozessmanager (m/w/d)
    Wilkening + Hahne GmbH+Co. KG, Bad Münder

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. danach 7,99€/Monat für Prime-Mitglieder (sonst 9,99€) - jederzeit kündbar
  2. 756,29€ (Bestpreis)
  3. 119,90€ (Bestpreis)
  4. (u. a. Zangen-Set 3-teilig für 37,59€, Schraubendreher-Set 6-teilig für 31€)


Haben wir etwas übersehen?

E-Mail an news@golem.de