1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › PhysX: Nach 3D-Chips kommen nun…

Erinnert sich noch jemand an die Geforce 1?

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Erinnert sich noch jemand an die Geforce 1?

    Autor: Peter Fischer 09.03.05 - 10:17

    Damals hieß es noch, dass die Grafikkarte die Spiele Grafik alleine beschleunigen kann, ergo die CPU fast komplett entlastet wird (war doch so oder?)

    Aktuell sind aber diverse Spiele immernoch stark CPU lastig (UT Engine, HL²) und da wo die Graka tatsächlich eine Rolle spielt, ist FSAA und AF.

    Anders gefragt, wie skaliert wohl eine GF6 auf einem Athlon 500?

    Jesus is coming. Look busy.

  2. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: noquarter 09.03.05 - 10:23

    das war doch schon so bei der voodoo 3dfx karte spürbar.

  3. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Peter Fischer 09.03.05 - 10:24

    noquarter schrieb:
    -------------------------------------------------------
    > das war doch schon so bei der voodoo 3dfx karte
    > spürbar.

    Ich meine mich aber zu erinnern, das die 3DFX Karten damals die CPU deutlich mehr entlastet haben als die GeForce. Ist lange her, ich mag mich täuschen...


    Jesus is coming. Look busy.



    1 mal bearbeitet, zuletzt am 09.03.05 10:24 durch Peter Fischer.

  4. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Alex Tugarev 09.03.05 - 10:25

    Peter Fischer schrieb:
    -------------------------------------------------------
    > Damals hieß es noch, dass die Grafikkarte die
    > Spiele Grafik alleine beschleunigen kann, ergo die
    > CPU fast komplett entlastet wird (war doch so
    > oder?)
    >
    > Aktuell sind aber diverse Spiele immernoch stark
    > CPU lastig (UT Engine, HL²) und da wo die Graka
    > tatsächlich eine Rolle spielt, ist FSAA und AF.

    Zum einen liegst du richtig, das Versprechen wurde nicht wirklich eingehalten, aber überlegen wir mal warum das so ist. Die GPU berechnet ganz viele Sachen. Glättung, Kanten, Effekte, Farben, ...

    Damit hatte man eine viel schönere Grafik in den Spielen. Aber damit a) verkauft sich kein Spiel und b) hat man neue Möglichkeiten um die Spiele realistischer zu gestalten. Sprich man kann an der KI, an den Stories, an der Dynamik arbeiten und das geht im Endeffekt auf die CPU.

    Mit einer PPU würde man wieder etwas mehr Luft für die CPU schaffen, weil die Physik-Berechnungen delegiert werden.

    IMHO werden sich Spieleschmieden wieder neue Features einfallen lassen, die wieder jahrelang auf der CPU laufen müssen bis es wieder eine neue xPU gibt.

    So ist das Game-Business.

  5. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: noquarter 09.03.05 - 10:26

    Ich glaube da hast du recht, obwohl man als spieler die Unterschiede ja nicht mehr spürt da du bei keinem spiel auf Software-Rendering umschalten kannst. Glaube ein CPU wäre gar nicht in der Lage solge Grafikefekte zu berechnen.

  6. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: JTR 09.03.05 - 10:26

    noquarter schrieb:
    -------------------------------------------------------
    > das war doch schon so bei der voodoo 3dfx karte
    > spürbar.

    Quatsch, die Karten von 3Dfx hatten kein T&L was den CPU entlastet.

    Ich vermute aber hier kommt es zum Konkurenzkampf zwischen diesem "neuen Ansatz" (ich hatte solche Ideen schon zu Voodoo Zeiten)und den CPU Herstellern die mit Dualcore und darauf optimierten Spielen den Markt für sich sichern wollen.

    Es gab übrigens von 3D-Labs in der Richtung auch schon mal ein Vorstoss, der dann aber wieder verworfen wurde.

  7. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: JTR 09.03.05 - 10:30

    noquarter schrieb:
    -------------------------------------------------------
    > Ich glaube da hast du recht, obwohl man als
    > spieler die Unterschiede ja nicht mehr spürt da du
    > bei keinem spiel auf Software-Rendering umschalten
    > kannst. Glaube ein CPU wäre gar nicht in der Lage
    > solge Grafikefekte zu berechnen.
    >

    Es ging um Licht, Schatten und Tranformierungsberechnungen (T&L) bei der GeForce, die bei 3Dfx noch vom CPU berechnet werden musste. Der Unterschied war bei Q3 (erstes Spiel das diese Technik unterstützte) erheblich!


  8. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: JTR 09.03.05 - 10:33

    Alex Tugarev schrieb:
    -------------------------------------------------------
    > Peter Fischer schrieb:
    > --------------------------------------------------
    > -----
    > > Damals hieß es noch, dass die Grafikkarte
    > die
    > Spiele Grafik alleine beschleunigen kann,
    > ergo die
    > CPU fast komplett entlastet wird
    > (war doch so
    > oder?)
    > > Aktuell sind
    > aber diverse Spiele immernoch stark
    > CPU
    > lastig (UT Engine, HL²) und da wo die Graka
    >
    > tatsächlich eine Rolle spielt, ist FSAA und AF.
    >
    > Zum einen liegst du richtig, das Versprechen wurde
    > nicht wirklich eingehalten, aber überlegen wir mal
    > warum das so ist. Die GPU berechnet ganz viele
    > Sachen. Glättung, Kanten, Effekte, Farben, ...
    >
    > Damit hatte man eine viel schönere Grafik in den
    > Spielen. Aber damit a) verkauft sich kein Spiel
    > und b) hat man neue Möglichkeiten um die Spiele
    > realistischer zu gestalten. Sprich man kann an der
    > KI, an den Stories, an der Dynamik arbeiten und
    > das geht im Endeffekt auf die CPU.
    >
    > Mit einer PPU würde man wieder etwas mehr Luft für
    > die CPU schaffen, weil die Physik-Berechnungen
    > delegiert werden.
    >
    > IMHO werden sich Spieleschmieden wieder neue
    > Features einfallen lassen, die wieder jahrelang
    > auf der CPU laufen müssen bis es wieder eine neue
    > xPU gibt.
    >
    > So ist das Game-Business.
    >


    Ähm, die Versprechen wurden eingehalten. Nur erinnert sich heute die wenigsten daran. Ich weiss noch genau wie ich zuerst Quake 3 (erstes Spiel das T&L unterstützte) auf einer V3000 von 3dfx spielte und wie ich dann zu einer GeForce wechselte. Das war wie Tag und Nacht, da T&L zwar nicht alle Berechnungen abnahm, aber alleine dadurch das Schatten, Licht und Transformationsberechnungen nun die Grafikkarte erledigte, gab das einen enormen Leistungsschub. Heute ist das schon längst standard und wäre bei den CPUs die wir heute haben auch keine Problematik mehr. Aber damals mit 500MHz war das schon enorm!

  9. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Peter Fischer 09.03.05 - 10:36

    JTR schrieb:
    -------------------------------------------------------
    > wechselte. Das war wie Tag und Nacht, da T&L
    > zwar nicht alle Berechnungen abnahm, aber alleine
    > dadurch das Schatten, Licht und
    > Transformationsberechnungen nun die Grafikkarte
    > erledigte, gab das einen enormen Leistungsschub.
    > Heute ist das schon längst standard und wäre bei
    > den CPUs die wir heute haben auch keine
    > Problematik mehr. Aber damals mit 500MHz war das
    > schon enorm!

    Da kann ich zugegebener Maßen nicht wirklich mitreden. Ich hatte zwar eine Grafikkarte die T&L unterstützt, leider war es eine Savage2000 *lol*


    Jesus is coming. Look busy.

  10. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: AnonymousCoward 09.03.05 - 10:39

    noquarter schrieb:
    -------------------------------------------------------
    > Ich glaube da hast du recht, obwohl man als
    > spieler die Unterschiede ja nicht mehr spürt da du
    > bei keinem spiel auf Software-Rendering umschalten
    > kannst. Glaube ein CPU wäre gar nicht in der Lage
    > solge Grafikefekte zu berechnen.
    >
    >


    Ihr vergesst, dass die Texturen immer aufwändiger werden, und insgesamt höhere Details brauchen auch mehr Daten. Die müssen erst mal von der CPU in die GraKa geschaufelt werden. Die Physik Berechnungen etc. sind auch aufwändiger als früher und da die CPUs heute leistungsfähiger sind als damals, kann man die auch mehr belasten mit sowas. So aufwändige Berechnungen wie heute gabs damals nicht. Und die 3DFX Karten hatten glaub ich noch kein GPUs mit Vertex und Pixelshader... das musste alles auf der CPU berechnet werden.

    Gruß,
    AC

  11. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Wyv 09.03.05 - 11:02

    >Ähm, die Versprechen wurden eingehalten.

    Sicher? - Dann vergleich doch mal die Rohleistung, d.H Pixelfillrate und Triangles/s einer Geforce 256 mit der einer Voodoo3. Zwar unterstütze Q3 als einer der wenigen ernstzunehmenden Titel einige der neuen Funktionen dieser alten Geforces doch hat das mit dem Performanceschub gegenüber der Voodoo2 und 3 kaum etwas zu tun, zumal es schon zu Zeiten der Geforce 256 CPUs gab, die diese T&L Funktionen, so sie überhaupt relevant waren, schneller ausführten.

  12. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: der bastler 09.03.05 - 11:11

    Peter Fischer schrieb:
    -------------------------------------------------------
    > Damals hieß es noch, dass die Grafikkarte die
    > Spiele Grafik alleine beschleunigen kann, ergo die
    > CPU fast komplett entlastet wird (war doch so
    > oder?)

    Die Geforce256 war eine der ersten Graphikkarten, die der CPU das Transform&Lighting abgenommen haben. Soll heißen, die Berechnung der Szene samt Translation/Rotation/Skalierung der Objekteckpunkte (läßt sich für einen dreidimensionalen Raum mit einer 4x4-Matrix berechnen) und Beleuchtung der Polygone wurde von der CPU in eine eigene Abteilung auf der Graphikkarte ausgelagert. Das hat damals die CPU sehr stark entlastet. Auch das Berechnen der sichtbaren Pixel eines Polygons aus den 3D-Positionen der Eckpunkte lief dann auf der Graphikkarte ab.

    Der Name GeForce kommt ja auch daher: Geometry Force, Beschleunigung der Geometrieberechnung einer Szene.


    > Aktuell sind aber diverse Spiele immernoch stark
    > CPU lastig (UT Engine, HL²) und da wo die Graka
    > tatsächlich eine Rolle spielt, ist FSAA und AF.

    Da die CPU durch die Graka von einigen schwergewichtigen Aufgaben entlastet wurde (s.o.), haben die Spieleentwickler die freigewordene Ressource mit anderen Sachen belegt, z.B. die im Artikel genannte Physik (Schwerkraft, Reibung, Trägheitsmoment, Brechung, Doppler-Effekt etc...) oder die Gegner-"Intelligenz" (man stelle sich mal für zukünftige Shooter ein einfaches neuronales Netz pro Gegner vor -> Schwerstarbeit für die CPU).


    Imo ist leider auch die Speicherplatz- und Rechenleistungsverschwendung gestiegen. Damals unter DOS ist man teilweise noch auf Ganzzahldarstellungen ausgewichen (ähnlich Festpunktzahl: 100.25 -> 10024), weil nicht jede CPU einen Co-Prozessor hatte und Ganzzahlmultiplikationen/-divisionen immens schnell waren verglichen mit ihren Fließkommapendants. Divisionen und Multiplikationen hat man sogar stellenweise ganz vermieden, indem man das Problem in ein Vielfaches von 2 umgewandelt und das nochmal schnellere Bitschieben angewandt hat (320*y = 256*y + 64*y = y SHL 8 + y SHL 6).
    Sinus und Cosinus waren auch extrem langsam (intern durch Reihenentwicklung genähert, imo), die hat man dann in einer großen Tabelle vorberechnet abgelegt.

    All sowas ist heute ja nicht mehr nötig. Optimierungen kosten Zeit und Geld. Speicher hat's ohne Ende, oder man schreibt halt ein halbes Gig vor. Rechenleistung hat's auch ohne Ende, muß sich der passionierte Spieler halt eine neue CPU kaufen. Früher haben sich das nur wenige Firmen getraut, ich verweise hier mal auf Origin... (Wing Commander 2 mit Speech Pack ist immer noch ungeschlagen, auch wenn die Technik deutlich in die Jahre gekommen ist).
    Heute braucht man das Aufrüsten nicht mehr vorschreiben, das wird vom Kunden ganz automatisch gemacht: der Spiele-PC als Statussymbol (immer State-of-the-Art). Ich schätze, damit ist auch der Niedergang der klassischen 2D-Adventures zu erklären (wer von der Masse kauft schon ein 2D-Spiel für seine M0n5ter-3D-0wnz4ll-Machine).


    > Anders gefragt, wie skaliert wohl eine GF6 auf
    > einem Athlon 500?

    Keine Ahnung, ich schätze mal das Athlon1-typische Netzteil fängt an zu schmoren und die GF6 langweilt sich. *g*

    Denn die logische Verwaltung der Spielszenen ("Bewegung Spieler A von Pos1 nach Pos2, fällt 1.5m tief auf eine dabei zerbrechende Holzkiste"; Objektdatenbank, Gegner-KI) obliegt weiterhin der CPU.

    Ich habe immer noch eine GF2 GTS, während die CPU mittlerweile ein Athlon XP 2500 ist. UT2k4 läuft ganz angenehm --wenn man die Graphik etwas runterdreht. Ein FragOps-Botmatch mit sehr vielen Computergegnern fängt aber an zu ruckeln. Ich schließe daraus, daß nach der GF2 weitere Funktionen von CPU in GPU verlagert worden sind, das kann ich aber erst mit einer neuen Graka überprüfen.
    Nach der CeBIT ;-)

    ---

    Spare, lerne, leiste was, dann haste, kannste, biste was!

  13. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Kopfschüttler 09.03.05 - 11:21

    Die CPUs sind v.a. auch seit der objektorientierten Programmierung in Games ziemlich ausgelastet. Ist halt schon ziemlicher Overhead. Nur liessen sich heutige Spiele mit prozeduraler Programmierung gar nicht mehr in vernünftiger Zeit realisieren.



    der bastler schrieb:
    -------------------------------------------------------
    > Peter Fischer schrieb:
    > --------------------------------------------------
    > -----
    > > Damals hieß es noch, dass die Grafikkarte
    > die
    > Spiele Grafik alleine beschleunigen kann,
    > ergo die
    > CPU fast komplett entlastet wird
    > (war doch so
    > oder?)
    >
    > Die Geforce256 war eine der ersten Graphikkarten,
    > die der CPU das Transform&Lighting abgenommen
    > haben. Soll heißen, die Berechnung der Szene samt
    > Translation/Rotation/Skalierung der
    > Objekteckpunkte (läßt sich für einen
    > dreidimensionalen Raum mit einer 4x4-Matrix
    > berechnen) und Beleuchtung der Polygone wurde von
    > der CPU in eine eigene Abteilung auf der
    > Graphikkarte ausgelagert. Das hat damals die CPU
    > sehr stark entlastet. Auch das Berechnen der
    > sichtbaren Pixel eines Polygons aus den
    > 3D-Positionen der Eckpunkte lief dann auf der
    > Graphikkarte ab.
    >
    > Der Name GeForce kommt ja auch daher: Geometry
    > Force, Beschleunigung der Geometrieberechnung
    > einer Szene.
    >
    > > Aktuell sind aber diverse Spiele immernoch
    > stark
    > CPU lastig (UT Engine, HL²) und da wo
    > die Graka
    > tatsächlich eine Rolle spielt, ist
    > FSAA und AF.
    >
    > Da die CPU durch die Graka von einigen
    > schwergewichtigen Aufgaben entlastet wurde (s.o.),
    > haben die Spieleentwickler die freigewordene
    > Ressource mit anderen Sachen belegt, z.B. die im
    > Artikel genannte Physik (Schwerkraft, Reibung,
    > Trägheitsmoment, Brechung, Doppler-Effekt etc...)
    > oder die Gegner-"Intelligenz" (man stelle sich mal
    > für zukünftige Shooter ein einfaches neuronales
    > Netz pro Gegner vor -> Schwerstarbeit für die
    > CPU).
    >
    > Imo ist leider auch die Speicherplatz- und
    > Rechenleistungsverschwendung gestiegen. Damals
    > unter DOS ist man teilweise noch auf
    > Ganzzahldarstellungen ausgewichen (ähnlich
    > Festpunktzahl: 100.25 -> 10024), weil nicht
    > jede CPU einen Co-Prozessor hatte und
    > Ganzzahlmultiplikationen/-divisionen immens
    > schnell waren verglichen mit ihren
    > Fließkommapendants. Divisionen und
    > Multiplikationen hat man sogar stellenweise ganz
    > vermieden, indem man das Problem in ein Vielfaches
    > von 2 umgewandelt und das nochmal schnellere
    > Bitschieben angewandt hat (320*y = 256*y + 64*y =
    > y SHL 8 + y SHL 6).
    > Sinus und Cosinus waren auch extrem langsam
    > (intern durch Reihenentwicklung genähert, imo),
    > die hat man dann in einer großen Tabelle
    > vorberechnet abgelegt.
    >
    > All sowas ist heute ja nicht mehr nötig.
    > Optimierungen kosten Zeit und Geld. Speicher hat's
    > ohne Ende, oder man schreibt halt ein halbes Gig
    > vor. Rechenleistung hat's auch ohne Ende, muß sich
    > der passionierte Spieler halt eine neue CPU
    > kaufen. Früher haben sich das nur wenige Firmen
    > getraut, ich verweise hier mal auf Origin... (Wing
    > Commander 2 mit Speech Pack ist immer noch
    > ungeschlagen, auch wenn die Technik deutlich in
    > die Jahre gekommen ist).
    > Heute braucht man das Aufrüsten nicht mehr
    > vorschreiben, das wird vom Kunden ganz automatisch
    > gemacht: der Spiele-PC als Statussymbol (immer
    > State-of-the-Art). Ich schätze, damit ist auch der
    > Niedergang der klassischen 2D-Adventures zu
    > erklären (wer von der Masse kauft schon ein
    > 2D-Spiel für seine M0n5ter-3D-0wnz4ll-Machine).
    >
    > > Anders gefragt, wie skaliert wohl eine GF6
    > auf
    > einem Athlon 500?
    >
    > Keine Ahnung, ich schätze mal das Athlon1-typische
    > Netzteil fängt an zu schmoren und die GF6
    > langweilt sich. *g*
    >
    > Denn die logische Verwaltung der Spielszenen
    > ("Bewegung Spieler A von Pos1 nach Pos2, fällt
    > 1.5m tief auf eine dabei zerbrechende Holzkiste";
    > Objektdatenbank, Gegner-KI) obliegt weiterhin der
    > CPU.
    >
    > Ich habe immer noch eine GF2 GTS, während die CPU
    > mittlerweile ein Athlon XP 2500 ist. UT2k4 läuft
    > ganz angenehm --wenn man die Graphik etwas
    > runterdreht. Ein FragOps-Botmatch mit sehr vielen
    > Computergegnern fängt aber an zu ruckeln. Ich
    > schließe daraus, daß nach der GF2 weitere
    > Funktionen von CPU in GPU verlagert worden sind,
    > das kann ich aber erst mit einer neuen Graka
    > überprüfen.
    > Nach der CeBIT ;-)
    >
    > ---
    >
    > Spare, lerne, leiste was, dann haste, kannste,
    > biste was!


  14. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Peter Fischer 09.03.05 - 11:22

    Kopfschüttler schrieb:
    -------------------------------------------------------
    > ziemlich ausgelastet. Ist halt schon ziemlicher
    > Overhead. Nur liessen sich heutige Spiele mit
    > prozeduraler Programmierung gar nicht mehr in
    > vernünftiger Zeit realisieren.

    Jetzt wissen wir endlich was den Release von Duke Nukem 4Ever aufhält :-)

    Jesus is coming. Look busy.

  15. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Kopfschüttler 09.03.05 - 11:22

    ach ja wollte damit sagen, dass nicht irgendwelche KI oder Physik die Prozzis gross belastet. So komplex sind diese Formeln nun auch wieder nicht (z.B. Schwerkraft).


    Kopfschüttler schrieb:
    -------------------------------------------------------
    > Die CPUs sind v.a. auch seit der
    > objektorientierten Programmierung in Games
    > ziemlich ausgelastet. Ist halt schon ziemlicher
    > Overhead. Nur liessen sich heutige Spiele mit
    > prozeduraler Programmierung gar nicht mehr in
    > vernünftiger Zeit realisieren.
    >
    > der bastler schrieb:
    > --------------------------------------------------
    > -----
    > > Peter Fischer schrieb:
    >
    > --------------------------------------------------
    >
    > -----
    > > Damals hieß es noch, dass
    > die Grafikkarte
    > die
    > Spiele Grafik
    > alleine beschleunigen kann,
    > ergo die
    > CPU
    > fast komplett entlastet wird
    > (war doch
    > so
    > oder?)
    >
    > Die Geforce256 war eine
    > der ersten Graphikkarten,
    > die der CPU das
    > Transform&Lighting abgenommen
    > haben. Soll
    > heißen, die Berechnung der Szene samt
    >
    > Translation/Rotation/Skalierung der
    >
    > Objekteckpunkte (läßt sich für einen
    >
    > dreidimensionalen Raum mit einer 4x4-Matrix
    >
    > berechnen) und Beleuchtung der Polygone wurde
    > von
    > der CPU in eine eigene Abteilung auf
    > der
    > Graphikkarte ausgelagert. Das hat damals
    > die CPU
    > sehr stark entlastet. Auch das
    > Berechnen der
    > sichtbaren Pixel eines Polygons
    > aus den
    > 3D-Positionen der Eckpunkte lief dann
    > auf der
    > Graphikkarte ab.
    >
    > Der Name
    > GeForce kommt ja auch daher: Geometry
    > Force,
    > Beschleunigung der Geometrieberechnung
    > einer
    > Szene.
    >
    > > Aktuell sind aber
    > diverse Spiele immernoch
    > stark
    > CPU
    > lastig (UT Engine, HL²) und da wo
    > die
    > Graka
    > tatsächlich eine Rolle spielt, ist
    >
    > FSAA und AF.
    >
    > Da die CPU durch die Graka
    > von einigen
    > schwergewichtigen Aufgaben
    > entlastet wurde (s.o.),
    > haben die
    > Spieleentwickler die freigewordene
    > Ressource
    > mit anderen Sachen belegt, z.B. die im
    >
    > Artikel genannte Physik (Schwerkraft,
    > Reibung,
    > Trägheitsmoment, Brechung,
    > Doppler-Effekt etc...)
    > oder die
    > Gegner-"Intelligenz" (man stelle sich mal
    > für
    > zukünftige Shooter ein einfaches neuronales
    >
    > Netz pro Gegner vor -> Schwerstarbeit für
    > die
    > CPU).
    >
    > Imo ist leider
    > auch die Speicherplatz- und
    >
    > Rechenleistungsverschwendung gestiegen.
    > Damals
    > unter DOS ist man teilweise noch
    > auf
    > Ganzzahldarstellungen ausgewichen
    > (ähnlich
    > Festpunktzahl: 100.25 -> 10024),
    > weil nicht
    > jede CPU einen Co-Prozessor hatte
    > und
    > Ganzzahlmultiplikationen/-divisionen
    > immens
    > schnell waren verglichen mit
    > ihren
    > Fließkommapendants. Divisionen und
    >
    > Multiplikationen hat man sogar stellenweise
    > ganz
    > vermieden, indem man das Problem in ein
    > Vielfaches
    > von 2 umgewandelt und das nochmal
    > schnellere
    > Bitschieben angewandt hat (320*y =
    > 256*y + 64*y =
    > y SHL 8 + y SHL 6).
    > Sinus
    > und Cosinus waren auch extrem langsam
    > (intern
    > durch Reihenentwicklung genähert, imo),
    > die
    > hat man dann in einer großen Tabelle
    >
    > vorberechnet abgelegt.
    >
    > All sowas ist
    > heute ja nicht mehr nötig.
    > Optimierungen
    > kosten Zeit und Geld. Speicher hat's
    > ohne
    > Ende, oder man schreibt halt ein halbes Gig
    >
    > vor. Rechenleistung hat's auch ohne Ende, muß
    > sich
    > der passionierte Spieler halt eine neue
    > CPU
    > kaufen. Früher haben sich das nur wenige
    > Firmen
    > getraut, ich verweise hier mal auf
    > Origin... (Wing
    > Commander 2 mit Speech Pack
    > ist immer noch
    > ungeschlagen, auch wenn die
    > Technik deutlich in
    > die Jahre gekommen
    > ist).
    > Heute braucht man das Aufrüsten nicht
    > mehr
    > vorschreiben, das wird vom Kunden ganz
    > automatisch
    > gemacht: der Spiele-PC als
    > Statussymbol (immer
    > State-of-the-Art). Ich
    > schätze, damit ist auch der
    > Niedergang der
    > klassischen 2D-Adventures zu
    > erklären (wer
    > von der Masse kauft schon ein
    > 2D-Spiel für
    > seine M0n5ter-3D-0wnz4ll-Machine).
    >
    > > Anders gefragt, wie skaliert wohl eine
    > GF6
    > auf
    > einem Athlon 500?
    >
    > Keine Ahnung, ich schätze mal das
    > Athlon1-typische
    > Netzteil fängt an zu
    > schmoren und die GF6
    > langweilt sich. *g*
    >
    > Denn die logische Verwaltung der
    > Spielszenen
    > ("Bewegung Spieler A von Pos1
    > nach Pos2, fällt
    > 1.5m tief auf eine dabei
    > zerbrechende Holzkiste";
    > Objektdatenbank,
    > Gegner-KI) obliegt weiterhin der
    > CPU.
    >
    > Ich habe immer noch eine GF2 GTS, während
    > die CPU
    > mittlerweile ein Athlon XP 2500 ist.
    > UT2k4 läuft
    > ganz angenehm --wenn man die
    > Graphik etwas
    > runterdreht. Ein
    > FragOps-Botmatch mit sehr vielen
    >
    > Computergegnern fängt aber an zu ruckeln. Ich
    >
    > schließe daraus, daß nach der GF2 weitere
    >
    > Funktionen von CPU in GPU verlagert worden
    > sind,
    > das kann ich aber erst mit einer neuen
    > Graka
    > überprüfen.
    > Nach der CeBIT
    > ;-)
    >
    > ---
    >
    > Spare, lerne, leiste
    > was, dann haste, kannste,
    > biste was!
    >
    >


  16. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: der bastler 09.03.05 - 11:44

    Kopfschüttler schrieb:
    -------------------------------------------------------
    > ach ja wollte damit sagen, dass nicht irgendwelche
    > KI oder Physik die Prozzis gross belastet. So
    > komplex sind diese Formeln nun auch wieder nicht
    > (z.B. Schwerkraft).

    Meinst Du? Nichtlineare Reibung (Haften<->Gleiten), Bewegung massebehafteter Körper (DGLs), Wellenentwicklung mit Dämpfung? Exakte Kollisionserkennung? Verfolgung von Projektilen, Querschlägerberechnung? Verwaltung von einem Dutzend Gegner mit individuellem Angriffsverhalten und vorgegaukelter Lernfähigkeit? Wenn man das auch nur grob genährt simulieren möchte, ist man schon gut beschäftigt...


    ---

    Spare, lerne, leiste was, dann haste, kannste, biste was!

  17. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Kopfschüttler 09.03.05 - 11:56

    hast schon recht. Ich denke nur beim momentanen Entwicklungsstand der Games werden noch keine sehr komplexen Formeln verwendet. Ausserdem stellt sich die Frage, ob man das beim spielen überhaupt merkt, ob die Physik nun ganz exakt oder nur Näherungsweise simuliert wird. Das Auge jedenfalls ist viel anspruchsvoller. Das merkt gleich ob ein Schatten korrekt ist oder ob was seltsam aussieht.

    Für die KI wäre Rechenpower gut. Meiner Meinung nach fehlt es jedoch bei KI seit 15 Jahren an wirklich bahnbrechenden Ideen bzw. es gibt nicht wirklich ein Modell das überhaupt was taugt. Z.b. an neuronalen Netzen kannst lange rumrechnen, macht aber ein Objekt noch nicht wirklich intelligent.



    der bastler schrieb:
    -------------------------------------------------------
    > Kopfschüttler schrieb:
    > --------------------------------------------------
    > -----
    > > ach ja wollte damit sagen, dass nicht
    > irgendwelche
    > KI oder Physik die Prozzis gross
    > belastet. So
    > komplex sind diese Formeln nun
    > auch wieder nicht
    > (z.B. Schwerkraft).
    >
    > Meinst Du? Nichtlineare Reibung
    > (Haften<->Gleiten), Bewegung massebehafteter
    > Körper (DGLs), Wellenentwicklung mit Dämpfung?
    > Exakte Kollisionserkennung? Verfolgung von
    > Projektilen, Querschlägerberechnung? Verwaltung
    > von einem Dutzend Gegner mit individuellem
    > Angriffsverhalten und vorgegaukelter
    > Lernfähigkeit? Wenn man das auch nur grob genährt
    > simulieren möchte, ist man schon gut
    > beschäftigt...
    >
    > ---
    >
    > Spare, lerne, leiste was, dann haste, kannste,
    > biste was!


  18. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: UKSheep 09.03.05 - 12:00

    ähm ...

    Denken wir mal kurz nach ...

    Was macht eine CPU beim Zocken? >>> Sie berechnet so einiges ...
    Was würde eine CPU machen wenn die GPU sie zu 100% entlasten würde >>> Ich nehme an sie würde sich mit ein paar anderen CPU zum Golf spielen verabreden.

    Was findet ihr daran so wichtig wie sehr die GPU die CPU entlastet ?
    Was wollt ihr denn mit eurer CPU anstellen wärend ihr zockt ?

    Oder meint ihr wenn es denn mal eine GPU geben wird die die CPU zu 100% entlastet, das ihr dann zuhause einen Rechner stehen habt mit einer lausigen CPU aber einer super hammer geilen GraKa ???

    LOL ...

    Naja ... macht ihr was ihr wollt ... ich zocke eh nicht ... und brauche mir da auch nicht mehr den Kopf zu machen was ich alles mit meiner CPU machen könnte wenn doch diese Doofen GPU´s die CPU zu 100% entlasten würde.

    LOL

    so long

    Sheep

  19. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Subbie 09.03.05 - 12:05

    sry aber irgendwas hast du wohl nicht so ganz verstanden.

    das eine graka die cpu nie 100% entlasten wird ist klar, dann bäruchten wir keine cpu mehr. es geht nur darum bestimmte, sehr häufig genutzte funktionen auf externe chips auszulagern damit die cpu mehr luft für sachen hat die vorerst kein externer chip übernehmen wird: ki-berechnungen, scripts im spiel, programme die im hintergrund noch laufen ect. .

  20. Re: Erinnert sich noch jemand an die Geforce 1?

    Autor: Peter Fischer 09.03.05 - 12:09

    Subbie schrieb:
    -------------------------------------------------------
    > das eine graka die cpu nie 100% entlasten wird ist
    > klar, dann bäruchten wir keine cpu mehr. es geht
    > nur darum bestimmte, sehr häufig genutzte
    > funktionen auf externe chips auszulagern damit die
    > cpu mehr luft für sachen hat die vorerst kein
    > externer chip übernehmen wird: ki-berechnungen,
    > scripts im spiel, programme die im hintergrund
    > noch laufen ect. .

    Eben, von 100% Entlastung war nie die Rede.

    Es ging (in meinem Post) viel mehr um Werbeversprechen und in wie weit sie gehalten werden konnten.

    Wobei, was ist mit vorberechneten Sequenzen?

    Nehmen wir den Amd 500 + GF6 (fiktiv) als Beispiel. Wenn AI etc. nicht berechnet werden muss, sollte das dann ruckelfrei über den Bildschirm gehen?




    Jesus is coming. Look busy.



    1 mal bearbeitet, zuletzt am 09.03.05 12:10 durch Peter Fischer.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Forschungszentrum Jülich GmbH, Erlangen
  2. Landeshauptstadt Stuttgart, Stuttgart
  3. ekom21 - KGRZ Hessen, Darmstadt, Kassel
  4. Hochschule Heilbronn, Heilbronn

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. täglich neue Deals bei Alternate.de


Haben wir etwas übersehen?

E-Mail an news@golem.de


Ryzen Pro 4750G/4650G im Test: Die mit Abstand besten Desktop-APUs
Ryzen Pro 4750G/4650G im Test
Die mit Abstand besten Desktop-APUs

Acht CPU-Kerne und flotte integrierte Grafik: AMDs Renoir verbindet Zen und Vega überzeugend in einem Chip.
Ein Test von Marc Sauter

  1. Ryzen 4000 (Vermeer) "Zen 3 erscheint wie geplant 2020"
  2. Matisse Refresh (MTS2) AMDs Ryzen 3000XT nutzen extra Takt
  3. Ryzen HPs Gaming-Notebook lässt die Wahl zwischen AMD und Intel

Mars 2020: Was ist neu am Marsrover Perseverance?
Mars 2020
Was ist neu am Marsrover Perseverance?

Er hat 2,5 Milliarden US-Dollar gekostet und sieht genauso aus wie Curiosity. Einiges ist dennoch neu, manches auch nur Spielzeug.
Von Frank Wunderlich-Pfeiffer


    MS Flight Simulator angespielt: Airbus 320neo mit Tastatur gesteuert
    MS Flight Simulator angespielt
    Airbus 320neo mit Tastatur gesteuert

    Wie fliegt sich der Airbus 320neo? Golem.de hat es am PC ausprobiert - und von den Entwicklern mehr über den Flight Simulator erfahren.
    Von Peter Steinlechner

    1. Microsoft Flight Simulator startet auf Steam und fliegt mit Valve-VR
    2. Microsoft Flight Simulator enthält eigenen Marktplatz
    3. Aerosoft MS Flight Simulator kommt auf 10 DVDs in den Handel