Abo
  1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Grafikkarte: Polaris-Generation…

Was ich nicht verstehe...

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Was ich nicht verstehe...

    Autor: Muellersmann 31.01.16 - 13:37

    ... ist, dass AMD hier Grafikkarten für VR anbieten will, die VR günstiger machen sollen. Heißt das nun, dass AMD die Preise für kommende Modelle "deutlich" senkt, also die Leistung einer 970 für zB. 200 Euro?

    Was sind aber die 100 Euro im Verhältnis zum Gesamtsystem? Das sind dann auch nicht einmal 10%.

  2. Re: Was ich nicht verstehe...

    Autor: ms (Golem.de) 31.01.16 - 13:39

    Das wäre denkbar, ja - also die Leistung einer GTX 970 für 200 statt 300 Euro.

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  3. Re: Was ich nicht verstehe...

    Autor: Micha123456 31.01.16 - 14:09

    Polaris soll zudem durch die Produktion in 14/16nm und den FinFETs deutlich weniger Strom verbrauchen.
    Entsprechend werden günstigere Netzteile und Kühler für das Gesamtsystem verwendet werden können.

  4. Re: Was ich nicht verstehe...

    Autor: Anonymer Nutzer 31.01.16 - 14:48

    Im Endeffekt wird AMD sowieso nur auf Nvidias jetzigen Stromverbrauch aufschließen, denn AMD hat immer 50 - 100 Watt mehr Verbrauch bei egal was.

  5. Re: Was ich nicht verstehe...

    Autor: DY 31.01.16 - 15:10

    Razor1945 schrieb:
    --------------------------------------------------------------------------------
    > Im Endeffekt wird AMD sowieso nur auf Nvidias jetzigen Stromverbrauch
    > aufschließen, denn AMD hat immer 50 - 100 Watt mehr Verbrauch bei egal was.

    Vorurteile + Halbwissen ungleich Wissen

  6. Re: Was ich nicht verstehe...

    Autor: Pwnie2012 31.01.16 - 15:18

    AMD gibt auch oft die Maximalleistungsaufnahme an und Nvidia den Durchschnitt im günstigsten Fall. Letztendlich geben sich beide wenig.

  7. Re: Was ich nicht verstehe...

    Autor: Bronco+ 31.01.16 - 16:08

    Hab den letzten Generationswechsel 2011 nicht wirklich mitverfolgt. Wird die Produktion der Vorgänger gleich eingestellt und die Restbestände verscherbelt?

  8. Re: Was ich nicht verstehe...

    Autor: ndakota79 31.01.16 - 17:22

    CPU und GPU Entwicklung auf dem Desktop ist so verdammt langweilig, es tut sich einfach nichts.
    Wann kann ich endlich mit der Mittelklasse auf meinem 4k Monitor mit 60 fps zocken? Wann werden Photoshop und Indesign wieder so schnell, wie sie es in full HD waren?

    Kleine Ministeps interessieren mich kein bisschen. Leistung der GTX 970 bald für 200 Euro! Ja mei, die verdammte Karte ist ein Jahr alt, das ist jetzt nichts tolles für mich.

  9. Re: Was ich nicht verstehe...

    Autor: theonlyone 31.01.16 - 17:56

    ndakota79 schrieb:
    --------------------------------------------------------------------------------
    > CPU und GPU Entwicklung auf dem Desktop ist so verdammt langweilig, es tut
    > sich einfach nichts.
    > Wann kann ich endlich mit der Mittelklasse auf meinem 4k Monitor mit 60 fps
    > zocken? Wann werden Photoshop und Indesign wieder so schnell, wie sie es in
    > full HD waren?
    >
    > Kleine Ministeps interessieren mich kein bisschen. Leistung der GTX 970
    > bald für 200 Euro! Ja mei, die verdammte Karte ist ein Jahr alt, das ist
    > jetzt nichts tolles für mich.

    Wenn du was "tolles" willst musst du zu den Spitzen Modellen gehen.

    Hier geht es darum das man bessere Leistung für weniger Geld bekommt.

    Spitzenleistung kostet, das gibts nicht geschenkt.

  10. Re: Was ich nicht verstehe...

    Autor: ndakota79 31.01.16 - 18:22

    Ich rede von Fortschritt. Und den gibt es auch bei den Spitzenmodellen nicht.

  11. Re: Was ich nicht verstehe...

    Autor: Cerdo 31.01.16 - 19:07

    ndakota79 schrieb:
    --------------------------------------------------------------------------------
    > Ich rede von Fortschritt. Und den gibt es auch bei den Spitzenmodellen
    > nicht.
    Du darfst deine Konzepte, wie du das anstellen willst gerne publizieren.

  12. Re: Was ich nicht verstehe...

    Autor: Theoretiker 31.01.16 - 19:08

    Es mag durchaus sein, dass der CPU und GPU Markt auf dem Desktop ziemlich langweilig ist. Das liegt unter anderem daran, dass die CPUs auch einfach nicht mehr schneller werden können.

    Die knapp 4 GHz hatten wir schon beim Pentium 4 so um 2005 herum. Seit dem gibt es keinen nennenswert höheren Takt mehr. Nun müssen die Chiphersteller irgendwie anders mehr Leistung herausholen. Intel ist mit seiner Out-of-order-Unit wirklich gut dabei, ansonsten ist SMT und SIMD noch dabei. Das Problem ist jedoch, dass die Programme das nutzen müssen.

    Und das ist das Problem. Leider und zum Glück. Denn bei den ersten Dual Core Systemen waren die Systeme spürbar schneller, weil das eigentliche Programm auf einem Kern und der Rest und die Malware auf dem zweiten Kern lief. Nun wird es mit noch mehr Kernen allerdings nicht besser, solange das Programm das nicht ausnutzt.

    Die Programme kommen nur nach und nach dahin, dass sie das entsprechend ausnutzen. Denn das Programmieren dafür ist nicht sonderlich einfach, schon gar nicht, wenn man wirklich sehr viel aus der Hardware holen möchte. Die unterscheidet sich im Detail dann immer bei der Anzahl der Kerne, beim SMT und bei den SIMD-Längen. Das ist der Vorteil für die, die diese Software schreiben. Deren Arbeitsplatz wächst sich nicht einfach durch das Moorsche Gesetz raus.

    Damit diese Programme spürbar schneller werden, braucht man inzwischen auch GPUs. Das Programmieren dafür ist aber auch nicht geschenkt und man legt sich dann auf bestimmte GPUs fest. Wählt man CUDA, so kann man nur NVIDIA unterstützen. Auf der anderen Seite holt OpenCL nicht alles aus den NVIDIA Karten heraus, wenn ich das richtig gehört habe. Dafür läuft OpenCL sowohl auf NVIDIA als auch auf AMD.

    Das Problem inzwischen ist gar nicht mehr die Leistung an sich. Auf Papier kann man sich eine beliebige Peak-Leistung in einem Supercomputer zusammenbauen. Das Problem ist die Stromversorgung, das Programmieren und die Ausfallsicherheit. Auf Seiten der Hardware kann man da nur hoffen, dass die ganzen Systeme immer weniger Strom brauchen werden.

    Fortschritt gibt es schon, nur skaliert das momentan nur nicht so einfach, dass man als Heimanwender einfach ein vielfaches der Leistung haben kann. Die Supercomputer werden immer fetter, auch dank der immer kräftigeren GPUs.

  13. Re: Was ich nicht verstehe...

    Autor: Sharra 31.01.16 - 19:15

    Man weiss ziemlich genau, wie die Ersparnis durch verbesserte Fertigung ausfällt. Die jetzigen Modelle werden natürlich von kleineren Strukturbreiten ordentlich profitieren, und dann weniger Strom verbrauchen.
    Was die nächste Chipgeneration von AMD wirklich bringt, wird sich erst zeigen, wenn die Modelle in den Test vorliegen. Bis dahin ist alles nur orakeln

    AMD hat durchaus ordentliche Grafikleistung, aber bis heute sind die Chips eben in veralteten Prozessen gefertigt, was den Leistungshunger bedingt. Ich bezweifle aber, dass AMD-Chips wirklich deutlich effizienter werden, als es Nvidia schon ist. Nicht, dass der Wille fehlen würde. Aber auch AMD muss sich an die Physik halten.

  14. Re: Was ich nicht verstehe...

    Autor: Muellersmann 31.01.16 - 20:20

    Laut den genauen Messungen ist Nvidia definitiv vor AMD, aber der Vorsprung ist technisch nicht gewaltig gross. AMD kann Nvidia definitiv einholen/überholen.

    Und wenn dann AMD Karten günstig auf den Markt kommen, dann erleben wir einen starken Preisverfall bei der Nvidia 9xx Serie. Doch Schnäppchen wird es weniger geben, denn die Ausverkaufsaktionen sind spätestens seit den Schnäppchenmelde Portalen sofort ausverkauft oder lohnen sich nicht mehr.

  15. Marketingsprech

    Autor: Yeeeeeeeeha 31.01.16 - 21:34

    Reines Marketingsprech. Eigentlich ist die Nachricht:

    > "Wir bringen neue Hardware raus, die mehr Leistung pro Geldeinheit bringt, wie wir das immer schon machen, damit man auch noch unser Zeug kauft, wenn unsere Konkurrenten das auch machen."

    ;)

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  16. Re: Was ich nicht verstehe...

    Autor: exxo 01.02.16 - 07:35

    ndakota79 schrieb:
    --------------------------------------------------------------------------------
    > Wann kann ich endlich mit der Mittelklasse auf meinem 4k Monitor mit 60 fps
    > zocken?

    Das wird noch sehr lange dauern.

    Der Sprung von 1024x768 auf 1920x1080 hat nur 10 Jahre gedauert. Damit die Karten schnell genug für FHD wurden, hat man diverse shrinks benötigt.

    Der anstehende Shrink auf 14nm ist der erste seit Jahren. Wenn es so weiter geht kannst du ggf in 2020 oder später mit einer 200 Euro Karte rechnen die 4K stemmt.

  17. Re: Was ich nicht verstehe...

    Autor: elidor 01.02.16 - 07:48

    exxo schrieb:
    --------------------------------------------------------------------------------
    > ndakota79 schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Wann kann ich endlich mit der Mittelklasse auf meinem 4k Monitor mit 60
    > fps
    > > zocken?
    >
    > Das wird noch sehr lange dauern.
    >
    > Der Sprung von 1024x768 auf 1920x1080 hat nur 10 Jahre gedauert. Damit die
    > Karten schnell genug für FHD wurden, hat man diverse shrinks benötigt.
    >
    > Der anstehende Shrink auf 14nm ist der erste seit Jahren. Wenn es so weiter
    > geht kannst du ggf in 2020 oder später mit einer 200 Euro Karte rechnen die
    > 4K stemmt.


    Ich bin da leider nicht so im Thema drin, aber wenn man die Strukturen nicht kleiner bekommt, kann man dann nicht einfach die Chips größer machen?

  18. Re: Was ich nicht verstehe...

    Autor: Moe479 01.02.16 - 07:54

    das liegt vorallem am markt mit wenigen großen akteuren, die sachen die wir heute bekommen waren schon vor 10-5 jahren bei denen im nähkästchen, es gibt für die platzhirsche keinen druck sich vom minimal-maximal prinzip zu entfernen, und kommt wer innovativeres daher wird er einfach geschluckt bevor er überhaupt ein produkt an den käufer bringen kann.

    ich kann mich noch an die mitte 80er bis späten 90er erinnern ... 320x200, 640x480, 800x600, 1024x768 ... 4 bit, 8 bit, 16bit, 32bit ... 256 KB, 512 KB, 1MB, 2MB ... da ging das schlag auf schlag, fast jeden tag was neues, nur hatte man im gegensatz auch gefühlte 20 chiphersteller am markt ... matrox, s3, avance logic, tseng labs, trident, xgi usw. ... und dann setzte die marktsättigung ein und damit die große konsolidierungswelle, rückzug in sparten usw.



    1 mal bearbeitet, zuletzt am 01.02.16 08:11 durch Moe479.

  19. Re: Was ich nicht verstehe...

    Autor: Sharra 01.02.16 - 07:59

    elidor schrieb:

    > Ich bin da leider nicht so im Thema drin, aber wenn man die Strukturen
    > nicht kleiner bekommt, kann man dann nicht einfach die Chips größer machen?

    Theoretisch natürlich. Praktisch bedeuten größere Chips zwar mehr Leistung, aber auch mehr Verluste. Die Dinger werden größer, rechnen mehr, und produzieren natürlich dann auch mehr Abwärme. Dann wären wir schon wieder bei Rechenmonstern, die aber dafür den gesamten Wohnblock heizen.

  20. Re: Was ich nicht verstehe...

    Autor: Ext3h 01.02.16 - 08:22

    elidor schrieb:
    --------------------------------------------------------------------------------
    > Ich bin da leider nicht so im Thema drin, aber wenn man die Strukturen
    > nicht kleiner bekommt, kann man dann nicht einfach die Chips größer machen?

    Nein, kann man nicht. Die jeweils größten GPUs der letzten Generation sind da schon so ziemlich am oberen Limit. Je größer die GPU, desto schwieriger wird es aufgrund von Signallaufzeiten noch die gewünschte Frequenz zu erreichen, hinzu kommt dann noch die Ausbeute aufgrund von Fertigungsfehlern, die Kühlung, und eine ganze Reihe von anderen, limitierenden Faktoren.

    Zum Teil kann man dem entgegen wirken indem man zwar den Chip größer macht, dann aber (wie NV das gerne macht) die jeweils "defektesten" Teile des Chips deaktviert und somit zu mindestens der Ausbeute und der Abwärme etwas entgegen zu setzen hat (und dafür so was wie den 970-Skandal riskiert), aber selbst da ist man bei der Größe noch an Grenzen gebunden.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. BWI GmbH, Köln
  2. Fachhochschule Aachen, Aachen
  3. Techniker Krankenkasse, Hamburg
  4. parcs IT-Consulting GmbH, Frankfurt/Main

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. HP Reactor Omen Maus für 34,90€, HP Pavilion Gaming Headset für 39,90€, HP Pavilin...
  2. (u. a. Battlefield V Deluxe Edition Xbox für 19,99€, Fortnite Epic Neo Versa Bundle + 2000 V...
  3. 128,99€
  4. 78,90€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Indiegames-Rundschau: Von Bananen und Astronauten
Indiegames-Rundschau
Von Bananen und Astronauten

In Outer Wilds erlebt ein Astronaut in Murmeltier-Manier das immer gleiche Abenteuer, in My Friend Pedro tötet ein maskierter Auftragskiller im Auftrag einer Banane, dazu gibt es Horror von Lovecraft: Golem.de stellt die Indiegames-Highlights des Sommers vor.
Von Rainer Sigl

  1. Indiegames-Rundschau Verloren im Sonnensystem und im Mittelalter
  2. Indiegames-Rundschau Drogen, Schwerter, Roboter-Ritter
  3. Indiegames-Rundschau Zwischen Fließband und Wanderlust

Razer Blade 15 Advanced im Test: Treffen der Generationen
Razer Blade 15 Advanced im Test
Treffen der Generationen

Auf den ersten Blick ähneln sich das neue und das ein Jahr alte Razer Blade 15: Beide setzen auf ein identisches erstklassiges Chassis. Der größte Vorteil des neuen Modells sind aber nicht offensichtliche Argumente - sondern das, was drinnen steckt.
Ein Test von Oliver Nickel

  1. Blade 15 Advanced Razer packt RTX 2080 und OLED-Panel in 15-Zöller
  2. Blade Stealth (2019) Razer packt Geforce MX150 in 13-Zoll-Ultrabook

In eigener Sache: Neue Workshops zu agilem Arbeiten und Selbstmanagement
In eigener Sache
Neue Workshops zu agilem Arbeiten und Selbstmanagement

Wir haben in unserer Leserumfrage nach Wünschen für Weiterbildungsangebote gefragt. Hier ist das Ergebnis: Zwei neue Workshops widmen sich der Selbstorganisation und gängigen Fehlern beim agilen Arbeiten - natürlich extra für IT-Profis.

  1. Golem Akademie Golem.de startet Angebote zur beruflichen Weiterbildung
  2. In eigener Sache Zweiter Termin für Kubernetes-Seminar
  3. Leserumfrage Wie können wir dich unterstützen?

  1. Equiano: Googles Seekabel erschließt abgelegene Südatlantikinsel
    Equiano
    Googles Seekabel erschließt abgelegene Südatlantikinsel

    Das Equiano-Seekabel von Google wird einen Abzweig an die Insel St. Helena machen. Doch die Kapazität übersteigt den Eigenbedarf bei weitem, weshalb die Saints zahlende Mitbenutzer suchen: Satellitenbetreiber.

  2. Gipfeltreffen: US-Konzerne wollen schnelle Antworten zu Huawei-Lizenzen
    Gipfeltreffen
    US-Konzerne wollen schnelle Antworten zu Huawei-Lizenzen

    Die Chefs von Cisco Systems, Intel, Broadcom, Qualcomm, Micron Technology, Western Digital und Google wollen endlich Klarheit zu Huawei. US-Präsident Donald Trump hat am Montag eine schnelle Bearbeitung von Anträgen auf Lieferungen an Huawei zugesagt.

  3. Automated Valet Parking: Daimler und Bosch dürfen autonom parken
    Automated Valet Parking
    Daimler und Bosch dürfen autonom parken

    In Stuttgart können Besucher ohne Begleitung das automatisierte Parken eines Mercedes ausprobieren: Daimler und Bosch haben die Freigabe für das Automated Valet Parking erhalten.


  1. 19:25

  2. 17:38

  3. 17:16

  4. 16:30

  5. 16:12

  6. 15:00

  7. 15:00

  8. 14:30