Abo
  1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Grafikkarte: Polaris-Generation…

Was ich nicht verstehe...

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Was ich nicht verstehe...

    Autor: Muellersmann 31.01.16 - 13:37

    ... ist, dass AMD hier Grafikkarten für VR anbieten will, die VR günstiger machen sollen. Heißt das nun, dass AMD die Preise für kommende Modelle "deutlich" senkt, also die Leistung einer 970 für zB. 200 Euro?

    Was sind aber die 100 Euro im Verhältnis zum Gesamtsystem? Das sind dann auch nicht einmal 10%.

  2. Re: Was ich nicht verstehe...

    Autor: ms (Golem.de) 31.01.16 - 13:39

    Das wäre denkbar, ja - also die Leistung einer GTX 970 für 200 statt 300 Euro.

    Mit freundlichen Grüßen
    Marc Sauter
    Golem.de

  3. Re: Was ich nicht verstehe...

    Autor: Micha123456 31.01.16 - 14:09

    Polaris soll zudem durch die Produktion in 14/16nm und den FinFETs deutlich weniger Strom verbrauchen.
    Entsprechend werden günstigere Netzteile und Kühler für das Gesamtsystem verwendet werden können.

  4. Re: Was ich nicht verstehe...

    Autor: Anonymer Nutzer 31.01.16 - 14:48

    Im Endeffekt wird AMD sowieso nur auf Nvidias jetzigen Stromverbrauch aufschließen, denn AMD hat immer 50 - 100 Watt mehr Verbrauch bei egal was.

  5. Re: Was ich nicht verstehe...

    Autor: DY 31.01.16 - 15:10

    Razor1945 schrieb:
    --------------------------------------------------------------------------------
    > Im Endeffekt wird AMD sowieso nur auf Nvidias jetzigen Stromverbrauch
    > aufschließen, denn AMD hat immer 50 - 100 Watt mehr Verbrauch bei egal was.

    Vorurteile + Halbwissen ungleich Wissen

  6. Re: Was ich nicht verstehe...

    Autor: Pwnie2012 31.01.16 - 15:18

    AMD gibt auch oft die Maximalleistungsaufnahme an und Nvidia den Durchschnitt im günstigsten Fall. Letztendlich geben sich beide wenig.

  7. Re: Was ich nicht verstehe...

    Autor: Bronco+ 31.01.16 - 16:08

    Hab den letzten Generationswechsel 2011 nicht wirklich mitverfolgt. Wird die Produktion der Vorgänger gleich eingestellt und die Restbestände verscherbelt?

  8. Re: Was ich nicht verstehe...

    Autor: ndakota79 31.01.16 - 17:22

    CPU und GPU Entwicklung auf dem Desktop ist so verdammt langweilig, es tut sich einfach nichts.
    Wann kann ich endlich mit der Mittelklasse auf meinem 4k Monitor mit 60 fps zocken? Wann werden Photoshop und Indesign wieder so schnell, wie sie es in full HD waren?

    Kleine Ministeps interessieren mich kein bisschen. Leistung der GTX 970 bald für 200 Euro! Ja mei, die verdammte Karte ist ein Jahr alt, das ist jetzt nichts tolles für mich.

  9. Re: Was ich nicht verstehe...

    Autor: theonlyone 31.01.16 - 17:56

    ndakota79 schrieb:
    --------------------------------------------------------------------------------
    > CPU und GPU Entwicklung auf dem Desktop ist so verdammt langweilig, es tut
    > sich einfach nichts.
    > Wann kann ich endlich mit der Mittelklasse auf meinem 4k Monitor mit 60 fps
    > zocken? Wann werden Photoshop und Indesign wieder so schnell, wie sie es in
    > full HD waren?
    >
    > Kleine Ministeps interessieren mich kein bisschen. Leistung der GTX 970
    > bald für 200 Euro! Ja mei, die verdammte Karte ist ein Jahr alt, das ist
    > jetzt nichts tolles für mich.

    Wenn du was "tolles" willst musst du zu den Spitzen Modellen gehen.

    Hier geht es darum das man bessere Leistung für weniger Geld bekommt.

    Spitzenleistung kostet, das gibts nicht geschenkt.

  10. Re: Was ich nicht verstehe...

    Autor: ndakota79 31.01.16 - 18:22

    Ich rede von Fortschritt. Und den gibt es auch bei den Spitzenmodellen nicht.

  11. Re: Was ich nicht verstehe...

    Autor: Cerdo 31.01.16 - 19:07

    ndakota79 schrieb:
    --------------------------------------------------------------------------------
    > Ich rede von Fortschritt. Und den gibt es auch bei den Spitzenmodellen
    > nicht.
    Du darfst deine Konzepte, wie du das anstellen willst gerne publizieren.

  12. Re: Was ich nicht verstehe...

    Autor: Theoretiker 31.01.16 - 19:08

    Es mag durchaus sein, dass der CPU und GPU Markt auf dem Desktop ziemlich langweilig ist. Das liegt unter anderem daran, dass die CPUs auch einfach nicht mehr schneller werden können.

    Die knapp 4 GHz hatten wir schon beim Pentium 4 so um 2005 herum. Seit dem gibt es keinen nennenswert höheren Takt mehr. Nun müssen die Chiphersteller irgendwie anders mehr Leistung herausholen. Intel ist mit seiner Out-of-order-Unit wirklich gut dabei, ansonsten ist SMT und SIMD noch dabei. Das Problem ist jedoch, dass die Programme das nutzen müssen.

    Und das ist das Problem. Leider und zum Glück. Denn bei den ersten Dual Core Systemen waren die Systeme spürbar schneller, weil das eigentliche Programm auf einem Kern und der Rest und die Malware auf dem zweiten Kern lief. Nun wird es mit noch mehr Kernen allerdings nicht besser, solange das Programm das nicht ausnutzt.

    Die Programme kommen nur nach und nach dahin, dass sie das entsprechend ausnutzen. Denn das Programmieren dafür ist nicht sonderlich einfach, schon gar nicht, wenn man wirklich sehr viel aus der Hardware holen möchte. Die unterscheidet sich im Detail dann immer bei der Anzahl der Kerne, beim SMT und bei den SIMD-Längen. Das ist der Vorteil für die, die diese Software schreiben. Deren Arbeitsplatz wächst sich nicht einfach durch das Moorsche Gesetz raus.

    Damit diese Programme spürbar schneller werden, braucht man inzwischen auch GPUs. Das Programmieren dafür ist aber auch nicht geschenkt und man legt sich dann auf bestimmte GPUs fest. Wählt man CUDA, so kann man nur NVIDIA unterstützen. Auf der anderen Seite holt OpenCL nicht alles aus den NVIDIA Karten heraus, wenn ich das richtig gehört habe. Dafür läuft OpenCL sowohl auf NVIDIA als auch auf AMD.

    Das Problem inzwischen ist gar nicht mehr die Leistung an sich. Auf Papier kann man sich eine beliebige Peak-Leistung in einem Supercomputer zusammenbauen. Das Problem ist die Stromversorgung, das Programmieren und die Ausfallsicherheit. Auf Seiten der Hardware kann man da nur hoffen, dass die ganzen Systeme immer weniger Strom brauchen werden.

    Fortschritt gibt es schon, nur skaliert das momentan nur nicht so einfach, dass man als Heimanwender einfach ein vielfaches der Leistung haben kann. Die Supercomputer werden immer fetter, auch dank der immer kräftigeren GPUs.

  13. Re: Was ich nicht verstehe...

    Autor: Sharra 31.01.16 - 19:15

    Man weiss ziemlich genau, wie die Ersparnis durch verbesserte Fertigung ausfällt. Die jetzigen Modelle werden natürlich von kleineren Strukturbreiten ordentlich profitieren, und dann weniger Strom verbrauchen.
    Was die nächste Chipgeneration von AMD wirklich bringt, wird sich erst zeigen, wenn die Modelle in den Test vorliegen. Bis dahin ist alles nur orakeln

    AMD hat durchaus ordentliche Grafikleistung, aber bis heute sind die Chips eben in veralteten Prozessen gefertigt, was den Leistungshunger bedingt. Ich bezweifle aber, dass AMD-Chips wirklich deutlich effizienter werden, als es Nvidia schon ist. Nicht, dass der Wille fehlen würde. Aber auch AMD muss sich an die Physik halten.

  14. Re: Was ich nicht verstehe...

    Autor: Muellersmann 31.01.16 - 20:20

    Laut den genauen Messungen ist Nvidia definitiv vor AMD, aber der Vorsprung ist technisch nicht gewaltig gross. AMD kann Nvidia definitiv einholen/überholen.

    Und wenn dann AMD Karten günstig auf den Markt kommen, dann erleben wir einen starken Preisverfall bei der Nvidia 9xx Serie. Doch Schnäppchen wird es weniger geben, denn die Ausverkaufsaktionen sind spätestens seit den Schnäppchenmelde Portalen sofort ausverkauft oder lohnen sich nicht mehr.

  15. Marketingsprech

    Autor: Yeeeeeeeeha 31.01.16 - 21:34

    Reines Marketingsprech. Eigentlich ist die Nachricht:

    > "Wir bringen neue Hardware raus, die mehr Leistung pro Geldeinheit bringt, wie wir das immer schon machen, damit man auch noch unser Zeug kauft, wenn unsere Konkurrenten das auch machen."

    ;)

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  16. Re: Was ich nicht verstehe...

    Autor: exxo 01.02.16 - 07:35

    ndakota79 schrieb:
    --------------------------------------------------------------------------------
    > Wann kann ich endlich mit der Mittelklasse auf meinem 4k Monitor mit 60 fps
    > zocken?

    Das wird noch sehr lange dauern.

    Der Sprung von 1024x768 auf 1920x1080 hat nur 10 Jahre gedauert. Damit die Karten schnell genug für FHD wurden, hat man diverse shrinks benötigt.

    Der anstehende Shrink auf 14nm ist der erste seit Jahren. Wenn es so weiter geht kannst du ggf in 2020 oder später mit einer 200 Euro Karte rechnen die 4K stemmt.

  17. Re: Was ich nicht verstehe...

    Autor: elidor 01.02.16 - 07:48

    exxo schrieb:
    --------------------------------------------------------------------------------
    > ndakota79 schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Wann kann ich endlich mit der Mittelklasse auf meinem 4k Monitor mit 60
    > fps
    > > zocken?
    >
    > Das wird noch sehr lange dauern.
    >
    > Der Sprung von 1024x768 auf 1920x1080 hat nur 10 Jahre gedauert. Damit die
    > Karten schnell genug für FHD wurden, hat man diverse shrinks benötigt.
    >
    > Der anstehende Shrink auf 14nm ist der erste seit Jahren. Wenn es so weiter
    > geht kannst du ggf in 2020 oder später mit einer 200 Euro Karte rechnen die
    > 4K stemmt.


    Ich bin da leider nicht so im Thema drin, aber wenn man die Strukturen nicht kleiner bekommt, kann man dann nicht einfach die Chips größer machen?

  18. Re: Was ich nicht verstehe...

    Autor: Moe479 01.02.16 - 07:54

    das liegt vorallem am markt mit wenigen großen akteuren, die sachen die wir heute bekommen waren schon vor 10-5 jahren bei denen im nähkästchen, es gibt für die platzhirsche keinen druck sich vom minimal-maximal prinzip zu entfernen, und kommt wer innovativeres daher wird er einfach geschluckt bevor er überhaupt ein produkt an den käufer bringen kann.

    ich kann mich noch an die mitte 80er bis späten 90er erinnern ... 320x200, 640x480, 800x600, 1024x768 ... 4 bit, 8 bit, 16bit, 32bit ... 256 KB, 512 KB, 1MB, 2MB ... da ging das schlag auf schlag, fast jeden tag was neues, nur hatte man im gegensatz auch gefühlte 20 chiphersteller am markt ... matrox, s3, avance logic, tseng labs, trident, xgi usw. ... und dann setzte die marktsättigung ein und damit die große konsolidierungswelle, rückzug in sparten usw.



    1 mal bearbeitet, zuletzt am 01.02.16 08:11 durch Moe479.

  19. Re: Was ich nicht verstehe...

    Autor: Sharra 01.02.16 - 07:59

    elidor schrieb:

    > Ich bin da leider nicht so im Thema drin, aber wenn man die Strukturen
    > nicht kleiner bekommt, kann man dann nicht einfach die Chips größer machen?

    Theoretisch natürlich. Praktisch bedeuten größere Chips zwar mehr Leistung, aber auch mehr Verluste. Die Dinger werden größer, rechnen mehr, und produzieren natürlich dann auch mehr Abwärme. Dann wären wir schon wieder bei Rechenmonstern, die aber dafür den gesamten Wohnblock heizen.

  20. Re: Was ich nicht verstehe...

    Autor: Ext3h 01.02.16 - 08:22

    elidor schrieb:
    --------------------------------------------------------------------------------
    > Ich bin da leider nicht so im Thema drin, aber wenn man die Strukturen
    > nicht kleiner bekommt, kann man dann nicht einfach die Chips größer machen?

    Nein, kann man nicht. Die jeweils größten GPUs der letzten Generation sind da schon so ziemlich am oberen Limit. Je größer die GPU, desto schwieriger wird es aufgrund von Signallaufzeiten noch die gewünschte Frequenz zu erreichen, hinzu kommt dann noch die Ausbeute aufgrund von Fertigungsfehlern, die Kühlung, und eine ganze Reihe von anderen, limitierenden Faktoren.

    Zum Teil kann man dem entgegen wirken indem man zwar den Chip größer macht, dann aber (wie NV das gerne macht) die jeweils "defektesten" Teile des Chips deaktviert und somit zu mindestens der Ausbeute und der Abwärme etwas entgegen zu setzen hat (und dafür so was wie den 970-Skandal riskiert), aber selbst da ist man bei der Größe noch an Grenzen gebunden.

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Zentiva Pharma GmbH, Berlin
  2. Cluno GmbH, München
  3. NÜRNBERGER Versicherung, Nürnberg
  4. Interhyp Gruppe, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 59€ (Vergleichspreis 70,98€)
  2. 49€ für Prime-Mitglieder (Vergleichspreis 64,98€)
  3. 59,99€ (Vergleichspreis ca. 90€)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Orientierungshilfe: Wie Webseiten Nutzer tracken dürfen - und wie nicht
Orientierungshilfe
Wie Webseiten Nutzer tracken dürfen - und wie nicht

Für viele Anbieter dürfte es schwierig werden, ihre Nutzer wie bisher zu tracken. In monatelangen Beratungen haben die deutschen Datenschützer eine 25-seitige Orientierungshilfe zum DSGVO-konformen Tracking ausgearbeitet.
Ein Bericht von Christiane Schulzki-Haddouti

  1. Cookie-Banner Deutsche Datenschützer spielen bei Nutzertracking auf Zeit
  2. Fossa EU erweitert Bug-Bounty-Programm für Open-Source-Software
  3. EU-Zertifizierung Neues Gesetz soll das Internet sicherer machen

Raspi-Tastatur und -Maus im Test: Die Basteltastatur für Bastelrechner
Raspi-Tastatur und -Maus im Test
Die Basteltastatur für Bastelrechner

Für die Raspberry-Pi-Platinen gibt es eine offizielle Tastatur und Maus, passenderweise in Weiß und Rot. Im Test macht die Tastatur einen anständigen Eindruck, die Maus hingegen hat uns eher kaltgelassen. Das Keyboard ist zudem ein guter Ausgangspunkt für Bastelprojekte.
Ein Test von Tobias Költzsch

  1. Bastelcomputer Offizielle Maus und Tastatur für den Raspberry Pi
  2. Kodi mit Raspberry Pi Pimp your Stereoanlage
  3. Betriebssystem Windows 10 on ARM kann auf Raspberry Pi 3 installiert werden

Adblock Plus: Adblock-Filterregeln können Code ausführen
Adblock Plus
Adblock-Filterregeln können Code ausführen

Unter bestimmten Voraussetzungen können Filterregeln für Adblocker mit einer neuen Funktion Javascript-Code in Webseiten einfügen. Adblock Plus will reagieren und die entsprechende Funktion wieder entfernen. Ublock Origin ist nicht betroffen.
Von Hanno Böck

  1. Urheberrecht Axel-Springer-Verlag klagt erneut gegen Adblocker
  2. Whitelisting erlaubt Kartellamt hält Adblocker-Nutzung für "nachvollziehbar"
  3. Firefox Klar Mozilla testet offenbar Adblocker

  1. Joe Armstrong: Erlang-Erfinder ist gestorben
    Joe Armstrong
    Erlang-Erfinder ist gestorben

    Der Informatiker Joe Armstrong gilt als Erfinder der Programmiersprache Erlang und war Experte für verteilte und fehlertolerante Systeme. Armstrong erlag nun den Folgen einer Lungenerkrankung.

  2. Tchap: Forscher gelingt Anmeldung im Regierungschat Frankreichs
    Tchap
    Forscher gelingt Anmeldung im Regierungschat Frankreichs

    Kurz nach dem Start ist es einem Sicherheitsforscher gelungen, sich unberechtigt bei der Whatsapp-Alternative der französischen Regierung anzumelden. Der Forscher fand weitere vermeintliche Fehler, die laut den Entwicklern der Matrix-Software aber keine sind.

  3. Facebook, Instagram, Whatsapp: Sri Lanka blockiert nach Anschlägen Social Media
    Facebook, Instagram, Whatsapp
    Sri Lanka blockiert nach Anschlägen Social Media

    Nach den Anschlägen in Sri Lanka wird in dem Land der Zugriff auf Messenger-Dienste wie Whatsapp oder Social-Media-Plattformen wie Facebook blockiert. Das soll die Verbreitung von Falschinformationen verhindern.


  1. 12:06

  2. 11:32

  3. 11:08

  4. 12:55

  5. 11:14

  6. 10:58

  7. 16:00

  8. 15:18