Abo
  1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Grafikkarte: Radeon R9 285…

Energieverbrauch von Grafikkarten

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. Energieverbrauch von Grafikkarten

    Autor: stojmas 24.08.14 - 09:52

    190 Watt ist so viel, wie 10 meiner Notebooks verbrauchen würden. Ist das nicht ganz schön pervers?

    Wenn eine Highend-Grafikkarte irgendwann mal max. 50 Watt verbraucht, dann kann man in meinen Augen von "nur" sprechen. Derzeit ist das definitiv verfehlt.

  2. Re: Energieverbrauch von Grafikkarten

    Autor: Emulex 24.08.14 - 10:06

    Das wird nur gehen wenn du High End neu definierst ;)

  3. Re: Energieverbrauch von Grafikkarten

    Autor: RheinPirat 24.08.14 - 10:07

    Warum verfehlt? Überhaupt nicht....

    Du machst eher einen Denkfehler. Denn eine GraKa hat schon immer viel mehr Strom benötigt als vergleichbare PC Hardware. Zudem steht die Leistung der GraKa in keinem Vergleich zu deinen extrem Leistungsschwachen Notebookgrafikchips.

    Ist bei den CPU's das gleiche. Wer Leistung will der weiss auch, dass genügend Energie aus der Steckdose gezogen wird.

    Max. Leistung = hoher Energieverbrauch

    Eine AMD 295x2 zieht da auch gerne über 500W xD Und? Dafür kommt keine andere Karte an die Leistung im Moment heran.



    1 mal bearbeitet, zuletzt am 24.08.14 10:07 durch RheinPirat.

  4. Re: Energieverbrauch von Grafikkarten

    Autor: violator 24.08.14 - 10:37

    stojmas schrieb:
    --------------------------------------------------------------------------------
    > 190 Watt ist so viel, wie 10 meiner Notebooks verbrauchen würden. Ist das
    > nicht ganz schön pervers?

    Und ein LKW verbraucht auch 10x mehr als ein Kleinwagen. Voll pervers.

  5. Re: Energieverbrauch von Grafikkarten

    Autor: supermulti 24.08.14 - 10:39

    Leistung wird immer noch in Watt gemessen, genau wie "Stromverbrauch".

    Klar das da ein Zusammenhang besteht.

  6. Re: Energieverbrauch von Grafikkarten

    Autor: Jasmin26 24.08.14 - 11:02

    denoch hat @stojmas recht, der Verbrauch von Rechenleistung pro Watt ist "miserabel" !

  7. Re: Energieverbrauch von Grafikkarten

    Autor: NaruHina 24.08.14 - 11:10

    watt X Rechenleistung wird immer besser...
    das hat nix mit "miserable" zu tun, wir haben mitteriwele oft sogar soviel rohleistung, die garnicht abgerufen wird, weil die software nicht optimiert wird,

  8. Re: Energieverbrauch von Grafikkarten

    Autor: andy_0 24.08.14 - 11:26

    Nein, hat er nicht, kein regulärer Prozessor ist effizienter als eine Grafikkarte.

    Ein Intel Core i7 4770K hat eine Rechenleistung von etwa 99.7 GFLOPS SP (http://www.ocaholic.ch/modules/smartsection/item.php?page=6&itemid=1005 und http://www.legitreviews.com/intel-core-i7-4770k-haswell-3-5ghz-quad-core-cpu-review_2203/2) bei 95W TDP (ohne GPU eher 77W TDP oder so) laut Tabelle, Anwendungen die den AVX2 Befehlssatz anwenden kommen auf bis zu 60% mehr Leistung, sein theoretisches Maximum liegt bei ~200 GFLOPS (vermutlich inkl. GPU). Eine AMD R280 kommt auf 2960 GFLOPS SP und 280W TDP.

  9. Re: Energieverbrauch von Grafikkarten

    Autor: throgh 24.08.14 - 11:44

    Interessante Diskussionsbasis: Und was sagt das dann deines Erachtens über einen LKW aus? Für mich sind die Dinger nahezu überflüssig: Sie zerstören die Strassen, auf denen sie fahren, und sie snd teils je nach Herkunftsland in einem miserablen Zustand und damit auch ein Risiko für die Umwelt wie auch die anderen Verkehrsteilnehmer, sofern der Fahrer die Kontrolle zum Beispiel aufgrund eines technischen oder mechanischen Defekts verliert.

    Das Auftauchen von sovielen Lastkraftwagen auf den Strassen und Autobahnen ist für mich einfach nur ein Sinnbild absolut verfehlter Verkehrspolitik. Es gab einst ein sehr gut ausgebautes Schienennetz in Deutschland aber das musste ja quasi rückgebaut werden. Und nun zurück zur Grafikkarte hier: Natürlich hat der Ersteller dieses Diskussionsverlaufs absolut Recht. Unsinnige Energieverschwendung ist das, mehr nicht. Und von "Green-IT" brauchen wir dahingehend erst gar nicht anfangen. In Anbetracht der Kommentare hier einmal mehr: Typisch Golem-Forum ... arrogante wie auch eingeschränkte respektive zu fixierte Sichtweise!

    GNU/Linux: Eine Wahlfreiheit zu haben ist besser als sich der reinen Bequemlichkeit hinzugeben, auch wenn das nicht immer einfach ist!

    Hyperbola GNU/Linux | Alpine Linux | GuixSD | Trisquel 7

    Kein Freund von Schubladen, nimmt aber gern Hafermilch und Kekse, sofern er in eine Solche gestopft werden soll. Danke vorab dann!



    1 mal bearbeitet, zuletzt am 24.08.14 11:45 durch throgh.

  10. Re: Energieverbrauch von Grafikkarten

    Autor: elitezocker 24.08.14 - 11:45

    RheinPirat schrieb:
    --------------------------------------------------------------------------------
    > Warum verfehlt? Überhaupt nicht....
    >
    > Du machst eher einen Denkfehler. Denn eine GraKa hat schon immer viel mehr
    > Strom benötigt als vergleichbare PC Hardware.

    Trident 9000, Tseng ET4000 waren damals HighEnd. Stromverbrauch: Nicht messbar. So viel also zu "schon immer".

  11. Re: Energieverbrauch von Grafikkarten

    Autor: jayjay 24.08.14 - 12:15

    stojmas schrieb:
    --------------------------------------------------------------------------------
    > 190 Watt ist so viel, wie 10 meiner Notebooks verbrauchen würden. Ist das
    > nicht ganz schön pervers?
    >
    > Wenn eine Highend-Grafikkarte irgendwann mal max. 50 Watt verbraucht, dann
    > kann man in meinen Augen von "nur" sprechen. Derzeit ist das definitiv
    > verfehlt.

    Dem kann ich nur zustimmen, vor einigen Jahren waren 100W noch unanständig viel für eine Grafikkarte heute sind 190W sparsam... komische Welt...

    hier mal ein Testbericht einer älteren Grafikkarte:
    Radeon X1800XT - pcwelt.de

  12. Re: Energieverbrauch von Grafikkarten

    Autor: tibrob 24.08.14 - 12:53

    Eine GPU kannst du aber nicht so einfach mit einer CPU vergleichen.

    Deine Jacke ist jetzt trocken!

  13. Re: Energieverbrauch von Grafikkarten

    Autor: nw42 24.08.14 - 13:06

    komische Diskussion... Der Stromverbrauch steht in einem knallharten Verhältnis zur gebotenen Rechenleistung. Das war schon immer so. Nur gab es früher noch keine so leistungsfähigen Grafikkarten.

    Wenn ich eine Berechnung durchführen muß, die 2960 GFLOPS SP erfordert, dann bin ich mit 1x Highend Workstation und so einem AMD Monstern mit 280W elektrischer leistungsaufnahme ökologischer und umweltfreundlicher, als wenn ich 100 langsame Notebooks dafür verwende, die die berechnung nur ineffizient parallel bearbeiten können und durch 100x Netzteile und 100x Systemoverhead dann noch viel mehr Strom verbrauchen würden...

  14. Re: Energieverbrauch von Grafikkarten

    Autor: Gucky 24.08.14 - 13:09

    Ich habe seit 2,5 Jahren eine GTX 690 bei mir im Rechner. Das sind 2x680 GPUs auf einer Karte und anstatt 2x195 Watt verbraucht die 690 "NUR" 300 Watt ist also 90 Watt sparsamer als 2 einzelne Karten....
    Dazu kommt ich habe "nur" ein 630 Watt Netzteil, daher ist mein verbrauch eh gekappt.

    Die waren Strom/Ressourcenfresser sind eh die Haushaltsmaschienen oder die Heitzung...wenn man noch nicht in einem neuen effizienten Haus lebt...selbst da geht die Tendenz schon mal auf Multimedia. Das heißt Kühlschrank geht mal ins Netz, man kann per Wlan/Internet auch mal Licht an und aus machen...das steigert den Stromverbrauch auch...Fukushima haben die meisten Europäär sowieso schon wieder vergessen, die Amis sowieso, aber ich schweif vom Thema ab..

    Wirklich mal wenn ich bei einem PC auf Stromkosten achten würde dürfte ich gar keinen Nutzen.
    Was Laptops angeht, die sind natürlich auf Sparsamkeit getrimmt, weil sie ja nur einen begrenzten Vorrat and Strom mitsich tragen.
    Sie nutzen auch diverse Sparmodi wo die Leistung auch nicht auf 100% fährt sondern versucht wird mit so wenig Leitung wie möglich zu arbeiten, sonst ist der Akku nach max 1-2 Stunden leer.
    Ein Auto vergleich? Mach mal alle Fenster auf, Radio an und Klimaanlage an. Da fährt man mit einem vollen Tank auch nicht so weit wie ohne...egal ob LKW, Auto, Oder Elektroauto. Bei den Herstellern wird auchmals jeder 0,1 Liter weniger verbrauch gefeiert.

  15. Re: Energieverbrauch von Grafikkarten

    Autor: stojmas 24.08.14 - 13:13

    Interessant, dass hier die Rechenleistung als Argument für den hohen Stromverbrauch genannt wird. Rein physikalisch habt ihr sicherlich recht.

    Aber habt ihr alle einen Supercomputer zu Hause stehen? Für was genau wird diese Rechenleistung benötigt?

    Und jetzt kommt mir bitte nicht mit Spielen...

  16. Re: Energieverbrauch von Grafikkarten

    Autor: Pwnie2012 24.08.14 - 13:18

    früher hatte man auch noch extrem große strukturen. Heute hat man 22 nm strukturen, das heißt man hat dichter gepackte transistoren. Mehr transistoren auf gleicher fläche + höhere Clock = mehr hitze!

  17. Re: Energieverbrauch von Grafikkarten

    Autor: Pflechtfild 24.08.14 - 13:33

    jayjay schrieb:

    > Dem kann ich nur zustimmen, vor einigen Jahren waren 100W noch unanständig
    > viel für eine Grafikkarte heute sind 190W sparsam... komische Welt...
    >

    Sehe ich auch so. 190 Watt, damit sich so ein paar Lumpis einen runterholen können.
    Da komme ich mit weniger auch hin :D

  18. Re: Energieverbrauch von Grafikkarten

    Autor: Kondom 24.08.14 - 13:35

    stojmas schrieb:
    --------------------------------------------------------------------------------
    > 190 Watt ist so viel, wie 10 meiner Notebooks verbrauchen würden. Ist das
    > nicht ganz schön pervers?

    Äpfel und Birnen.

  19. Re: Energieverbrauch von Grafikkarten

    Autor: PrefoX 24.08.14 - 13:39

    28nm

  20. Re: Energieverbrauch von Grafikkarten

    Autor: Oberst 24.08.14 - 13:59

    andy_0 schrieb:
    --------------------------------------------------------------------------------
    > Nein, hat er nicht, kein regulärer Prozessor ist effizienter als eine
    > Grafikkarte.
    >
    > Ein Intel Core i7 4770K hat eine Rechenleistung von etwa 99.7 GFLOPS SP
    > (www.ocaholic.ch und www.legitreviews.com bei 95W TDP (ohne GPU eher 77W
    > TDP oder so) laut Tabelle, Anwendungen die den AVX2 Befehlssatz anwenden
    > kommen auf bis zu 60% mehr Leistung, sein theoretisches Maximum liegt bei
    > ~200 GFLOPS (vermutlich inkl. GPU). Eine AMD R280 kommt auf 2960 GFLOPS SP
    > und 280W TDP.

    Aha... also ein 4770 kommt auf 200GFlops bei 77W (rein die CPU ohne Board und Ram laut deiner Aussage; bei Grafikkarten ist das natürlich alles mit drin und wird von dir schön ignoriert).

    Die R9 280 kommt ca. auf das 15-falche (3000/200GFlops). Der Verbrauch der R9 liegt laut dir bei 280W, der i7 auf 77W (natürlich auch nicht bei den 200GFlops die er ja laut deiner Aussage bei CPU + GPU Last erreicht), also verbraucht die R9 das 3,6 flache (280/77W).
    Ja, die CPU ist daher viel effizienter...aber nur in deiner Welt...in dieser Welt ist die alte R9 280 mal eben 4x effizienter (nimmt man deine Annahmen und optimierungen raus, ist es wohl eher 6x). Von der R9 290, der FirePro W9100 oder der R9 285 mal ganz zu schweigen, die sind noch mal merklich effizienter.
    Die Supercomputer setzen nicht einfach so auf GPUs als Beschleuniger, sonder weil GPUs viel effizienter sind und viel mehr Rechenleistung auf kleiner Fläche liefern...gerade im Supercomputing Bereich ist die Effizienz wichtig (weil die Kühlung da oft am Limit ist). Aber die Leute, die diese Dinger konstruieren haben sicher auch nicht so viel Ahnung wie du...

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Mentis International Human Resources GmbH, Großraum Nürnberg
  2. BWI GmbH, Bonn
  3. BWI GmbH, Bonn, Meckenheim
  4. ING-DiBa AG, Nürnberg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. 127,99€ (Bestpreis!)
  2. ab 369€ + Versand
  3. (reduzierte Überstände, Restposten & Co.)


Haben wir etwas übersehen?

E-Mail an news@golem.de


In eigener Sache: Neue Workshops zu agilem Arbeiten und Selbstmanagement
In eigener Sache
Neue Workshops zu agilem Arbeiten und Selbstmanagement

Wir haben in unserer Leserumfrage nach Wünschen für Weiterbildungsangebote gefragt. Hier ist das Ergebnis: Zwei neue Workshops widmen sich der Selbstorganisation und gängigen Fehlern beim agilen Arbeiten - natürlich extra für IT-Profis.

  1. In eigener Sache ITler und Board kommen zusammen
  2. In eigener Sache Herbsttermin für den Kubernetes-Workshop steht
  3. Golem Akademie Golem.de startet Angebote zur beruflichen Weiterbildung

Mobilfunktarife fürs IoT: Die Dinge ins Internet bringen
Mobilfunktarife fürs IoT
Die Dinge ins Internet bringen

Kabellos per Mobilfunk bringt man smarte Geräte am leichtesten ins Internet der Dinge. Dafür haben deutsche Netzanbieter Angebote für Unternehmen wie auch für Privatkunden.
Von Jan Raehm

  1. Smart Lock Forscher hacken Türschlösser mit einfachen Mitteln
  2. Brickerbot 2.0 Neue Schadsoftware möchte IoT-Geräte zerstören
  3. Abus-Alarmanlage RFID-Schlüssel lassen sich klonen

Projektorkauf: Lumen, ANSI und mehr
Projektorkauf
Lumen, ANSI und mehr

Gerade bei Projektoren werden auf Plattformen verschiedener Onlinehändler kuriose Angaben zur Helligkeit beziehungsweise Leuchtstärke gemacht - sofern diese überhaupt angegeben werden. Wir bringen etwas Licht ins Dunkel und beschäftigen uns mit Einheiten rund um das Thema Helligkeit.
Von Mike Wobker


    1. Festnetz: Deutsche Telekom hat mehr FTTH als Deutsche Glasfaser
      Festnetz
      Deutsche Telekom hat mehr FTTH als Deutsche Glasfaser

      Die Deutsche Telekom hat überraschend den Spitzenplatz bei der Versorgung mit FTTH für sich beansprucht. Zugleich gibt die Telekom zu, dass deutlich weniger als die Hälfte der versorgten Haushalte FTTH auch buchen.

    2. Arbeitsspeicher: Ryzen 3000 rechnet mit DDR4-3733-CL16 am schnellsten
      Arbeitsspeicher
      Ryzen 3000 rechnet mit DDR4-3733-CL16 am schnellsten

      AMDs Zen-2-CPUs unterstützen offiziell DDR4-3200, können aber auch mit deutlich höher getaktetem Speicher umgehen. Ein umfangreicher Test zeigt, dass DDR4-3733 mit relativ straffen Latenzen derzeit das Optimum für die Ryzen 3000 darstellt, weil so auch die interne Fabric-Geschwindigkeit steigt.

    3. UL 3DMark: Feature Test prüft variable Shading-Rate
      UL 3DMark
      Feature Test prüft variable Shading-Rate

      Nvidia unterstützt es bereits, AMD und Intel in den nächsten Monaten: Per Variable Rate Shading werden in PC-Spielen bestimmte Bereiche mit weniger Aufwand gerendert, idealerweise solche, die nicht ins Auge fallen. Der 3DMark zeigt bald, wie unter Direct3D 12 die Bildrate ohne größere Qualitätsverluste steigen soll.


    1. 19:25

    2. 18:00

    3. 17:31

    4. 10:00

    5. 13:00

    6. 12:30

    7. 11:57

    8. 17:52