1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Monitore: 4K und 144 Hertz sind…

Höhere Wiederholrate = höherer Stromverbrauch?

  1. Thema

Neues Thema Ansicht wechseln


  1. Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: oldmcdonald 13.07.20 - 12:34

    Ein Aspekt, der beiseite gelassen wurde: Kostet die höhere Bildwiederholrate nicht auch deutlich mehr Strom? Wenn ja: Wieviel mehr. Falls nein: Warum nicht?

  2. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: Sharra 13.07.20 - 12:53

    Das was beim Monitor wirklich Energie verbraucht ist die Darstellung an sich, nicht wie oft das geändert wird. Helle Bildbsteandteile verbrauchen dabei mehr Energie als dunkle. Ein komplett weisses Bild frisst mehr Strom als ein Schwarzes.
    Natürlich verbraucht die Elektronik bei höheren Refresh-Raten auch mehr Energie, aber das ist im Vergleich zum Rest marginal.

  3. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: Flexy 13.07.20 - 12:58

    Ja, das kostet bisschen mehr Strom, sowohl bei Monitor als auch am PC.

    Wie viel hängt vom jeweiligen Monitor ab, vom Mainboard/CPU/RAM und von der GPU. Aber da kann idle schon mal aus einem 100W Verbrauch (für Monitor + PC zusammen) auch ein 150W oder sogar ein 180W Verbrauch werden, einfach weil Monitor, GPU und CPU alle bisschen mehr Strom brauchen insgesamt.

  4. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: JarJarThomas 13.07.20 - 13:43

    Sharra schrieb:
    --------------------------------------------------------------------------------
    > Das was beim Monitor wirklich Energie verbraucht ist die Darstellung an
    > sich, nicht wie oft das geändert wird. Helle Bildbsteandteile verbrauchen
    > dabei mehr Energie als dunkle. Ein komplett weisses Bild frisst mehr Strom
    > als ein Schwarzes.
    > Natürlich verbraucht die Elektronik bei höheren Refresh-Raten auch mehr
    > Energie, aber das ist im Vergleich zum Rest marginal.

    Ein komplett weißes Bild kostet NUR bei OLED mehr Strom.
    Bei standard LCD wie es die großen fast alle noch sind, kostet es gleich viel strom.

    Aber viel wichtiger ist der Verbrauch der GPU der in die Höhe steigt.
    Tatsächlich fängt mein GPU an zu kühlen bei 144hz, ohne braucht sie den Lüfter praktisch nicht

  5. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: shoggothe 13.07.20 - 14:17

    Das Licht was du bei einem weißen Bild auf einem LCD siehst, kommt von der Hintergrundbeleuchtung. Die verbraucht am meisten Strom. Für ein dunkles Bild muss die Hintergrundbeleuchtung durch Umpolarisierung per Flüssigkristall abgeschirmt werden was zusätzlich Energie benötigt.

  6. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: ssj3rd 13.07.20 - 14:23

    JarJarThomas schrieb:
    --------------------------------------------------------------------------------
    > Sharra schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Das was beim Monitor wirklich Energie verbraucht ist die Darstellung an
    > > sich, nicht wie oft das geändert wird. Helle Bildbsteandteile
    > verbrauchen
    > > dabei mehr Energie als dunkle. Ein komplett weisses Bild frisst mehr
    > Strom
    > > als ein Schwarzes.
    > > Natürlich verbraucht die Elektronik bei höheren Refresh-Raten auch mehr
    > > Energie, aber das ist im Vergleich zum Rest marginal.
    >
    > Ein komplett weißes Bild kostet NUR bei OLED mehr Strom.
    > Bei standard LCD wie es die großen fast alle noch sind, kostet es gleich
    > viel strom.
    >
    > Aber viel wichtiger ist der Verbrauch der GPU der in die Höhe steigt.
    > Tatsächlich fängt mein GPU an zu kühlen bei 144hz, ohne braucht sie den
    > Lüfter praktisch nicht

    Bei mir bleibt mein Lüfter meiner GTX 1080 aus, auch wenn auf dem Desktop 144hz oder sogar 165hz aktiv sind. Du hast wohl einfach eine scheiss Graka,

  7. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: yumiko 13.07.20 - 16:11

    shoggothe schrieb:
    --------------------------------------------------------------------------------
    > Das Licht was du bei einem weißen Bild auf einem LCD siehst, kommt von der
    > Hintergrundbeleuchtung. Die verbraucht am meisten Strom. Für ein dunkles
    > Bild muss die Hintergrundbeleuchtung durch Umpolarisierung per
    > Flüssigkristall abgeschirmt werden was zusätzlich Energie benötigt.
    Aber viel dimmen doch heutzutage die Hintergrundbeleuchtung lokal je nach Helligkeit der Pixel.

  8. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: JarJarThomas 13.07.20 - 19:26

    ssj3rd schrieb:
    --------------------------------------------------------------------------------
    > JarJarThomas schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Sharra schrieb:
    > >
    > ---------------------------------------------------------------------------
    >
    > > -----
    > > > Das was beim Monitor wirklich Energie verbraucht ist die Darstellung
    > an
    > > > sich, nicht wie oft das geändert wird. Helle Bildbsteandteile
    > > verbrauchen
    > > > dabei mehr Energie als dunkle. Ein komplett weisses Bild frisst mehr
    > > Strom
    > > > als ein Schwarzes.
    > > > Natürlich verbraucht die Elektronik bei höheren Refresh-Raten auch
    > mehr
    > > > Energie, aber das ist im Vergleich zum Rest marginal.
    > >
    > > Ein komplett weißes Bild kostet NUR bei OLED mehr Strom.
    > > Bei standard LCD wie es die großen fast alle noch sind, kostet es gleich
    > > viel strom.
    > >
    > > Aber viel wichtiger ist der Verbrauch der GPU der in die Höhe steigt.
    > > Tatsächlich fängt mein GPU an zu kühlen bei 144hz, ohne braucht sie den
    > > Lüfter praktisch nicht
    >
    > Bei mir bleibt mein Lüfter meiner GTX 1080 aus, auch wenn auf dem Desktop
    > 144hz oder sogar 165hz aktiv sind. Du hast wohl einfach eine scheiss Graka,


    Notebookgraka

  9. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: Eheran 13.07.20 - 21:27

    >Für ein dunkles Bild muss die Hintergrundbeleuchtung durch Umpolarisierung per Flüssigkristall abgeschirmt werden was zusätzlich Energie benötigt.
    Das kostet keine zusätzliche Energie.

  10. Re: Höhere Wiederholrate = höherer Stromverbrauch?

    Autor: Niaxa 14.07.20 - 06:48

    Oder ne schlechte Kühlung. Egal ob GPU oder Gehäuse.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Klinikum Esslingen GmbH, Esslingen
  2. Technische Universität Darmstadt, Darmstadt
  3. MediaNet GmbH Netzwerk- und Applikations-Service, Freiburg im Breisgau
  4. über duerenhoff GmbH, Raum Lüdenscheid

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Mobile-Angebote
  1. 304€ (Bestpreis!)
  2. 274,49€ (mit Rabattcode "PFIFFIGER" - Bestpreis!)
  3. 328€ (mit Rabattcode "YDENUEDR6CZQWFQM" - Bestpreis!)
  4. 689€ (mit Rabattcode "PRIMA10" - Bestpreis!)


Haben wir etwas übersehen?

E-Mail an news@golem.de


5G: Nokias und Ericssons enge Bindungen zu Chinas Führung
5G
Nokias und Ericssons enge Bindungen zu Chinas Führung

Nokia und Ericsson betreiben viel Forschung und Entwicklung zu 5G in China. Ein enger Partner Ericssons liefert an das chinesische Militär.
Eine Recherche von Achim Sawall

  1. Quartalsbericht Ericsson mit Topergebnis durch 5G in China
  2. Cradlepoint Ericsson gibt 1,1 Milliarden Dollar für Routerhersteller aus
  3. Neben Huawei Telekom wählt Ericsson als zweiten 5G-Ausrüster

Ausprobiert: Meine erste Strafgebühr bei Free Now
Ausprobiert
Meine erste Strafgebühr bei Free Now

Storniert habe ich bei Free Now noch nie. Doch diesmal wurde meine Geduld hart auf die Probe gestellt.
Ein Praxistest von Achim Sawall

  1. Gesetzentwurf Weitergabepflicht für Mobilitätsdaten geplant
  2. Personenbeförderung Taxibranche und Uber kritisieren Reformpläne

Xbox, Playstation, Nvidia Ampere: Wo bleiben die HDMI-2.1-Monitore?
Xbox, Playstation, Nvidia Ampere
Wo bleiben die HDMI-2.1-Monitore?

Trotz des Verkaufsstarts der Playstation 5 und Xbox Series X fehlt von HDMI-2.1-Displays jede Spur. Fündig werden wir erst im TV-Segment.
Eine Analyse von Oliver Nickel