1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › Insider Preview 17093: Windows…

Lohnt das noch?

  1. Thema

Neues Thema Ansicht wechseln


  1. Lohnt das noch?

    Autor: Allandor 13.02.18 - 12:01

    Inzwischen haben die GPUs doch so viele Stromsparmechanismen das sie im Normalzustand eigentlich so gut wie nichts verbrauchen. Erst wenn eine 3D Anwendung genutzt wird, geht es ans eingemachte.
    Würde dementsprechend nur etwas bringen, wenn die dgpu tatsächlich mehr verbraucht im quasi "2D"-Modus als die interne und die dgpu wirklich abgeschaltet werden kann.

  2. Re: Lohnt das noch?

    Autor: SchmuseTigger 13.02.18 - 12:14

    Allandor schrieb:
    --------------------------------------------------------------------------------
    > Inzwischen haben die GPUs doch so viele Stromsparmechanismen das sie im
    > Normalzustand eigentlich so gut wie nichts verbrauchen. Erst wenn eine 3D
    > Anwendung genutzt wird, geht es ans eingemachte.
    > Würde dementsprechend nur etwas bringen, wenn die dgpu tatsächlich mehr
    > verbraucht im quasi "2D"-Modus als die interne und die dgpu wirklich
    > abgeschaltet werden kann.

    Jo lohnt besonders wenn man eine auf der cpu, eine graka und eine externe hat

  3. Re: Lohnt das noch?

    Autor: 1e3ste4 13.02.18 - 12:16

    Es geht doch nicht ums Abschalten. Es geht darum, dass man selbst wählen kann, welche Grafikkarte ein Programm fürs Rendern benutzt werden soll.

    Wie im Artikel bereits steht, liefern AMD und Nvidia ihre eigenen Tools mit, damit man ein Spiel starten kann, welches die dedizierte Grafikkarte benutzt und nicht die, an welchem der Notebookbildschirm verbunden ist.

    Die dedizierten Grafikkarten haben meistens keinen eigenen Grafikausgang, sondern schieben ihre gerenderten Pixel in ein Framebuffer, welches die iGPU (meistens Intel) ausliest und durch ihren Grafikausgang schickt.

    P.S.: Noch einer, der nicht lesen kann. Erster Satz im Artikel: "Per Rechtsklick auf Anwendungen auswählen, welcher Grafikchip im Notebook verwendet wird?"

    IT-News für Profis...



    1 mal bearbeitet, zuletzt am 13.02.18 12:18 durch 1e3ste4.

  4. Re: Lohnt das noch?

    Autor: pigzagzonie 14.02.18 - 14:33

    1e3ste4 schrieb:
    --------------------------------------------------------------------------------
    >
    > Die dedizierten Grafikkarten haben meistens keinen eigenen Grafikausgang,
    > sondern schieben ihre gerenderten Pixel in ein Framebuffer, welches die
    > iGPU (meistens Intel) ausliest und durch ihren Grafikausgang schickt.
    >

    Ich bin mir nicht sicher, ob das so durch die Bank weg noch gilt. Früher war so bei NVidia das Optimus-Design ausgelegt, das viele verflucht haben, weil ab dem "Direct Mode" der Oculus Runtime die Virtual Reality damit gegessen war. Lief einfach nicht mehr. Ich würde daher vermuten, dass es bei VR-tauglichen bzw. "Gaming"-Notebooks heute umgekehrt ist.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. ABB AG, Mannheim (Home-Office möglich)
  2. Grand City Property (GCP), Berlin
  3. hubergroup Deutschland GmbH, Kirchheim bei München
  4. Northrop Grumman LITEF GmbH, Freiburg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 999,90€ + Versand (Vergleichspreis für derzeit günstigste RTX 2080 Ti + EKWB-Kühlblock über 1...
  2. 548€ + 7,99€ Versand (Vergleichspreis CPU 437,99€ und Mainboard 229,90€)
  3. 479€ + Versand (Vergleichspreis 649€)
  4. (aktuell u. a. Seagate Backup Plus Portable 4 TB für 88€ und Expansion+ Desktop 4 TB für 77€)


Haben wir etwas übersehen?

E-Mail an news@golem.de