-
Lohnt das noch?
Autor: Allandor 13.02.18 - 12:01
Inzwischen haben die GPUs doch so viele Stromsparmechanismen das sie im Normalzustand eigentlich so gut wie nichts verbrauchen. Erst wenn eine 3D Anwendung genutzt wird, geht es ans eingemachte.
Würde dementsprechend nur etwas bringen, wenn die dgpu tatsächlich mehr verbraucht im quasi "2D"-Modus als die interne und die dgpu wirklich abgeschaltet werden kann. -
Re: Lohnt das noch?
Autor: SchmuseTigger 13.02.18 - 12:14
Allandor schrieb:
--------------------------------------------------------------------------------
> Inzwischen haben die GPUs doch so viele Stromsparmechanismen das sie im
> Normalzustand eigentlich so gut wie nichts verbrauchen. Erst wenn eine 3D
> Anwendung genutzt wird, geht es ans eingemachte.
> Würde dementsprechend nur etwas bringen, wenn die dgpu tatsächlich mehr
> verbraucht im quasi "2D"-Modus als die interne und die dgpu wirklich
> abgeschaltet werden kann.
Jo lohnt besonders wenn man eine auf der cpu, eine graka und eine externe hat -
Re: Lohnt das noch?
Autor: 1e3ste4 13.02.18 - 12:16
Es geht doch nicht ums Abschalten. Es geht darum, dass man selbst wählen kann, welche Grafikkarte ein Programm fürs Rendern benutzt werden soll.
Wie im Artikel bereits steht, liefern AMD und Nvidia ihre eigenen Tools mit, damit man ein Spiel starten kann, welches die dedizierte Grafikkarte benutzt und nicht die, an welchem der Notebookbildschirm verbunden ist.
Die dedizierten Grafikkarten haben meistens keinen eigenen Grafikausgang, sondern schieben ihre gerenderten Pixel in ein Framebuffer, welches die iGPU (meistens Intel) ausliest und durch ihren Grafikausgang schickt.
P.S.: Noch einer, der nicht lesen kann. Erster Satz im Artikel: "Per Rechtsklick auf Anwendungen auswählen, welcher Grafikchip im Notebook verwendet wird?"
IT-News für Profis...
1 mal bearbeitet, zuletzt am 13.02.18 12:18 durch 1e3ste4. -
Re: Lohnt das noch?
Autor: pigzagzonie 14.02.18 - 14:33
1e3ste4 schrieb:
--------------------------------------------------------------------------------
>
> Die dedizierten Grafikkarten haben meistens keinen eigenen Grafikausgang,
> sondern schieben ihre gerenderten Pixel in ein Framebuffer, welches die
> iGPU (meistens Intel) ausliest und durch ihren Grafikausgang schickt.
>
Ich bin mir nicht sicher, ob das so durch die Bank weg noch gilt. Früher war so bei NVidia das Optimus-Design ausgelegt, das viele verflucht haben, weil ab dem "Direct Mode" der Oculus Runtime die Virtual Reality damit gegessen war. Lief einfach nicht mehr. Ich würde daher vermuten, dass es bei VR-tauglichen bzw. "Gaming"-Notebooks heute umgekehrt ist.