Abo
  1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Neue Nvidia-Chipsätze: Stromsparen…

Ist doch Quatsch!

  1. Thema

Neues Thema Ansicht wechseln


  1. Ist doch Quatsch!

    Autor: ()s 18.01.08 - 02:12

    Immer mehr Applikationen beschleunigen die Darstellung mittels der GPU. Vektorgrafiken, GUI, MPEG/Video, etc. Teilweise wird die GPU auch schon genutzt für Arbeiten die gar nichts mit Grafik/Darstellung zu tun haben.

    Also läuft die GPU auch wenn man keine 3D-Anwendung nutzt volle Hotte. Zum Beispiel wenn man eine DVD guckt, erstrecht bei HD-Videos. Und dann pfeift der Lüfter. Ganz toll. Das moderne Betriebsysteme (MacOSX, Vista, aber u. U. auch ein Linux-Desktop)im 2-Desktopbetrieb schon recht hohe Grafikanforderungen stellen kommt noch hinzu. Wenn ich da keine Möglichkeit im OS habe (die sich nach Möglichkeit auf jedenfall durchsetzt, oft mein das Betriebsystem ja besser zu wissen was man gerade will, speziell nVidia-Treiber-Menus) mit der ich eien Gang runterfahren kann, dann ist das eifnach für die Katz.

    MacOSX hat angefangen, nach dem Motto "oh wir haben doch eien GPU die sich den ganzen Tag langweilt, also nutzen wir diese doch für die GUI, gib dem Affen Zucker, volle Fahrt voraus, das Gerät muss glühen". udn nun haben wir diese Pest überall!

    GPU im Sparmodus? Klar, aber dei Software geht genau in die andere Richtung. Sie fordet immer mehr GPU-Leistung für einfachste Aufgaben.

  2. Re: Ist doch Quatsch!

    Autor: Metzlor 18.01.08 - 03:37

    ()s schrieb:
    -------------------------------------------------------
    > Immer mehr Applikationen beschleunigen die
    > Darstellung mittels der GPU. Vektorgrafiken, GUI,
    > MPEG/Video, etc. Teilweise wird die GPU auch schon
    > genutzt für Arbeiten die gar nichts mit
    > Grafik/Darstellung zu tun haben.

    Weil die GPU in einigen Anwendungsbereichen schneller ist, würdest du z. B. ein Film umwandeln und brauchst dafür nur 1 Std. (mit Graka) und 2 Std. (ohne Graka) und stellst den PC nach 1 Std. ab statt nach 2 hast du im endeffekt strom gespart!

    >
    > Also läuft die GPU auch wenn man keine
    > 3D-Anwendung nutzt volle Hotte. Zum Beispiel wenn
    > man eine DVD guckt, erstrecht bei HD-Videos. Und
    > dann pfeift der Lüfter. Ganz toll. Das moderne
    > Betriebsysteme (MacOSX, Vista, aber u. U. auch ein
    > Linux-Desktop)im 2-Desktopbetrieb schon recht hohe
    > Grafikanforderungen stellen kommt noch hinzu. Wenn
    > ich da keine Möglichkeit im OS habe (die sich nach
    > Möglichkeit auf jedenfall durchsetzt, oft mein das
    > Betriebsystem ja besser zu wissen was man gerade
    > will, speziell nVidia-Treiber-Menus) mit der ich
    > eien Gang runterfahren kann, dann ist das eifnach
    > für die Katz.

    OS != Treiber, bzw. Treibermenus

    >
    > MacOSX hat angefangen, nach dem Motto "oh wir
    > haben doch eien GPU die sich den ganzen Tag
    > langweilt, also nutzen wir diese doch für die GUI,
    > gib dem Affen Zucker, volle Fahrt voraus, das
    > Gerät muss glühen". udn nun haben wir diese Pest
    > überall!

    Im Normalfall kann man diesen Schnickschnack ausschalten, ich kenne genug Leute die immer noch den Win95 Style bei Win XP benutzen.

    >
    > GPU im Sparmodus? Klar, aber dei Software geht
    > genau in die andere Richtung. Sie fordet immer
    > mehr GPU-Leistung für einfachste Aufgaben.

    Es kommt immer auf die Software an, oft kann man irgendwo einstellen, ob die GPU mitbenutzt werden kann, sonst würde die Software ja mit älteren GPU`s nicht mehr funktionieren.

  3. Re: Ist doch Quatsch!

    Autor: a 18.01.08 - 07:15

    mein gott, was gibts für leute...

    das ist genial! (auch wenn es "schlecht" für AMDs karten ist, bzw. verdammt gut ist und den Vorteil von Ati-Karten zunichte macht, wenn da nichts nach kommt)

    Ich bin z.b. einer dieser Leute, die auf Win-Klassik mit "optimierung" fahren, dh., keine abgerundeten Fenster usw. - (das "optimierung" ist überflüssig, das merkt kein Mensch, aber habe mich an das design einfach gewöhnt und es gefällt mir 100x besser als der xp-style - ganz zu schweigen von vista.)

    Ich verwende auch linux.


    und, die onboard grafik wird zumindest unter linux mit sicherheit ohne probleme mit dem 3d-desktop, soweit treiber usw. passen (wird ja immer besser mit nvidia und ati) flutschen - da reicht die leistung einer gforce2 aus, was die 8200 onboard doch durchaus leisten könnnen wird? (für die restlichen gimmics reichts auf jeden fall)

    Und schon mal an die ganzen "semi-hauspcs" gedacht?

    das wird eine menge energie sparen - wird aber noch 3-5 Jahre dauern, bis die Engergie-Spar-Techniken bei Grafikkarten in dieser Klasse weit verbreiten sind.


    Auf Büro-Rechnern wirst du keine Vista-Dumm-Oberflächen finden, bzw. kaum, denn die laufen natürlich auch mit onboard grafik, was ja auch vernünftig ist, und geld in anschaffung und im verbrauch spart und natürlich sind standard-büro-rechner für 400 euro (mit 2, 3 Jahres-support 5xx evtl) absolut gut genug, um damit die gängigen Anwendungen einwandfrei zu verwenden.




    Metzlor schrieb:
    -------------------------------------------------------
    > ()s schrieb:
    > --------------------------------------------------
    > -----
    > > Immer mehr Applikationen beschleunigen
    > die
    > Darstellung mittels der GPU.
    > Vektorgrafiken, GUI,
    > MPEG/Video, etc.
    > Teilweise wird die GPU auch schon
    > genutzt für
    > Arbeiten die gar nichts mit
    >
    > Grafik/Darstellung zu tun haben.
    >
    > Weil die GPU in einigen Anwendungsbereichen
    > schneller ist, würdest du z. B. ein Film umwandeln
    > und brauchst dafür nur 1 Std. (mit Graka) und 2
    > Std. (ohne Graka) und stellst den PC nach 1 Std.
    > ab statt nach 2 hast du im endeffekt strom
    > gespart!
    >
    > >
    > Also läuft die GPU auch wenn man
    > keine
    > 3D-Anwendung nutzt volle Hotte. Zum
    > Beispiel wenn
    > man eine DVD guckt, erstrecht
    > bei HD-Videos. Und
    > dann pfeift der Lüfter.
    > Ganz toll. Das moderne
    > Betriebsysteme
    > (MacOSX, Vista, aber u. U. auch ein
    >
    > Linux-Desktop)im 2-Desktopbetrieb schon recht
    > hohe
    > Grafikanforderungen stellen kommt noch
    > hinzu. Wenn
    > ich da keine Möglichkeit im OS
    > habe (die sich nach
    > Möglichkeit auf jedenfall
    > durchsetzt, oft mein das
    > Betriebsystem ja
    > besser zu wissen was man gerade
    > will,
    > speziell nVidia-Treiber-Menus) mit der ich
    >
    > eien Gang runterfahren kann, dann ist das
    > eifnach
    > für die Katz.
    >
    > OS != Treiber, bzw. Treibermenus
    >
    > >
    > MacOSX hat angefangen, nach dem Motto
    > "oh wir
    > haben doch eien GPU die sich den
    > ganzen Tag
    > langweilt, also nutzen wir diese
    > doch für die GUI,
    > gib dem Affen Zucker, volle
    > Fahrt voraus, das
    > Gerät muss glühen". udn nun
    > haben wir diese Pest
    > überall!
    >
    > Im Normalfall kann man diesen Schnickschnack
    > ausschalten, ich kenne genug Leute die immer noch
    > den Win95 Style bei Win XP benutzen.
    >
    > >
    > GPU im Sparmodus? Klar, aber dei
    > Software geht
    > genau in die andere Richtung.
    > Sie fordet immer
    > mehr GPU-Leistung für
    > einfachste Aufgaben.
    >
    > Es kommt immer auf die Software an, oft kann man
    > irgendwo einstellen, ob die GPU mitbenutzt werden
    > kann, sonst würde die Software ja mit älteren
    > GPU`s nicht mehr funktionieren.


  4. Re: Ist doch Quatsch!

    Autor: kein Quatsch 18.01.08 - 08:06

    Die Onboard Grafikkarten reichen selbst für Vista voll und ganz aus!
    Zielgruppe sind eh die Wohnzimmer-PCs die 16 Stunden am Tag oder länder laufen und dabei 12 Stunden nur Musik abspielen oder mal einen Film.
    Und die Hardwaredecodierung ist auch auf dem MB - nicht nur auf der GPU.
    Also braucht die Grafikkarte ja wohl nur eingeschaltet werden wenn sie zum Spielen gebraucht wird.

  5. Re: Ist doch Quatsch!

    Autor: masda 18.01.08 - 09:55

    ()s schrieb:
    -------------------------------------------------------
    > Immer mehr Applikationen beschleunigen die
    > Darstellung mittels der GPU. Vektorgrafiken, GUI,
    > MPEG/Video, etc. Teilweise wird die GPU auch schon
    > genutzt für Arbeiten die gar nichts mit
    > Grafik/Darstellung zu tun haben.
    >
    > Also läuft die GPU auch wenn man keine
    > 3D-Anwendung nutzt volle Hotte. Zum Beispiel wenn
    > man eine DVD guckt, erstrecht bei HD-Videos. Und
    > dann pfeift der Lüfter. Ganz toll. Das moderne
    > Betriebsysteme (MacOSX, Vista, aber u. U. auch ein
    > Linux-Desktop)im 2-Desktopbetrieb schon recht hohe
    > Grafikanforderungen stellen kommt noch hinzu. Wenn
    > ich da keine Möglichkeit im OS habe (die sich nach
    > Möglichkeit auf jedenfall durchsetzt, oft mein das
    > Betriebsystem ja besser zu wissen was man gerade
    > will, speziell nVidia-Treiber-Menus) mit der ich
    > eien Gang runterfahren kann, dann ist das eifnach
    > für die Katz.
    >
    > MacOSX hat angefangen, nach dem Motto "oh wir
    > haben doch eien GPU die sich den ganzen Tag
    > langweilt, also nutzen wir diese doch für die GUI,
    > gib dem Affen Zucker, volle Fahrt voraus, das
    > Gerät muss glühen". udn nun haben wir diese Pest
    > überall!
    >
    > GPU im Sparmodus? Klar, aber dei Software geht
    > genau in die andere Richtung. Sie fordet immer
    > mehr GPU-Leistung für einfachste Aufgaben.


    Na und? Selbst wenn nun jedes OS 3D-Desktops hat... Die Graka wird sich nicht hochfahren, nur weil mal eine einzige 3D-Berechnung gemacht werden muss. Für leichte 3D-Sachen reicht doch der onboard-Chip dicke aus (ja, auch für Aero ^^). Des sind auch schon 3D-fähige-Chips.
    Nur wenn es dem onboard-Chip zuviel wird, wird wohl die Grafikkarte aktiviert.

  6. Re: Ist doch Quatsch!

    Autor: GrinderFX 18.01.08 - 13:51

    Metzlor schrieb:
    -------------------------------------------------------
    > Weil die GPU in einigen Anwendungsbereichen
    > schneller ist, würdest du z. B. ein Film umwandeln
    > und brauchst dafür nur 1 Std. (mit Graka) und 2
    > Std. (ohne Graka) und stellst den PC nach 1 Std.
    > ab statt nach 2 hast du im endeffekt strom
    > gespart!


    Jippi, wir zaubern!!!!!

    Wie drück ich das jetzt am charmantesten aus, das ist total falsch was du da schreibst.
    Bei der berechnung von 2 stunden ohne grafikkarte verbraucht der viel weniger leistung. Mit zugeschalteter grafikkarte ist der verbrauch deutschlich höher und somit kommt man im schnitt auf das selbe.
    Somit ist es also scheiß egal, ob der rechner 2 stunden mit wenig verbrauch oder 1 stunde mit viel verbrauch läuft.

  7. Re: Ist doch Quatsch!

    Autor: Kord Wopersnow 18.01.08 - 14:25

    ()s schrieb:
    -------------------------------------------------------
    > Immer mehr Applikationen beschleunigen die
    > Darstellung mittels der GPU.

    Warum auch nicht. Da wo es sinnvoll/nötig ist ist das auch OK.
    Es geht ja auch nicht darum das mal ALLE GPUs abschaltet, sondern eben nur die, die nicht benötigt werden. Die einfachen und sparsameren GPUs (z.B. Onboard) arbeiten weiter und stehen für die Software zur Verfügung, nur das dann eben nicht der Boliden-Kern arbeitet.

    Von der Idee her eine sehr gute Sache.
    So könnte ich bei mir mit der 08/15-GPU meine Schreibarbeiten erledigen und nur ab und an, wenn mal Zeit und Bedarf ist, die Spieletauglichere GPU einschalten.

    Immerhin, das Thema Stromeinsparung ist ja nicht erst seit dem CO2-Hype ein Thema hier bei Golem oder "drüben" bei Heise.
    In sofern finde ich es nur konsequet das in diesem Bereich mal was passiert.

  8. Re: Ist doch Quatsch!

    Autor: T4G57$1 18.01.08 - 14:48

    GrinderFX schrieb:
    -------------------------------------------------------
    > Wie drück ich das jetzt am charmantesten aus, das
    > ist total falsch was du da schreibst.

    Es ist weder falsch, noch richtig und auch nicht "deutschlich" (was auch immer das heißen mag).

    Es ist einfach spekulativ.

    Es sind durchaus Szenarien denkbar bei denen der Performacne-Gewinn durch den Einsatz einer GPU den erhöhten Energiebedarf ausgleicht oder sogar überkompensiert, wie auch welche denkbar sind, bei denen das nicht der Fall ist.
    Man kann einzelne Fälle anhand von Benchmarks und Messungen bewerten und kann je nach Testszenario zu unterschiedlichen Ergebnissen kommen - "falsch" ist nur die Generalisierung.


  9. Re: Ist doch Quatsch!

    Autor: sparfuchs 18.01.08 - 14:53

    Metzlor schrieb:
    -------------------------------------------------------
    > Weil die GPU in einigen Anwendungsbereichen
    > schneller ist, würdest du z. B. ein Film umwandeln
    > und brauchst dafür nur 1 Std. (mit Graka) und 2
    > Std. (ohne Graka) und stellst den PC nach 1 Std.
    > ab statt nach 2 hast du im endeffekt strom
    > gespart!
    >

    Genau! Deswegen fege ich auch immer mit 250 über die Bahn. Da ist man viel schneller am Ziel, kann das Auto abstellen und hat demnach einiges an Sprit gespart :D ...

  10. Re: Ist doch Quatsch!

    Autor: aldkasdlkj 18.01.08 - 16:26

    So'n Quatsch !!:-))

    Deshalb sag isch ... das ist das ENDE von 2D und 3D Karten und von dieser Woche !!!!!

    Ich troll mich jetzt in den Feierabend !!!

    Ab Montag geht's Getrolle weiter ;-)

  11. Finde ich nicht.

    Autor: medsommer 18.01.08 - 17:26

    > Somit ist es also scheiß egal, ob der rechner 2
    > stunden mit wenig verbrauch oder 1 stunde mit viel
    > verbrauch läuft.

    Also ich würde mich freuen, z.B. eine Stunde eher ins Bett zu gehen oder die Kiste einfach öfters mal ausmachen zu können etc etc. Wenn Leistung dazu gut ist, Aufgaben schneller zu machen, ist das doch nichts schlechtes.

    Grüße

    medsommer


  12. Re: Ist doch Quatsch!

    Autor: Flow77 19.01.08 - 09:59

    Ich verstehe jetzt hier nicht dein Problem, denn wer sagt denn dass das Betriebsystem keine Features von modernen Grafikkarten nutzen darf? Es geht doch eiegntlich darum, dass gerade bei SLI-Systemen nicht unnötig Stromg gefressen wird, wenn für Office, Filme und dergleichen eigentlich auch eine Onboard-Grafikkarte ausreichen würde. Und wenn die von NVidia kommt, dann kann die sicher solche Sachen wie HD-Videos ebschleunigen, Aero Oberfläche,....

    Oder habe ich das jetztf alsch verstanden?
    Wenn ich's richtig verstanden habe, finde ich das sehr genial. Weil im prinzip habe ich nichts gegen SLI-Systeme, wenn ich mal zocken will, dann will ich einfach coole Grafik und da ist es mri auch egal wenn das Ding Stromg frisst ohne Ende. Aber die meiste Zeit verbringe ich doch vor dem Rechner um zu arbeiten und das würde bei 8 Stunden pro Tag im Jahr eine ganz schöne Stromrechnung ergeben.

    ()s schrieb:
    -------------------------------------------------------
    > Immer mehr Applikationen beschleunigen die
    > Darstellung mittels der GPU. Vektorgrafiken, GUI,
    > MPEG/Video, etc. Teilweise wird die GPU auch schon
    > genutzt für Arbeiten die gar nichts mit
    > Grafik/Darstellung zu tun haben.
    >
    > Also läuft die GPU auch wenn man keine
    > 3D-Anwendung nutzt volle Hotte. Zum Beispiel wenn
    > man eine DVD guckt, erstrecht bei HD-Videos. Und
    > dann pfeift der Lüfter. Ganz toll. Das moderne
    > Betriebsysteme (MacOSX, Vista, aber u. U. auch ein
    > Linux-Desktop)im 2-Desktopbetrieb schon recht hohe
    > Grafikanforderungen stellen kommt noch hinzu. Wenn
    > ich da keine Möglichkeit im OS habe (die sich nach
    > Möglichkeit auf jedenfall durchsetzt, oft mein das
    > Betriebsystem ja besser zu wissen was man gerade
    > will, speziell nVidia-Treiber-Menus) mit der ich
    > eien Gang runterfahren kann, dann ist das eifnach
    > für die Katz.
    >
    > MacOSX hat angefangen, nach dem Motto "oh wir
    > haben doch eien GPU die sich den ganzen Tag
    > langweilt, also nutzen wir diese doch für die GUI,
    > gib dem Affen Zucker, volle Fahrt voraus, das
    > Gerät muss glühen". udn nun haben wir diese Pest
    > überall!
    >
    > GPU im Sparmodus? Klar, aber dei Software geht
    > genau in die andere Richtung. Sie fordet immer
    > mehr GPU-Leistung für einfachste Aufgaben.


  13. Re: Finde ich nicht.

    Autor: Irgendwer 19.01.08 - 11:09

    Das Bett-Argument zählt nicht. Es gibt Programme die den Rechner nach beenden der Arbeit automatisch runterfahren.

    medsommer schrieb:
    -------------------------------------------------------
    > > Somit ist es also scheiß egal, ob der rechner
    > 2
    > stunden mit wenig verbrauch oder 1 stunde
    > mit viel
    > verbrauch läuft.
    >
    > Also ich würde mich freuen, z.B. eine Stunde eher
    > ins Bett zu gehen oder die Kiste einfach öfters
    > mal ausmachen zu können etc etc. Wenn Leistung
    > dazu gut ist, Aufgaben schneller zu machen, ist
    > das doch nichts schlechtes.
    >
    > Grüße
    >
    > medsommer
    >
    >


  14. Re: Ist doch Quatsch!

    Autor: Irgendwer 19.01.08 - 11:13

    Das lässt sich wohl kaum vergleichen. Die Grafikkarte ist unter Umständen für solche Aufgaben wie z.B. Videokodierung durch spezielle Hardware optimiert und kann dadurch vielleicht die Aufgabe in 30 Minuten erledigen und der Prozessor braucht wegen der fehlenden Optimierung mit der reinen Softwarelösung vielleicht 2 Stunden.
    Wenn du allerdings ein Auto hast welches für 250 km/h optimiert wurde (Düsentriebwerk?) nehme ich alles zurück. ;)

    sparfuchs schrieb:
    -------------------------------------------------------
    >
    > Genau! Deswegen fege ich auch immer mit 250 über
    > die Bahn. Da ist man viel schneller am Ziel, kann
    > das Auto abstellen und hat demnach einiges an
    > Sprit gespart :D ...
    >


  15. Ist völlig logisch!

    Autor: gonzohuerth 21.01.08 - 14:42

    Ich sehe das ähnlich wie du, wenn ichc 3 Stunden am PC schreibe (Studenten Zocken ja nicht nur) dann brauche ich nicht den Strom bezahlen, den meine völlig unterforderte Grafikkarte verbrät. Da reicht mir doch meine onboard-Lösung.

    Naja, aber wie es das Schiksal so will, der Gedanke kam mir vor nem halben Jahr schonmal wo nVidia wieder irgendwas mit SLI vorgestellt hatte und mich mir gedacht habe, wieso das nicht auch mit meinem onboard-Chip geht, der nur auf dem Board versauert.

    Insofern find ich das auch ne sehr gute Lösung


    Flow77 schrieb:
    -------------------------------------------------------
    > Ich verstehe jetzt hier nicht dein Problem, denn
    > wer sagt denn dass das Betriebsystem keine
    > Features von modernen Grafikkarten nutzen darf? Es
    > geht doch eiegntlich darum, dass gerade bei
    > SLI-Systemen nicht unnötig Stromg gefressen wird,
    > wenn für Office, Filme und dergleichen eigentlich
    > auch eine Onboard-Grafikkarte ausreichen würde.
    > Und wenn die von NVidia kommt, dann kann die
    > sicher solche Sachen wie HD-Videos ebschleunigen,
    > Aero Oberfläche,....
    >
    > Oder habe ich das jetztf alsch verstanden?
    > Wenn ich's richtig verstanden habe, finde ich das
    > sehr genial. Weil im prinzip habe ich nichts
    > gegen SLI-Systeme, wenn ich mal zocken will, dann
    > will ich einfach coole Grafik und da ist es mri
    > auch egal wenn das Ding Stromg frisst ohne Ende.
    > Aber die meiste Zeit verbringe ich doch vor dem
    > Rechner um zu arbeiten und das würde bei 8 Stunden
    > pro Tag im Jahr eine ganz schöne Stromrechnung
    > ergeben.
    >


Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Divimove GmbH, Berlin
  2. BWI GmbH, Bonn, München
  3. ETIMEX Technical Components GmbH, Großraum Ulm
  4. Landesbetrieb Straßenbau NRW, Nordrhein-Westfalen

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. 119,90€


Haben wir etwas übersehen?

E-Mail an news@golem.de


15 Jahre Extreme Edition: Als Intel noch AMD zuvorkommen musste
15 Jahre Extreme Edition
Als Intel noch AMD zuvorkommen musste

Seit 2003 verkauft Intel seine CPU-Topmodelle für Spieler und Enthusiasten als Extreme Edition. Wir blicken zurück auf 15 Jahre voller zweckentfremdeter Xeon-Chips, Mainboards mit Totenschädeln und extremer Prozessoren, die mit Phasenkühlung demonstriert wurden.
Von Marc Sauter

  1. Quartalszahlen Intel legt 19-Milliarden-USD-Rekord vor
  2. Ryan Shrout US-Journalist wird Chief Performance Strategist bei Intel
  3. Iris GPU Intel baut neuen und schnelleren Grafiktreiber unter Linux

Dark Rock Pro TR4 im Test: Be Quiet macht den Threadripper still
Dark Rock Pro TR4 im Test
Be Quiet macht den Threadripper still

Mit dem Dark Rock Pro TR4 hat Be Quiet einen tiefschwarzen CPU-Kühler für AMDs Threadripper im Angebot. Er überzeugt durch Leistung und den leisen Betrieb, bei Montage und Speicherkompatiblität liegt die Konkurrenz vorne. Die ist aber optisch teils deutlich weniger zurückhaltend.
Ein Test von Marc Sauter

  1. Dark Rock Pro TR4 Be Quiets schwarzer Doppelturm kühlt 32 Threadripper-Kerne

Dell Ultrasharp 49 im Test: Pervers und luxuriös
Dell Ultrasharp 49 im Test
Pervers und luxuriös

Dell bringt mit dem Ultrasharp 49 zwei QHD-Monitore in einem, quasi einen Doppelmonitor. Es könnte sein, dass wir uns im Test ein kleines bisschen in ihn verliebt haben.
Ein Test von Michael Wieczorek

  1. Magicscroll Mobiles Gerät hat rollbares Display zum Herausziehen
  2. CJG50 Samsungs 32-Zoll-Gaming-Monitor kostet 430 Euro
  3. Agon AG322QC4 Aggressiv aussehender 31,5-Zoll-Monitor kommt für 600 Euro

  1. FTTH/B: Nur 8,5 Prozent der deutschen Haushalte haben Glasfaser
    FTTH/B
    Nur 8,5 Prozent der deutschen Haushalte haben Glasfaser

    Besonders in Bundesländern ohne kommunale Netzbetreiber sieht die Glasfaserversorgung (FTTB/H) schlimm aus. Das belegen aktuelle Angaben der Bundesregierung. Schleswig-Holstein steht wegen seiner klugen Förderpolitik am besten da.

  2. Buglas: Stadtnetzbetreiber wollen Open Access für 5G-Netze
    Buglas
    Stadtnetzbetreiber wollen Open Access für 5G-Netze

    Kommunale Netzbetreiber haben eigene Pläne für lokale Mobilfunknetze. Anderen Netzbetreibern will man Open-Access-Zugang gewähren.

  3. Förderung: Verzicht auf Vectoring kostet viele Millionen Euro
    Förderung
    Verzicht auf Vectoring kostet viele Millionen Euro

    Das Upgrade von Vectoring auf Glasfaser für die Kommunen kostet einige hundert Millionen Euro. Doch auch andere Kosten steigen stark an.


  1. 22:01

  2. 21:24

  3. 20:49

  4. 20:12

  5. 18:52

  6. 18:05

  7. 17:57

  8. 17:27