Abo
  1. Foren
  2. Kommentare
  3. PC-Hardware
  4. Alle Kommentare zum Artikel
  5. › Neue Nvidia-Chipsätze: Stromsparen…

Ist doch Quatsch!

  1. Thema

Neues Thema Ansicht wechseln


  1. Ist doch Quatsch!

    Autor: ()s 18.01.08 - 02:12

    Immer mehr Applikationen beschleunigen die Darstellung mittels der GPU. Vektorgrafiken, GUI, MPEG/Video, etc. Teilweise wird die GPU auch schon genutzt für Arbeiten die gar nichts mit Grafik/Darstellung zu tun haben.

    Also läuft die GPU auch wenn man keine 3D-Anwendung nutzt volle Hotte. Zum Beispiel wenn man eine DVD guckt, erstrecht bei HD-Videos. Und dann pfeift der Lüfter. Ganz toll. Das moderne Betriebsysteme (MacOSX, Vista, aber u. U. auch ein Linux-Desktop)im 2-Desktopbetrieb schon recht hohe Grafikanforderungen stellen kommt noch hinzu. Wenn ich da keine Möglichkeit im OS habe (die sich nach Möglichkeit auf jedenfall durchsetzt, oft mein das Betriebsystem ja besser zu wissen was man gerade will, speziell nVidia-Treiber-Menus) mit der ich eien Gang runterfahren kann, dann ist das eifnach für die Katz.

    MacOSX hat angefangen, nach dem Motto "oh wir haben doch eien GPU die sich den ganzen Tag langweilt, also nutzen wir diese doch für die GUI, gib dem Affen Zucker, volle Fahrt voraus, das Gerät muss glühen". udn nun haben wir diese Pest überall!

    GPU im Sparmodus? Klar, aber dei Software geht genau in die andere Richtung. Sie fordet immer mehr GPU-Leistung für einfachste Aufgaben.

  2. Re: Ist doch Quatsch!

    Autor: Metzlor 18.01.08 - 03:37

    ()s schrieb:
    -------------------------------------------------------
    > Immer mehr Applikationen beschleunigen die
    > Darstellung mittels der GPU. Vektorgrafiken, GUI,
    > MPEG/Video, etc. Teilweise wird die GPU auch schon
    > genutzt für Arbeiten die gar nichts mit
    > Grafik/Darstellung zu tun haben.

    Weil die GPU in einigen Anwendungsbereichen schneller ist, würdest du z. B. ein Film umwandeln und brauchst dafür nur 1 Std. (mit Graka) und 2 Std. (ohne Graka) und stellst den PC nach 1 Std. ab statt nach 2 hast du im endeffekt strom gespart!

    >
    > Also läuft die GPU auch wenn man keine
    > 3D-Anwendung nutzt volle Hotte. Zum Beispiel wenn
    > man eine DVD guckt, erstrecht bei HD-Videos. Und
    > dann pfeift der Lüfter. Ganz toll. Das moderne
    > Betriebsysteme (MacOSX, Vista, aber u. U. auch ein
    > Linux-Desktop)im 2-Desktopbetrieb schon recht hohe
    > Grafikanforderungen stellen kommt noch hinzu. Wenn
    > ich da keine Möglichkeit im OS habe (die sich nach
    > Möglichkeit auf jedenfall durchsetzt, oft mein das
    > Betriebsystem ja besser zu wissen was man gerade
    > will, speziell nVidia-Treiber-Menus) mit der ich
    > eien Gang runterfahren kann, dann ist das eifnach
    > für die Katz.

    OS != Treiber, bzw. Treibermenus

    >
    > MacOSX hat angefangen, nach dem Motto "oh wir
    > haben doch eien GPU die sich den ganzen Tag
    > langweilt, also nutzen wir diese doch für die GUI,
    > gib dem Affen Zucker, volle Fahrt voraus, das
    > Gerät muss glühen". udn nun haben wir diese Pest
    > überall!

    Im Normalfall kann man diesen Schnickschnack ausschalten, ich kenne genug Leute die immer noch den Win95 Style bei Win XP benutzen.

    >
    > GPU im Sparmodus? Klar, aber dei Software geht
    > genau in die andere Richtung. Sie fordet immer
    > mehr GPU-Leistung für einfachste Aufgaben.

    Es kommt immer auf die Software an, oft kann man irgendwo einstellen, ob die GPU mitbenutzt werden kann, sonst würde die Software ja mit älteren GPU`s nicht mehr funktionieren.

  3. Re: Ist doch Quatsch!

    Autor: a 18.01.08 - 07:15

    mein gott, was gibts für leute...

    das ist genial! (auch wenn es "schlecht" für AMDs karten ist, bzw. verdammt gut ist und den Vorteil von Ati-Karten zunichte macht, wenn da nichts nach kommt)

    Ich bin z.b. einer dieser Leute, die auf Win-Klassik mit "optimierung" fahren, dh., keine abgerundeten Fenster usw. - (das "optimierung" ist überflüssig, das merkt kein Mensch, aber habe mich an das design einfach gewöhnt und es gefällt mir 100x besser als der xp-style - ganz zu schweigen von vista.)

    Ich verwende auch linux.


    und, die onboard grafik wird zumindest unter linux mit sicherheit ohne probleme mit dem 3d-desktop, soweit treiber usw. passen (wird ja immer besser mit nvidia und ati) flutschen - da reicht die leistung einer gforce2 aus, was die 8200 onboard doch durchaus leisten könnnen wird? (für die restlichen gimmics reichts auf jeden fall)

    Und schon mal an die ganzen "semi-hauspcs" gedacht?

    das wird eine menge energie sparen - wird aber noch 3-5 Jahre dauern, bis die Engergie-Spar-Techniken bei Grafikkarten in dieser Klasse weit verbreiten sind.


    Auf Büro-Rechnern wirst du keine Vista-Dumm-Oberflächen finden, bzw. kaum, denn die laufen natürlich auch mit onboard grafik, was ja auch vernünftig ist, und geld in anschaffung und im verbrauch spart und natürlich sind standard-büro-rechner für 400 euro (mit 2, 3 Jahres-support 5xx evtl) absolut gut genug, um damit die gängigen Anwendungen einwandfrei zu verwenden.




    Metzlor schrieb:
    -------------------------------------------------------
    > ()s schrieb:
    > --------------------------------------------------
    > -----
    > > Immer mehr Applikationen beschleunigen
    > die
    > Darstellung mittels der GPU.
    > Vektorgrafiken, GUI,
    > MPEG/Video, etc.
    > Teilweise wird die GPU auch schon
    > genutzt für
    > Arbeiten die gar nichts mit
    >
    > Grafik/Darstellung zu tun haben.
    >
    > Weil die GPU in einigen Anwendungsbereichen
    > schneller ist, würdest du z. B. ein Film umwandeln
    > und brauchst dafür nur 1 Std. (mit Graka) und 2
    > Std. (ohne Graka) und stellst den PC nach 1 Std.
    > ab statt nach 2 hast du im endeffekt strom
    > gespart!
    >
    > >
    > Also läuft die GPU auch wenn man
    > keine
    > 3D-Anwendung nutzt volle Hotte. Zum
    > Beispiel wenn
    > man eine DVD guckt, erstrecht
    > bei HD-Videos. Und
    > dann pfeift der Lüfter.
    > Ganz toll. Das moderne
    > Betriebsysteme
    > (MacOSX, Vista, aber u. U. auch ein
    >
    > Linux-Desktop)im 2-Desktopbetrieb schon recht
    > hohe
    > Grafikanforderungen stellen kommt noch
    > hinzu. Wenn
    > ich da keine Möglichkeit im OS
    > habe (die sich nach
    > Möglichkeit auf jedenfall
    > durchsetzt, oft mein das
    > Betriebsystem ja
    > besser zu wissen was man gerade
    > will,
    > speziell nVidia-Treiber-Menus) mit der ich
    >
    > eien Gang runterfahren kann, dann ist das
    > eifnach
    > für die Katz.
    >
    > OS != Treiber, bzw. Treibermenus
    >
    > >
    > MacOSX hat angefangen, nach dem Motto
    > "oh wir
    > haben doch eien GPU die sich den
    > ganzen Tag
    > langweilt, also nutzen wir diese
    > doch für die GUI,
    > gib dem Affen Zucker, volle
    > Fahrt voraus, das
    > Gerät muss glühen". udn nun
    > haben wir diese Pest
    > überall!
    >
    > Im Normalfall kann man diesen Schnickschnack
    > ausschalten, ich kenne genug Leute die immer noch
    > den Win95 Style bei Win XP benutzen.
    >
    > >
    > GPU im Sparmodus? Klar, aber dei
    > Software geht
    > genau in die andere Richtung.
    > Sie fordet immer
    > mehr GPU-Leistung für
    > einfachste Aufgaben.
    >
    > Es kommt immer auf die Software an, oft kann man
    > irgendwo einstellen, ob die GPU mitbenutzt werden
    > kann, sonst würde die Software ja mit älteren
    > GPU`s nicht mehr funktionieren.


  4. Re: Ist doch Quatsch!

    Autor: kein Quatsch 18.01.08 - 08:06

    Die Onboard Grafikkarten reichen selbst für Vista voll und ganz aus!
    Zielgruppe sind eh die Wohnzimmer-PCs die 16 Stunden am Tag oder länder laufen und dabei 12 Stunden nur Musik abspielen oder mal einen Film.
    Und die Hardwaredecodierung ist auch auf dem MB - nicht nur auf der GPU.
    Also braucht die Grafikkarte ja wohl nur eingeschaltet werden wenn sie zum Spielen gebraucht wird.

  5. Re: Ist doch Quatsch!

    Autor: masda 18.01.08 - 09:55

    ()s schrieb:
    -------------------------------------------------------
    > Immer mehr Applikationen beschleunigen die
    > Darstellung mittels der GPU. Vektorgrafiken, GUI,
    > MPEG/Video, etc. Teilweise wird die GPU auch schon
    > genutzt für Arbeiten die gar nichts mit
    > Grafik/Darstellung zu tun haben.
    >
    > Also läuft die GPU auch wenn man keine
    > 3D-Anwendung nutzt volle Hotte. Zum Beispiel wenn
    > man eine DVD guckt, erstrecht bei HD-Videos. Und
    > dann pfeift der Lüfter. Ganz toll. Das moderne
    > Betriebsysteme (MacOSX, Vista, aber u. U. auch ein
    > Linux-Desktop)im 2-Desktopbetrieb schon recht hohe
    > Grafikanforderungen stellen kommt noch hinzu. Wenn
    > ich da keine Möglichkeit im OS habe (die sich nach
    > Möglichkeit auf jedenfall durchsetzt, oft mein das
    > Betriebsystem ja besser zu wissen was man gerade
    > will, speziell nVidia-Treiber-Menus) mit der ich
    > eien Gang runterfahren kann, dann ist das eifnach
    > für die Katz.
    >
    > MacOSX hat angefangen, nach dem Motto "oh wir
    > haben doch eien GPU die sich den ganzen Tag
    > langweilt, also nutzen wir diese doch für die GUI,
    > gib dem Affen Zucker, volle Fahrt voraus, das
    > Gerät muss glühen". udn nun haben wir diese Pest
    > überall!
    >
    > GPU im Sparmodus? Klar, aber dei Software geht
    > genau in die andere Richtung. Sie fordet immer
    > mehr GPU-Leistung für einfachste Aufgaben.


    Na und? Selbst wenn nun jedes OS 3D-Desktops hat... Die Graka wird sich nicht hochfahren, nur weil mal eine einzige 3D-Berechnung gemacht werden muss. Für leichte 3D-Sachen reicht doch der onboard-Chip dicke aus (ja, auch für Aero ^^). Des sind auch schon 3D-fähige-Chips.
    Nur wenn es dem onboard-Chip zuviel wird, wird wohl die Grafikkarte aktiviert.

  6. Re: Ist doch Quatsch!

    Autor: GrinderFX 18.01.08 - 13:51

    Metzlor schrieb:
    -------------------------------------------------------
    > Weil die GPU in einigen Anwendungsbereichen
    > schneller ist, würdest du z. B. ein Film umwandeln
    > und brauchst dafür nur 1 Std. (mit Graka) und 2
    > Std. (ohne Graka) und stellst den PC nach 1 Std.
    > ab statt nach 2 hast du im endeffekt strom
    > gespart!


    Jippi, wir zaubern!!!!!

    Wie drück ich das jetzt am charmantesten aus, das ist total falsch was du da schreibst.
    Bei der berechnung von 2 stunden ohne grafikkarte verbraucht der viel weniger leistung. Mit zugeschalteter grafikkarte ist der verbrauch deutschlich höher und somit kommt man im schnitt auf das selbe.
    Somit ist es also scheiß egal, ob der rechner 2 stunden mit wenig verbrauch oder 1 stunde mit viel verbrauch läuft.

  7. Re: Ist doch Quatsch!

    Autor: Kord Wopersnow 18.01.08 - 14:25

    ()s schrieb:
    -------------------------------------------------------
    > Immer mehr Applikationen beschleunigen die
    > Darstellung mittels der GPU.

    Warum auch nicht. Da wo es sinnvoll/nötig ist ist das auch OK.
    Es geht ja auch nicht darum das mal ALLE GPUs abschaltet, sondern eben nur die, die nicht benötigt werden. Die einfachen und sparsameren GPUs (z.B. Onboard) arbeiten weiter und stehen für die Software zur Verfügung, nur das dann eben nicht der Boliden-Kern arbeitet.

    Von der Idee her eine sehr gute Sache.
    So könnte ich bei mir mit der 08/15-GPU meine Schreibarbeiten erledigen und nur ab und an, wenn mal Zeit und Bedarf ist, die Spieletauglichere GPU einschalten.

    Immerhin, das Thema Stromeinsparung ist ja nicht erst seit dem CO2-Hype ein Thema hier bei Golem oder "drüben" bei Heise.
    In sofern finde ich es nur konsequet das in diesem Bereich mal was passiert.

  8. Re: Ist doch Quatsch!

    Autor: T4G57$1 18.01.08 - 14:48

    GrinderFX schrieb:
    -------------------------------------------------------
    > Wie drück ich das jetzt am charmantesten aus, das
    > ist total falsch was du da schreibst.

    Es ist weder falsch, noch richtig und auch nicht "deutschlich" (was auch immer das heißen mag).

    Es ist einfach spekulativ.

    Es sind durchaus Szenarien denkbar bei denen der Performacne-Gewinn durch den Einsatz einer GPU den erhöhten Energiebedarf ausgleicht oder sogar überkompensiert, wie auch welche denkbar sind, bei denen das nicht der Fall ist.
    Man kann einzelne Fälle anhand von Benchmarks und Messungen bewerten und kann je nach Testszenario zu unterschiedlichen Ergebnissen kommen - "falsch" ist nur die Generalisierung.


  9. Re: Ist doch Quatsch!

    Autor: sparfuchs 18.01.08 - 14:53

    Metzlor schrieb:
    -------------------------------------------------------
    > Weil die GPU in einigen Anwendungsbereichen
    > schneller ist, würdest du z. B. ein Film umwandeln
    > und brauchst dafür nur 1 Std. (mit Graka) und 2
    > Std. (ohne Graka) und stellst den PC nach 1 Std.
    > ab statt nach 2 hast du im endeffekt strom
    > gespart!
    >

    Genau! Deswegen fege ich auch immer mit 250 über die Bahn. Da ist man viel schneller am Ziel, kann das Auto abstellen und hat demnach einiges an Sprit gespart :D ...

  10. Re: Ist doch Quatsch!

    Autor: aldkasdlkj 18.01.08 - 16:26

    So'n Quatsch !!:-))

    Deshalb sag isch ... das ist das ENDE von 2D und 3D Karten und von dieser Woche !!!!!

    Ich troll mich jetzt in den Feierabend !!!

    Ab Montag geht's Getrolle weiter ;-)

  11. Finde ich nicht.

    Autor: medsommer 18.01.08 - 17:26

    > Somit ist es also scheiß egal, ob der rechner 2
    > stunden mit wenig verbrauch oder 1 stunde mit viel
    > verbrauch läuft.

    Also ich würde mich freuen, z.B. eine Stunde eher ins Bett zu gehen oder die Kiste einfach öfters mal ausmachen zu können etc etc. Wenn Leistung dazu gut ist, Aufgaben schneller zu machen, ist das doch nichts schlechtes.

    Grüße

    medsommer


  12. Re: Ist doch Quatsch!

    Autor: Flow77 19.01.08 - 09:59

    Ich verstehe jetzt hier nicht dein Problem, denn wer sagt denn dass das Betriebsystem keine Features von modernen Grafikkarten nutzen darf? Es geht doch eiegntlich darum, dass gerade bei SLI-Systemen nicht unnötig Stromg gefressen wird, wenn für Office, Filme und dergleichen eigentlich auch eine Onboard-Grafikkarte ausreichen würde. Und wenn die von NVidia kommt, dann kann die sicher solche Sachen wie HD-Videos ebschleunigen, Aero Oberfläche,....

    Oder habe ich das jetztf alsch verstanden?
    Wenn ich's richtig verstanden habe, finde ich das sehr genial. Weil im prinzip habe ich nichts gegen SLI-Systeme, wenn ich mal zocken will, dann will ich einfach coole Grafik und da ist es mri auch egal wenn das Ding Stromg frisst ohne Ende. Aber die meiste Zeit verbringe ich doch vor dem Rechner um zu arbeiten und das würde bei 8 Stunden pro Tag im Jahr eine ganz schöne Stromrechnung ergeben.

    ()s schrieb:
    -------------------------------------------------------
    > Immer mehr Applikationen beschleunigen die
    > Darstellung mittels der GPU. Vektorgrafiken, GUI,
    > MPEG/Video, etc. Teilweise wird die GPU auch schon
    > genutzt für Arbeiten die gar nichts mit
    > Grafik/Darstellung zu tun haben.
    >
    > Also läuft die GPU auch wenn man keine
    > 3D-Anwendung nutzt volle Hotte. Zum Beispiel wenn
    > man eine DVD guckt, erstrecht bei HD-Videos. Und
    > dann pfeift der Lüfter. Ganz toll. Das moderne
    > Betriebsysteme (MacOSX, Vista, aber u. U. auch ein
    > Linux-Desktop)im 2-Desktopbetrieb schon recht hohe
    > Grafikanforderungen stellen kommt noch hinzu. Wenn
    > ich da keine Möglichkeit im OS habe (die sich nach
    > Möglichkeit auf jedenfall durchsetzt, oft mein das
    > Betriebsystem ja besser zu wissen was man gerade
    > will, speziell nVidia-Treiber-Menus) mit der ich
    > eien Gang runterfahren kann, dann ist das eifnach
    > für die Katz.
    >
    > MacOSX hat angefangen, nach dem Motto "oh wir
    > haben doch eien GPU die sich den ganzen Tag
    > langweilt, also nutzen wir diese doch für die GUI,
    > gib dem Affen Zucker, volle Fahrt voraus, das
    > Gerät muss glühen". udn nun haben wir diese Pest
    > überall!
    >
    > GPU im Sparmodus? Klar, aber dei Software geht
    > genau in die andere Richtung. Sie fordet immer
    > mehr GPU-Leistung für einfachste Aufgaben.


  13. Re: Finde ich nicht.

    Autor: Irgendwer 19.01.08 - 11:09

    Das Bett-Argument zählt nicht. Es gibt Programme die den Rechner nach beenden der Arbeit automatisch runterfahren.

    medsommer schrieb:
    -------------------------------------------------------
    > > Somit ist es also scheiß egal, ob der rechner
    > 2
    > stunden mit wenig verbrauch oder 1 stunde
    > mit viel
    > verbrauch läuft.
    >
    > Also ich würde mich freuen, z.B. eine Stunde eher
    > ins Bett zu gehen oder die Kiste einfach öfters
    > mal ausmachen zu können etc etc. Wenn Leistung
    > dazu gut ist, Aufgaben schneller zu machen, ist
    > das doch nichts schlechtes.
    >
    > Grüße
    >
    > medsommer
    >
    >


  14. Re: Ist doch Quatsch!

    Autor: Irgendwer 19.01.08 - 11:13

    Das lässt sich wohl kaum vergleichen. Die Grafikkarte ist unter Umständen für solche Aufgaben wie z.B. Videokodierung durch spezielle Hardware optimiert und kann dadurch vielleicht die Aufgabe in 30 Minuten erledigen und der Prozessor braucht wegen der fehlenden Optimierung mit der reinen Softwarelösung vielleicht 2 Stunden.
    Wenn du allerdings ein Auto hast welches für 250 km/h optimiert wurde (Düsentriebwerk?) nehme ich alles zurück. ;)

    sparfuchs schrieb:
    -------------------------------------------------------
    >
    > Genau! Deswegen fege ich auch immer mit 250 über
    > die Bahn. Da ist man viel schneller am Ziel, kann
    > das Auto abstellen und hat demnach einiges an
    > Sprit gespart :D ...
    >


  15. Ist völlig logisch!

    Autor: gonzohuerth 21.01.08 - 14:42

    Ich sehe das ähnlich wie du, wenn ichc 3 Stunden am PC schreibe (Studenten Zocken ja nicht nur) dann brauche ich nicht den Strom bezahlen, den meine völlig unterforderte Grafikkarte verbrät. Da reicht mir doch meine onboard-Lösung.

    Naja, aber wie es das Schiksal so will, der Gedanke kam mir vor nem halben Jahr schonmal wo nVidia wieder irgendwas mit SLI vorgestellt hatte und mich mir gedacht habe, wieso das nicht auch mit meinem onboard-Chip geht, der nur auf dem Board versauert.

    Insofern find ich das auch ne sehr gute Lösung


    Flow77 schrieb:
    -------------------------------------------------------
    > Ich verstehe jetzt hier nicht dein Problem, denn
    > wer sagt denn dass das Betriebsystem keine
    > Features von modernen Grafikkarten nutzen darf? Es
    > geht doch eiegntlich darum, dass gerade bei
    > SLI-Systemen nicht unnötig Stromg gefressen wird,
    > wenn für Office, Filme und dergleichen eigentlich
    > auch eine Onboard-Grafikkarte ausreichen würde.
    > Und wenn die von NVidia kommt, dann kann die
    > sicher solche Sachen wie HD-Videos ebschleunigen,
    > Aero Oberfläche,....
    >
    > Oder habe ich das jetztf alsch verstanden?
    > Wenn ich's richtig verstanden habe, finde ich das
    > sehr genial. Weil im prinzip habe ich nichts
    > gegen SLI-Systeme, wenn ich mal zocken will, dann
    > will ich einfach coole Grafik und da ist es mri
    > auch egal wenn das Ding Stromg frisst ohne Ende.
    > Aber die meiste Zeit verbringe ich doch vor dem
    > Rechner um zu arbeiten und das würde bei 8 Stunden
    > pro Tag im Jahr eine ganz schöne Stromrechnung
    > ergeben.
    >


Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. CSL Behring GmbH, Marburg, Hattersheim am Main
  2. Robert Bosch GmbH, Stuttgart
  3. Eurowings Aviation GmbH, Köln
  4. thyssenkrupp AG, Essen

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Samsung Galaxy Note 9 Duos N960F/DS 128 GB für 699€ inkl. Direktabzug und Apple iPhone XS...
  2. 55,70€
  3. 79,99€ (Vergleichspreis ca. 100€)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Geforce RTX 2060 im Test: Gute Karte zum gutem Preis mit Speicher-Aber
Geforce RTX 2060 im Test
Gute Karte zum gutem Preis mit Speicher-Aber

Mit der Geforce RTX 2060 hat Nvidia die bisher günstigste Grafikkarte mit Turing-Architektur veröffentlicht. Für 370 Euro erhalten Spieler genug Leistung für 1080p oder 1440p und sogar für Raytracing, bei vollen Schatten- oder Textur-Details wird es aber in seltenen Fällen ruckelig.
Ein Test von Marc Sauter

  1. Grafikkarte Geforce GTX 1660 Ti soll 1.536 Shader haben
  2. Geforce RTX 2060 Founder's Edition kostet 370 Euro
  3. Turing-Architektur Nvidia stellt schnelle Geforce RTX für Notebooks vor

Datenleak: Die Fehler, die 0rbit überführten
Datenleak
Die Fehler, die 0rbit überführten

Er ließ sich bei einem Hack erwischen, vermischte seine Pseudonyme und redete zu viel - Johannes S. hinterließ viele Spuren. Trotzdem brauchte die Polizei offenbar einen Hinweisgeber, um ihn als mutmaßlichen Täter im Politiker-Hack zu überführen.

  1. Datenleak Bundestagsabgeordnete sind Zwei-Faktor-Muffel
  2. Datenleak Telekom und Politiker wollen härtere Strafen für Hacker
  3. Datenleak BSI soll Frühwarnsystem für Hackerangriffe aufbauen

Vivy & Co.: Gesundheitsapps kranken an der Sicherheit
Vivy & Co.
Gesundheitsapps kranken an der Sicherheit

35C3 Mit Sicherheitsversprechen geizen die Hersteller von Gesundheitsapps wahrlich nicht. Sie halten sie jedoch oft nicht.
Von Moritz Tremmel

  1. Krankenkassen Vivy-App gibt Daten preis
  2. Krankenversicherung Der Papierkrieg geht weiter
  3. Imagen Tech KI-System Osteodetect erkennt Knochenbrüche

  1. Microsoft: Support für Windows 10 Mobile endet dieses Jahr
    Microsoft
    Support für Windows 10 Mobile endet dieses Jahr

    Microsoft hat offiziell einen Termin für das Supportende für Windows 10 Mobile bekanntgegeben. Ab Dezember 2019 wird es keine Updates mehr für das Smartphone-Betriebssystem geben. Microsoft rät zum Wechsel auf Android oder iOS.

  2. Digitaler Assistent: Google Assistant erlaubt mehrere Befehle in einem Zuruf
    Digitaler Assistent
    Google Assistant erlaubt mehrere Befehle in einem Zuruf

    Die Nutzung des Google Assistant wird einfacher. Anwender können zwei bis drei Befehle mit einem Zuruf ansagen, diese arbeitet das Gerät nacheinander ab. Der Nutzer muss nicht erst warten, bis ein Kommando ausgeführt wird.

  3. Symfonisk: Ikea bringt Sonos-kompatible Lautsprecher
    Symfonisk
    Ikea bringt Sonos-kompatible Lautsprecher

    Es gibt neue Details zur Zusammenarbeit zwischen Ikea und Sonos. Das schwedische Möbelhaus Ikea will im August Multiroom-Lautsprecher unter der Bezeichnung Symfonisk auf den Markt bringen, in denen Sonos-Technik stecken wird.


  1. 11:46

  2. 11:08

  3. 10:43

  4. 15:39

  5. 15:13

  6. 14:16

  7. 13:17

  8. 09:02