Abo
  1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › Machine Learning: Amazon…

wenn Statistik unliebsame Wahrheiten offenbart ...

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Computer_Science 11.10.18 - 13:52

    Statistik ist der Grundpfeiler all unserer wissenschaftlichen Erkenntnisse ...
    ermöglichte Meilensteine der Physik, Chemie, Medizin ...
    macht Demokratie erst möglich, da sie in Wahlen das Ergebnis ermittelt ...
    hat uns aus der Aberglaubenwelt des Mittelalters befreit ...

    aber wehe unsere zuverlässigste und objektivste, wissenschaftliche Methode produziert Ergebnisse, die gegen jede "political correctness" verstossen ... dann verfällt man beratungsresistent in Faktenleugnung, unter tosenden Applaus der SJW gleitet die Welt in die post-faktische Apokalypse.

    jeder Versicherer weiss aus eigenen Erhebungen:
    - Männer verursachen im Durchschnitt häufiger schwere Unfälle mit hohen Kosten
    - Frauen verursachen im Durchschnitt häufiger Blechschäden mit geringeren Kosten (weshalb sie meist auch bessere Versicherungskonditionen angeboten bekommen)
    - Männer sterben im Durchscnitt früher als Frauen
    - Frauen leben im Durchschnitt länger als Männer

    soweit glauben wir der Statistik (auch KI basiert darauf, denn die Gewichtungsmatrix wird damit ermittelt)
    und sind uns hier so sicher, dass Versicherer praktisch "Geldwetten" darauf abschliessen und damit auch gewinnen

    aber wehe eine Statistik/KI spuckt aus, dass Top-Entwickler jung, asiatisch/weiss, männlich sind ... dann ist das natürlich alles Humbug und kann nicht wahr sein.
    Dann liegt die unliebsame Wahrheit nicht in der Stichprobe der Trainingsdaten ... nein ... dann hat sich die KI dieses "Fehlverhalten" "selbst beigebracht" ... denn unsere KI hat schließlich Gefühle und eine Agenda und ist heimlich sowohl sexistisch als auch rassistisch.

    Liebe Journalisten ohne MINT-Studium: auch KIs kochen nur mit Wasser und die Gewichtungsmatrix wird durch die Trainigsdaten bestemmt, genauso wie das Ergebnis einer Statistik aus der gezogenen Stichprobe stammt. Niemand hat daran herumgeschraubt, die Algorithmen haben keine Gefühle oder gar politische Agenda.

    Aber wenn Ihr Euch selbst schon in die Tasche lügen wollt: lasst doch in den Trainingsdaten/Bewerbungen einfach das Geschlecht weg, dann kann es als Kriterium nicht berücksichtigt werden ... man verliert dann zwar an Präzision weil die Daten unvollständiger sind, aber egal ... verbietet allen Ärzten auch gleich das Blutdruckmesse, denn man kann Bluthochdruck auch an der Gesichtsfarbe und dem Gewicht erkennen (unvollständige Daten) ... naja, meistens ein wenig zu spät, aber egal ... Hauptsache politisch korrekt und alle fühlen sich wohl



    1 mal bearbeitet, zuletzt am 11.10.18 13:54 durch Computer_Science.

  2. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: bark 11.10.18 - 13:55

    In dem Fall war einfach die statistische Basis nicht representative.


    Computer_Science schrieb:
    --------------------------------------------------------------------------------
    > Statistik ist der Grundpfeiler all unserer wissenschaftlichen Erkenntnisse
    > ...
    > ermöglichte Meilensteine der Physik, Chemie, Medizin ...
    > macht Demokratie erst möglich, da sie in Wahlen das Ergebnis ermittelt ...
    > hat uns aus der Aberglaubenwelt des Mittelalters befreit ...
    >
    > aber wehe unsere zuverlässigste und objektivste, wissenschaftliche Methode
    > produziert Ergebnisse, die gegen jede "political correctness" verstossen
    > ... dann verfällt man beratungsresistent in Faktenleugnung, unter tosenden
    > Applaus der SJW gleitet die Welt in die post-faktische Apokalypse.
    >
    > jeder Versicherer weiss aus eigenen Erhebungen:
    > - Männer verursachen im Durchschnitt häufiger schwere Unfälle mit hohen
    > Kosten
    > - Frauen verursachen im Durchschnitt häufiger Blechschäden mit geringeren
    > Kosten (weshalb sie meist auch bessere Versicherungskonditionen angeboten
    > bekommen)
    > - Männer sterben im Durchscnitt früher als Frauen
    > - Frauen leben im Durchschnitt länger als Männer
    >
    > soweit glauben wir der Statistik (auch KI basiert darauf, denn die
    > Gewichtungsmatrix wird damit ermittelt)
    > und sind uns hier so sicher, dass Versicherer praktisch "Geldwetten" darauf
    > abschliessen und damit auch gewinnen
    >
    > aber wehe eine Statistik/KI spuckt aus, dass Top-Entwickler jung,
    > asiatisch/weiss, männlich sind ... dann ist das natürlich alles Humbug und
    > kann nicht wahr sein.
    > Dann liegt die unliebsame Wahrheit nicht in der Stichprobe der
    > Trainingsdaten ... nein ... dann hat sich die KI dieses "Fehlverhalten"
    > "selbst beigebracht" ... denn unsere KI hat schließlich Gefühle und eine
    > Agenda und ist heimlich sowohl sexistisch als auch rassistisch.
    >
    > Liebe Journalisten ohne MINT-Studium: auch KIs kochen nur mit Wasser und
    > die Gewichtungsmatrix wird durch die Trainigsdaten bestemmt, genauso wie
    > das Ergebnis einer Statistik aus der gezogenen Stichprobe stammt. Niemand
    > hat daran herumgeschraubt, die Algorithmen haben keine Gefühle oder gar
    > politische Agenda.
    >
    > Aber wenn Ihr Euch selbst schon in die Tasche lügen wollt: lasst doch in
    > den Trainingsdaten/Bewerbungen einfach das Geschlecht weg, dann kann es als
    > Kriterium nicht berücksichtigt werden ... man verliert dann zwar an
    > Präzision weil die Daten unvollständiger sind, aber egal ... verbietet
    > allen Ärzten auch gleich das Blutdruckmesse, denn man kann Bluthochdruck
    > auch an der Gesichtsfarbe und dem Gewicht erkennen (unvollständige Daten)
    > ... naja, meistens ein wenig zu spät, aber egal ... Hauptsache politisch
    > korrekt und alle fühlen sich wohl

  3. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: spag@tti_code 11.10.18 - 14:22

    Neutral heißt nicht unbedingt Fair.
    Auch Fakten können diskriminierend sein.

    z.B. Precrime: in den USA sind dunkelhäutige Menschen statistisch sehr viel häufiger kriminell als weiße. Das ist leider Fakt. Wenn die Polizei bei Stichprobenkontrollen darauf abzielt möglichst viele Treffer zu landen MUSS sie immer diskriminierend vorgehen und Menschen auf Grund ihrer Hautfarbe bevorzugt kontrollieren. Das sagt die Statistik und damit auch der "Erfahrungswert" und das "Bauchgefühl" der Cops.
    Das Problem dabei ist der selbstverstärkende Effekt: in einem schwarzen Ghetto groß zu werden heißt fast zwangsläufig Kriminell zu werden, da man von Kind auf die Erfahrung macht, dass Cops böse sind und die "weißen" einem soweiso nicht glauben wenn man ehrlich ist.
    Ein Machine-Learning-System welches dem Cop vorschlägt wer kontrolliert werden soll, wird noch diskriminierender sein als Menschen, weil sie per Design nur den "Erfahrungswerte" kennt und Faktoren wie Fairness und Gewissen keine Rolle spielen.
    Das mag zwar das Optimierungsziel möglichst viele Verbrecher zu finden optimal lösen, führt aber langfristig zu einem gesellschaftlichen Problem.

    Wenn man immer nur Aufgrund der Vergangenheit lernt, verpasst man es auch Chancen für die Zukunft aufzumachen und zementiert den Status-Quo.

    Zweiter Punkt ist, dass eine KI immer maximal so gut ist, wie die zugrundeliegenden Daten beim Training. Wenn die schon ein diskriminierendes Bias haben weil sie z.B. auf menschlichen Entscheidungen beruhen oder duruch die Sampleauswahl (wie im Artikel beschrieben), guckt sich die KI solche Verhaltensmuster vom Menschen ab und kopiert sie einfach.

  4. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Profi 11.10.18 - 14:22

    > In dem Fall war einfach die statistische Basis nicht representative.

    Dann könnte man ja einfach eine neue Basis eingeben. Da man dies nicht macht, stecken wohl noch andere Gründe dahinter.

  5. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Metalyzed 11.10.18 - 14:32

    bark schrieb:
    --------------------------------------------------------------------------------
    > In dem Fall war einfach die statistische Basis nicht representative.

    Ich würde jede Wetten eingehen. Hätte die KI am Ende mehr Frauen als Männer eingestellt bzw. bevorzugt eingestellt, dann wäre aus einer wohlwollend, positiven Entscheidung für die Frau in einem Artikel berichtet worden. Egal ob die KI richtig oder falsch liegt oder ob die Basis repräsentativ ist oder nicht.

    Das sehe ich als tiefgreifendes gesellschaftliches Problem in unserer Gesellschaft. Der weiße cis-Mann wird immer weitet zum Prügelknaben auserkoren und das Recht sich zu beschweren hat er auch nicht.

    Ich persönlich hatte bisher zum Glück noch keine Nachteile ein weißer cis-Mann zu sein oder habe es nicht wahrgenommen. Aber wenn man tagtäglich ließt, wie manche offenbar völlig zurecht benachteiligt werden, dann bekommt man Angst.

  6. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: elidor 11.10.18 - 14:34

    Und woher soll die Basis kommen? Es soll doch auf Basis echter Daten und wahrscheinlich auch der Entwicklung dieser Mitarbeiter im Unternehmen eine Maschine angelernt werden diese Entscheidungen in Zukunft besser zu treffen, als Menschen.

  7. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Michael H. 11.10.18 - 14:46

    Computer_Science schrieb:
    --------------------------------------------------------------------------------
    > ...

    Du hast einen massiven Denkfehler drin... aber richtig massiv.
    "Glaube immer nur der Statistik, die du selbst gefälscht hast." heisst es ja immer so schön.

    Ne mal im Ernst... die KI kann im Endeffekt auch nur das lernen, was ihr beigebracht wird. Die Basis dafür waren in der Vergangenheit fast ausschließlich Männer...
    Das bedeutet, dass die KI eine Statistik, auf Grund einer falschen Basis aufstellt.

    Sie geht nämlich davon aus, dass wenn 98% der Männer die bisherigen Stellen bekommen haben, diese auch besser geeignet wären als Frauen und lässt dafür Frauen auf Grund dieser Statistik rausfallen, egal wie viel sie auf dem Kasten haben.

    Damit die KI nur anhand der Qualifikation rechnet, müsste man das Merkmal "Geschlecht" weglassen. Ob ich jetzt nen Entwickler habe der klein und asiatisch ist oder ich ne Entwicklerin hab die klein und asiatisch ist, macht keinen Unterschied.. wichtig ist, wer von beiden die besseren Qualifikationen mitbringt.

  8. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Kondratieff 11.10.18 - 14:49

    Michael H. schrieb:
    --------------------------------------------------------------------------------
    > Computer_Science schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > ...
    >
    > Du hast einen massiven Denkfehler drin... aber richtig massiv.
    > "Glaube immer nur der Statistik, die du selbst gefälscht hast." heisst es
    > ja immer so schön.
    >
    > Ne mal im Ernst... die KI kann im Endeffekt auch nur das lernen, was ihr
    > beigebracht wird. Die Basis dafür waren in der Vergangenheit fast
    > ausschließlich Männer...
    > Das bedeutet, dass die KI eine Statistik, auf Grund einer falschen Basis
    > aufstellt.
    >
    > Sie geht nämlich davon aus, dass wenn 98% der Männer die bisherigen Stellen
    > bekommen haben, diese auch besser geeignet wären als Frauen und lässt dafür
    > Frauen auf Grund dieser Statistik rausfallen, egal wie viel sie auf dem
    > Kasten haben.
    >
    > Damit die KI nur anhand der Qualifikation rechnet, müsste man das Merkmal
    > "Geschlecht" weglassen. Ob ich jetzt nen Entwickler habe der klein und
    > asiatisch ist oder ich ne Entwicklerin hab die klein und asiatisch ist,
    > macht keinen Unterschied.. wichtig ist, wer von beiden die besseren
    > Qualifikationen mitbringt.

    Danke! Du hast einige der offensichtlichsten Denkfehler des TEs benannt, die auch auch schon hervorheben wollte.

  9. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Herr Unterfahren 11.10.18 - 15:01

    Metalyzed schrieb:
    --------------------------------------------------------------------------------
    > bark schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > Das sehe ich als tiefgreifendes gesellschaftliches Problem in unserer
    > Gesellschaft. Der weiße cis-Mann wird immer weitet zum Prügelknaben
    > auserkoren und das Recht sich zu beschweren hat er auch nicht.
    >
    > Ich persönlich hatte bisher zum Glück noch keine Nachteile ein weißer
    > cis-Mann zu sein oder habe es nicht wahrgenommen. Aber wenn man tagtäglich
    > ließt, wie manche offenbar völlig zurecht benachteiligt werden, dann
    > bekommt man Angst.


    Ich hatte in der Vergangenheit zwei Fälle, wo ich bekannterweise als weißer cis- Mann bevorzugt behandelt wurde. Der letzte war der Kauf meines Hauses, wo die Maklerin jeweils in indisch und ein türkisch aussehndes Paar frühzeitig aussortierte.
    Jetzt wurde im Sommer das Nachbarhaus verkauft, und die gesamte Nachbarschaft mokiert sich darüber, daß der Käufer keinen Ariernachweis bekommen würde.

    Aber viel Spaß beim Angsbekommen.

  10. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Icestorm 11.10.18 - 15:11

    spag@tti_code schrieb:
    --------------------------------------------------------------------------------
    > Neutral heißt nicht unbedingt Fair.
    > Auch Fakten können diskriminierend sein.

    Seit wann sind Fakten diskriminierend?

  11. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Hotohori 11.10.18 - 15:12

    Herr Unterfahren schrieb:
    --------------------------------------------------------------------------------
    > Metalyzed schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > bark schrieb:
    > >
    > ---------------------------------------------------------------------------
    >
    > > -----
    > > Das sehe ich als tiefgreifendes gesellschaftliches Problem in unserer
    > > Gesellschaft. Der weiße cis-Mann wird immer weitet zum Prügelknaben
    > > auserkoren und das Recht sich zu beschweren hat er auch nicht.
    > >
    > > Ich persönlich hatte bisher zum Glück noch keine Nachteile ein weißer
    > > cis-Mann zu sein oder habe es nicht wahrgenommen. Aber wenn man
    > tagtäglich
    > > ließt, wie manche offenbar völlig zurecht benachteiligt werden, dann
    > > bekommt man Angst.
    >
    > Ich hatte in der Vergangenheit zwei Fälle, wo ich bekannterweise als weißer
    > cis- Mann bevorzugt behandelt wurde. Der letzte war der Kauf meines Hauses,
    > wo die Maklerin jeweils in indisch und ein türkisch aussehndes Paar
    > frühzeitig aussortierte.
    > Jetzt wurde im Sommer das Nachbarhaus verkauft, und die gesamte
    > Nachbarschaft mokiert sich darüber, daß der Käufer keinen Ariernachweis
    > bekommen würde.
    >
    > Aber viel Spaß beim Angsbekommen.

    Es ist und bleibt eben ein sehr kritisches Thema. Manchmal ist die Aufregung absolut angebracht, aber auch nicht gerade selten eben nicht.

    Das kritische ist eben hier, dass die Gesellschaft sehr unterschiedlich und nicht gerade fair reagiert.

  12. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Hotohori 11.10.18 - 15:13

    Icestorm schrieb:
    --------------------------------------------------------------------------------
    > spag@tti_code schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Neutral heißt nicht unbedingt Fair.
    > > Auch Fakten können diskriminierend sein.
    >
    > Seit wann sind Fakten diskriminierend?

    Eben, Fakten sind hier einfach nur Fakten. Diskriminierend werden sie erst wenn der Mensch über diese Fakten urteilt, weil ihm diese nicht gefallen wollen.

  13. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Icestorm 11.10.18 - 15:16

    elidor schrieb:
    --------------------------------------------------------------------------------
    > Und woher soll die Basis kommen? Es soll doch auf Basis echter Daten und
    > wahrscheinlich auch der Entwicklung dieser Mitarbeiter im Unternehmen eine
    > Maschine angelernt werden diese Entscheidungen in Zukunft besser zu
    > treffen, als Menschen.

    Dann werden eben die Bewerbungen der letzten fünf Jahre herangezogen. Es ist aber möglich, dass sich auch da nicht genau 50% Frauen meldeten. Man kann aber gleich den Faktor "Geschlecht" streichen, was ich eigentlich erwartet hätte. Warum aber dann nicht gleich die gleiche Datenbasis unter Ausschluss von Geschlecht und Herkunft nochmal durchlaufen lassen? Wahrscheinlich kommt dann zu Tage, dass Amazon keine Leute über 40 oder 45 möchte, was der nächste Aufreger wäre.

  14. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Sharra 11.10.18 - 15:35

    Aus deinem Beitrag geht nicht wörtlich hervor, dass du ein Mann bist.
    Der Forenname verrät das auch nicht direkt.

    Dennoch kann ich dir mit 99% Wahrscheinlichkeit sagen, dass diesen Beitrag ein Mann verfasst hat.

    Will sagen: Das Geschlecht verschweigen funktioniert nicht. Ein Mensch mit Erfahrung, oder eine trainierte KI liest das aus dem Text, Formulierung, und Art der Statements heraus.

    Verschweigen ist also nicht die gesuchte Lösung.

  15. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: _4ubi_ 11.10.18 - 15:46

    Allgemein geb ich dir ja Recht, ABER:

    Ist dir klar, welche Daten als Trainsingsdaten genutzt wurde ...

    INPUT: Bewerber-Daten
    OUTPUT: Ja/Nein (Ergebnis HR + Verantwortlicher)

    Der Algo hat nicht gelernt, welcher der "geeignete" Kandidat ist, sondern welcher bisher bevorzugt eingestellt wurde. Die Daten zeigen damit, dass die HR un CO lieber Männer eingestellt haben. Mehr nicht!

  16. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Gandalf2210 11.10.18 - 15:51

    Wo muss ich Anfragen, wenn ich einen haben will?
    Väterlicherseits müsste das möglich sein, wenn ich den Ariernachweis meiner Großeltern noch finde.

    wir hatten auch so unsere Bedenken als eine osmanische Familie in die Siedlung gezogen ist.
    Der Papa läuft aber draußen mit Jogginghose, Badelatschen und Socken rum, und hat in der WM Vorrunde so gelitten wie kein anderer. Gelungene Integration.

  17. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: spag@tti_code 11.10.18 - 15:57

    Icestorm schrieb:
    --------------------------------------------------------------------------------
    > spag@tti_code schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Neutral heißt nicht unbedingt Fair.
    > > Auch Fakten können diskriminierend sein.
    >
    > Seit wann sind Fakten diskriminierend?

    Ein Faktum selbst natürlich nicht, aber eine faktenbasierte Entscheidung.
    Wenn ich ein Individuum auf Grund der einer zugehörigkeit zu einer Menschengruppen Beurteile (die nichts mit meiner Zielvorgabe zu tun hat) ist das immer diskriminierend. Selbst wenn es statistisch Begründet ist.
    Dabei ist vollkommen irrelevant ob die Entscheidung ein Mensch oder eine Maschine gefällt hat.

  18. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: AndyK70 11.10.18 - 16:16

    _4ubi_ schrieb:
    --------------------------------------------------------------------------------
    > Der Algo hat nicht gelernt, welcher der "geeignete" Kandidat ist, sondern
    > welcher bisher bevorzugt eingestellt wurde.

    Ich habe in dem Artikel keinen Hinweis gefunden, dass das Kriterium "wurde eingestellt" zu dieser Gewichtung geführt hat. Woher hast du diese Information?

    Meiner Meinung nach wäre es eh besser, wenn man nicht "wurde eingestellt", sondern nur Trainingsdaten von Kandidaten nimmt, die überhaupt eingestellt wurden und dann den Werdegang in der Firma betrachtet. Wie gut arbeiten sie im Team? Ist es eine Führungspersönlichkeit? Zeigt die Person Engagement? etc. etc.
    Und diese Daten dann den jeweiligen Bewerbungen gegenüberstellt und daraus eine Basis bildet.

  19. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Vögelchen 11.10.18 - 16:17

    Computer_Science schrieb:
    --------------------------------------------------------------------------------
    > Statistik ist der Grundpfeiler all unserer wissenschaftlichen Erkenntnisse

    Wie kommt man auf so einen Unfug?

  20. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Sharra 11.10.18 - 16:19

    Vögelchen schrieb:
    --------------------------------------------------------------------------------
    > Computer_Science schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Statistik ist der Grundpfeiler all unserer wissenschaftlichen
    > Erkenntnisse
    >
    > Wie kommt man auf so einen Unfug?

    Indem man Statistikfanatiker ist, und, nachdem eine wissenschaftliche Erkenntnis getätigt wurde, seinen Quatsch oben auf propft vermute ich mal.
    Jede Erkenntnis lässt sich, im Nachhinein, statistisch irgendwie vergewaltigen.
    Und dann vermutet man einfach, dass die Statistik zu der Erkenntnis geführt hat.

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Dieses Thema wurde geschlossen.

Stellenmarkt
  1. Schwarz Zentrale Dienste KG, Heilbronn
  2. Rhenus Office Systems GmbH, Holzwickede
  3. BWI GmbH, Bonn, Köln
  4. MCQ TECH GmbH, Blumberg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. ab 399€
  2. (reduzierte Überstände, Restposten & Co.)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Life is Strange 2 im Test: Interaktiver Road-Movie-Mystery-Thriller
Life is Strange 2 im Test
Interaktiver Road-Movie-Mystery-Thriller

Keine heile Teenagerwelt mit Partys und Liebeskummer: Allein in den USA der Trump-Ära müssen zwei Brüder mit mexikanischen Wurzeln in Life is Strange 2 nach einem mysteriösen Unfall überleben. Das Adventure ist bewegend und spannend - trotz eines grundsätzlichen Problems.
Von Peter Steinlechner

  1. Adventure Leisure Suit Larry landet im 21. Jahrhundert

Apple Watch im Test: Auch ohne EKG die beste Smartwatch
Apple Watch im Test
Auch ohne EKG die beste Smartwatch

Apples vierte Watch verändert das Display-Design leicht - zum Wohle des Nutzers. Die Uhr bietet immer noch mit die beste Smartwatch-Erfahrung, auch wenn eine der neuen Funktionen in Deutschland noch nicht funktioniert.
Ein Test von Tobias Költzsch

  1. Smartwatch Apple Watch Series 4 mit EKG und Sturzerkennung
  2. Smartwatch Apple Watch Series 4 nur mit sechs Modellen
  3. Handelskrieg Apple Watch und anderen Gadgets drohen Strafzölle

Kaufberatung: Der richtige smarte Lautsprecher
Kaufberatung
Der richtige smarte Lautsprecher

Der Markt für smarte Lautsprecher wird immer größer. Bei der Entscheidung für ein Gerät sind Kaufpreis und Klang wichtig, ebenso die Wahl für einen digitalen Assistenten: Alexa, Google Assistant oder Siri? Wir geben eine Ãœbersicht.
Von Ingo Pakalski

  1. Amazon Alexa Echo Sub verhilft Echo-Lautsprechern zu mehr Bass
  2. Beosound 2 Bang & Olufsen bringt smarten Lautsprecher für 2.000 Euro
  3. Google und Amazon Markt für smarte Lautsprecher wächst weiter stark

  1. 100 MBit/s: Netcologne beginnt mit Vectoring im Nahbereich
    100 MBit/s
    Netcologne beginnt mit Vectoring im Nahbereich

    Nicht nur die Telekom hat beim Vectoring-Ausbau der Kabelverzweiger am Straßenrand den Zuschlag erhalten. Netcologne aus Köln beginnt nun auch und verlegt dabei 25 Kilometer Glasfaserleitungen, erklärt Geschäftsführer Timo von Lepel.

  2. 5G: Vodafone für gleiche Regeln bei Frequenzvergabe in der EU
    5G
    Vodafone für gleiche Regeln bei Frequenzvergabe in der EU

    Die Finnen haben es laut Hannes Ametsreiter bei der 5G-Auktion richtig gemacht, weil nur 77,6 Millionen Euro Erlös erzielt wurden. Der Vodafone-Deutschland-Chef tritt für einheitliche Vergaberegeln in der EU ein.

  3. Tele-Kompass: Ländliche Internetversorgung kaum verbessert
    Tele-Kompass
    Ländliche Internetversorgung kaum verbessert

    Laut einer neuen VATM-Studie hat der Vectoringausbau die Versorgung auf dem Lande kaum verbessert. Auch das neue Gigabit-Ziel der Bundesregierung konnte nicht erreicht werden.


  1. 19:33

  2. 18:44

  3. 17:30

  4. 17:05

  5. 15:18

  6. 15:02

  7. 14:43

  8. 13:25