Abo
  1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › Machine Learning: Amazon…

wenn Statistik unliebsame Wahrheiten offenbart ...

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Computer_Science 11.10.18 - 13:52

    Statistik ist der Grundpfeiler all unserer wissenschaftlichen Erkenntnisse ...
    ermöglichte Meilensteine der Physik, Chemie, Medizin ...
    macht Demokratie erst möglich, da sie in Wahlen das Ergebnis ermittelt ...
    hat uns aus der Aberglaubenwelt des Mittelalters befreit ...

    aber wehe unsere zuverlässigste und objektivste, wissenschaftliche Methode produziert Ergebnisse, die gegen jede "political correctness" verstossen ... dann verfällt man beratungsresistent in Faktenleugnung, unter tosenden Applaus der SJW gleitet die Welt in die post-faktische Apokalypse.

    jeder Versicherer weiss aus eigenen Erhebungen:
    - Männer verursachen im Durchschnitt häufiger schwere Unfälle mit hohen Kosten
    - Frauen verursachen im Durchschnitt häufiger Blechschäden mit geringeren Kosten (weshalb sie meist auch bessere Versicherungskonditionen angeboten bekommen)
    - Männer sterben im Durchscnitt früher als Frauen
    - Frauen leben im Durchschnitt länger als Männer

    soweit glauben wir der Statistik (auch KI basiert darauf, denn die Gewichtungsmatrix wird damit ermittelt)
    und sind uns hier so sicher, dass Versicherer praktisch "Geldwetten" darauf abschliessen und damit auch gewinnen

    aber wehe eine Statistik/KI spuckt aus, dass Top-Entwickler jung, asiatisch/weiss, männlich sind ... dann ist das natürlich alles Humbug und kann nicht wahr sein.
    Dann liegt die unliebsame Wahrheit nicht in der Stichprobe der Trainingsdaten ... nein ... dann hat sich die KI dieses "Fehlverhalten" "selbst beigebracht" ... denn unsere KI hat schließlich Gefühle und eine Agenda und ist heimlich sowohl sexistisch als auch rassistisch.

    Liebe Journalisten ohne MINT-Studium: auch KIs kochen nur mit Wasser und die Gewichtungsmatrix wird durch die Trainigsdaten bestemmt, genauso wie das Ergebnis einer Statistik aus der gezogenen Stichprobe stammt. Niemand hat daran herumgeschraubt, die Algorithmen haben keine Gefühle oder gar politische Agenda.

    Aber wenn Ihr Euch selbst schon in die Tasche lügen wollt: lasst doch in den Trainingsdaten/Bewerbungen einfach das Geschlecht weg, dann kann es als Kriterium nicht berücksichtigt werden ... man verliert dann zwar an Präzision weil die Daten unvollständiger sind, aber egal ... verbietet allen Ärzten auch gleich das Blutdruckmesse, denn man kann Bluthochdruck auch an der Gesichtsfarbe und dem Gewicht erkennen (unvollständige Daten) ... naja, meistens ein wenig zu spät, aber egal ... Hauptsache politisch korrekt und alle fühlen sich wohl



    1 mal bearbeitet, zuletzt am 11.10.18 13:54 durch Computer_Science.

  2. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: bark 11.10.18 - 13:55

    In dem Fall war einfach die statistische Basis nicht representative.


    Computer_Science schrieb:
    --------------------------------------------------------------------------------
    > Statistik ist der Grundpfeiler all unserer wissenschaftlichen Erkenntnisse
    > ...
    > ermöglichte Meilensteine der Physik, Chemie, Medizin ...
    > macht Demokratie erst möglich, da sie in Wahlen das Ergebnis ermittelt ...
    > hat uns aus der Aberglaubenwelt des Mittelalters befreit ...
    >
    > aber wehe unsere zuverlässigste und objektivste, wissenschaftliche Methode
    > produziert Ergebnisse, die gegen jede "political correctness" verstossen
    > ... dann verfällt man beratungsresistent in Faktenleugnung, unter tosenden
    > Applaus der SJW gleitet die Welt in die post-faktische Apokalypse.
    >
    > jeder Versicherer weiss aus eigenen Erhebungen:
    > - Männer verursachen im Durchschnitt häufiger schwere Unfälle mit hohen
    > Kosten
    > - Frauen verursachen im Durchschnitt häufiger Blechschäden mit geringeren
    > Kosten (weshalb sie meist auch bessere Versicherungskonditionen angeboten
    > bekommen)
    > - Männer sterben im Durchscnitt früher als Frauen
    > - Frauen leben im Durchschnitt länger als Männer
    >
    > soweit glauben wir der Statistik (auch KI basiert darauf, denn die
    > Gewichtungsmatrix wird damit ermittelt)
    > und sind uns hier so sicher, dass Versicherer praktisch "Geldwetten" darauf
    > abschliessen und damit auch gewinnen
    >
    > aber wehe eine Statistik/KI spuckt aus, dass Top-Entwickler jung,
    > asiatisch/weiss, männlich sind ... dann ist das natürlich alles Humbug und
    > kann nicht wahr sein.
    > Dann liegt die unliebsame Wahrheit nicht in der Stichprobe der
    > Trainingsdaten ... nein ... dann hat sich die KI dieses "Fehlverhalten"
    > "selbst beigebracht" ... denn unsere KI hat schließlich Gefühle und eine
    > Agenda und ist heimlich sowohl sexistisch als auch rassistisch.
    >
    > Liebe Journalisten ohne MINT-Studium: auch KIs kochen nur mit Wasser und
    > die Gewichtungsmatrix wird durch die Trainigsdaten bestemmt, genauso wie
    > das Ergebnis einer Statistik aus der gezogenen Stichprobe stammt. Niemand
    > hat daran herumgeschraubt, die Algorithmen haben keine Gefühle oder gar
    > politische Agenda.
    >
    > Aber wenn Ihr Euch selbst schon in die Tasche lügen wollt: lasst doch in
    > den Trainingsdaten/Bewerbungen einfach das Geschlecht weg, dann kann es als
    > Kriterium nicht berücksichtigt werden ... man verliert dann zwar an
    > Präzision weil die Daten unvollständiger sind, aber egal ... verbietet
    > allen Ärzten auch gleich das Blutdruckmesse, denn man kann Bluthochdruck
    > auch an der Gesichtsfarbe und dem Gewicht erkennen (unvollständige Daten)
    > ... naja, meistens ein wenig zu spät, aber egal ... Hauptsache politisch
    > korrekt und alle fühlen sich wohl

  3. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: spag@tti_code 11.10.18 - 14:22

    Neutral heißt nicht unbedingt Fair.
    Auch Fakten können diskriminierend sein.

    z.B. Precrime: in den USA sind dunkelhäutige Menschen statistisch sehr viel häufiger kriminell als weiße. Das ist leider Fakt. Wenn die Polizei bei Stichprobenkontrollen darauf abzielt möglichst viele Treffer zu landen MUSS sie immer diskriminierend vorgehen und Menschen auf Grund ihrer Hautfarbe bevorzugt kontrollieren. Das sagt die Statistik und damit auch der "Erfahrungswert" und das "Bauchgefühl" der Cops.
    Das Problem dabei ist der selbstverstärkende Effekt: in einem schwarzen Ghetto groß zu werden heißt fast zwangsläufig Kriminell zu werden, da man von Kind auf die Erfahrung macht, dass Cops böse sind und die "weißen" einem soweiso nicht glauben wenn man ehrlich ist.
    Ein Machine-Learning-System welches dem Cop vorschlägt wer kontrolliert werden soll, wird noch diskriminierender sein als Menschen, weil sie per Design nur den "Erfahrungswerte" kennt und Faktoren wie Fairness und Gewissen keine Rolle spielen.
    Das mag zwar das Optimierungsziel möglichst viele Verbrecher zu finden optimal lösen, führt aber langfristig zu einem gesellschaftlichen Problem.

    Wenn man immer nur Aufgrund der Vergangenheit lernt, verpasst man es auch Chancen für die Zukunft aufzumachen und zementiert den Status-Quo.

    Zweiter Punkt ist, dass eine KI immer maximal so gut ist, wie die zugrundeliegenden Daten beim Training. Wenn die schon ein diskriminierendes Bias haben weil sie z.B. auf menschlichen Entscheidungen beruhen oder duruch die Sampleauswahl (wie im Artikel beschrieben), guckt sich die KI solche Verhaltensmuster vom Menschen ab und kopiert sie einfach.

  4. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Profi 11.10.18 - 14:22

    > In dem Fall war einfach die statistische Basis nicht representative.

    Dann könnte man ja einfach eine neue Basis eingeben. Da man dies nicht macht, stecken wohl noch andere Gründe dahinter.

  5. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Metalyzed 11.10.18 - 14:32

    bark schrieb:
    --------------------------------------------------------------------------------
    > In dem Fall war einfach die statistische Basis nicht representative.

    Ich würde jede Wetten eingehen. Hätte die KI am Ende mehr Frauen als Männer eingestellt bzw. bevorzugt eingestellt, dann wäre aus einer wohlwollend, positiven Entscheidung für die Frau in einem Artikel berichtet worden. Egal ob die KI richtig oder falsch liegt oder ob die Basis repräsentativ ist oder nicht.

    Das sehe ich als tiefgreifendes gesellschaftliches Problem in unserer Gesellschaft. Der weiße cis-Mann wird immer weitet zum Prügelknaben auserkoren und das Recht sich zu beschweren hat er auch nicht.

    Ich persönlich hatte bisher zum Glück noch keine Nachteile ein weißer cis-Mann zu sein oder habe es nicht wahrgenommen. Aber wenn man tagtäglich ließt, wie manche offenbar völlig zurecht benachteiligt werden, dann bekommt man Angst.

  6. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: elidor 11.10.18 - 14:34

    Und woher soll die Basis kommen? Es soll doch auf Basis echter Daten und wahrscheinlich auch der Entwicklung dieser Mitarbeiter im Unternehmen eine Maschine angelernt werden diese Entscheidungen in Zukunft besser zu treffen, als Menschen.

  7. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Michael H. 11.10.18 - 14:46

    Computer_Science schrieb:
    --------------------------------------------------------------------------------
    > ...

    Du hast einen massiven Denkfehler drin... aber richtig massiv.
    "Glaube immer nur der Statistik, die du selbst gefälscht hast." heisst es ja immer so schön.

    Ne mal im Ernst... die KI kann im Endeffekt auch nur das lernen, was ihr beigebracht wird. Die Basis dafür waren in der Vergangenheit fast ausschließlich Männer...
    Das bedeutet, dass die KI eine Statistik, auf Grund einer falschen Basis aufstellt.

    Sie geht nämlich davon aus, dass wenn 98% der Männer die bisherigen Stellen bekommen haben, diese auch besser geeignet wären als Frauen und lässt dafür Frauen auf Grund dieser Statistik rausfallen, egal wie viel sie auf dem Kasten haben.

    Damit die KI nur anhand der Qualifikation rechnet, müsste man das Merkmal "Geschlecht" weglassen. Ob ich jetzt nen Entwickler habe der klein und asiatisch ist oder ich ne Entwicklerin hab die klein und asiatisch ist, macht keinen Unterschied.. wichtig ist, wer von beiden die besseren Qualifikationen mitbringt.

  8. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Kondratieff 11.10.18 - 14:49

    Michael H. schrieb:
    --------------------------------------------------------------------------------
    > Computer_Science schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > ...
    >
    > Du hast einen massiven Denkfehler drin... aber richtig massiv.
    > "Glaube immer nur der Statistik, die du selbst gefälscht hast." heisst es
    > ja immer so schön.
    >
    > Ne mal im Ernst... die KI kann im Endeffekt auch nur das lernen, was ihr
    > beigebracht wird. Die Basis dafür waren in der Vergangenheit fast
    > ausschließlich Männer...
    > Das bedeutet, dass die KI eine Statistik, auf Grund einer falschen Basis
    > aufstellt.
    >
    > Sie geht nämlich davon aus, dass wenn 98% der Männer die bisherigen Stellen
    > bekommen haben, diese auch besser geeignet wären als Frauen und lässt dafür
    > Frauen auf Grund dieser Statistik rausfallen, egal wie viel sie auf dem
    > Kasten haben.
    >
    > Damit die KI nur anhand der Qualifikation rechnet, müsste man das Merkmal
    > "Geschlecht" weglassen. Ob ich jetzt nen Entwickler habe der klein und
    > asiatisch ist oder ich ne Entwicklerin hab die klein und asiatisch ist,
    > macht keinen Unterschied.. wichtig ist, wer von beiden die besseren
    > Qualifikationen mitbringt.

    Danke! Du hast einige der offensichtlichsten Denkfehler des TEs benannt, die auch auch schon hervorheben wollte.

  9. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Herr Unterfahren 11.10.18 - 15:01

    Metalyzed schrieb:
    --------------------------------------------------------------------------------
    > bark schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > Das sehe ich als tiefgreifendes gesellschaftliches Problem in unserer
    > Gesellschaft. Der weiße cis-Mann wird immer weitet zum Prügelknaben
    > auserkoren und das Recht sich zu beschweren hat er auch nicht.
    >
    > Ich persönlich hatte bisher zum Glück noch keine Nachteile ein weißer
    > cis-Mann zu sein oder habe es nicht wahrgenommen. Aber wenn man tagtäglich
    > ließt, wie manche offenbar völlig zurecht benachteiligt werden, dann
    > bekommt man Angst.


    Ich hatte in der Vergangenheit zwei Fälle, wo ich bekannterweise als weißer cis- Mann bevorzugt behandelt wurde. Der letzte war der Kauf meines Hauses, wo die Maklerin jeweils in indisch und ein türkisch aussehndes Paar frühzeitig aussortierte.
    Jetzt wurde im Sommer das Nachbarhaus verkauft, und die gesamte Nachbarschaft mokiert sich darüber, daß der Käufer keinen Ariernachweis bekommen würde.

    Aber viel Spaß beim Angsbekommen.

  10. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Icestorm 11.10.18 - 15:11

    spag@tti_code schrieb:
    --------------------------------------------------------------------------------
    > Neutral heißt nicht unbedingt Fair.
    > Auch Fakten können diskriminierend sein.

    Seit wann sind Fakten diskriminierend?

  11. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Hotohori 11.10.18 - 15:12

    Herr Unterfahren schrieb:
    --------------------------------------------------------------------------------
    > Metalyzed schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > bark schrieb:
    > >
    > ---------------------------------------------------------------------------
    >
    > > -----
    > > Das sehe ich als tiefgreifendes gesellschaftliches Problem in unserer
    > > Gesellschaft. Der weiße cis-Mann wird immer weitet zum Prügelknaben
    > > auserkoren und das Recht sich zu beschweren hat er auch nicht.
    > >
    > > Ich persönlich hatte bisher zum Glück noch keine Nachteile ein weißer
    > > cis-Mann zu sein oder habe es nicht wahrgenommen. Aber wenn man
    > tagtäglich
    > > ließt, wie manche offenbar völlig zurecht benachteiligt werden, dann
    > > bekommt man Angst.
    >
    > Ich hatte in der Vergangenheit zwei Fälle, wo ich bekannterweise als weißer
    > cis- Mann bevorzugt behandelt wurde. Der letzte war der Kauf meines Hauses,
    > wo die Maklerin jeweils in indisch und ein türkisch aussehndes Paar
    > frühzeitig aussortierte.
    > Jetzt wurde im Sommer das Nachbarhaus verkauft, und die gesamte
    > Nachbarschaft mokiert sich darüber, daß der Käufer keinen Ariernachweis
    > bekommen würde.
    >
    > Aber viel Spaß beim Angsbekommen.

    Es ist und bleibt eben ein sehr kritisches Thema. Manchmal ist die Aufregung absolut angebracht, aber auch nicht gerade selten eben nicht.

    Das kritische ist eben hier, dass die Gesellschaft sehr unterschiedlich und nicht gerade fair reagiert.

  12. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Hotohori 11.10.18 - 15:13

    Icestorm schrieb:
    --------------------------------------------------------------------------------
    > spag@tti_code schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Neutral heißt nicht unbedingt Fair.
    > > Auch Fakten können diskriminierend sein.
    >
    > Seit wann sind Fakten diskriminierend?

    Eben, Fakten sind hier einfach nur Fakten. Diskriminierend werden sie erst wenn der Mensch über diese Fakten urteilt, weil ihm diese nicht gefallen wollen.

  13. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Icestorm 11.10.18 - 15:16

    elidor schrieb:
    --------------------------------------------------------------------------------
    > Und woher soll die Basis kommen? Es soll doch auf Basis echter Daten und
    > wahrscheinlich auch der Entwicklung dieser Mitarbeiter im Unternehmen eine
    > Maschine angelernt werden diese Entscheidungen in Zukunft besser zu
    > treffen, als Menschen.

    Dann werden eben die Bewerbungen der letzten fünf Jahre herangezogen. Es ist aber möglich, dass sich auch da nicht genau 50% Frauen meldeten. Man kann aber gleich den Faktor "Geschlecht" streichen, was ich eigentlich erwartet hätte. Warum aber dann nicht gleich die gleiche Datenbasis unter Ausschluss von Geschlecht und Herkunft nochmal durchlaufen lassen? Wahrscheinlich kommt dann zu Tage, dass Amazon keine Leute über 40 oder 45 möchte, was der nächste Aufreger wäre.

  14. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Sharra 11.10.18 - 15:35

    Aus deinem Beitrag geht nicht wörtlich hervor, dass du ein Mann bist.
    Der Forenname verrät das auch nicht direkt.

    Dennoch kann ich dir mit 99% Wahrscheinlichkeit sagen, dass diesen Beitrag ein Mann verfasst hat.

    Will sagen: Das Geschlecht verschweigen funktioniert nicht. Ein Mensch mit Erfahrung, oder eine trainierte KI liest das aus dem Text, Formulierung, und Art der Statements heraus.

    Verschweigen ist also nicht die gesuchte Lösung.

  15. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: _4ubi_ 11.10.18 - 15:46

    Allgemein geb ich dir ja Recht, ABER:

    Ist dir klar, welche Daten als Trainsingsdaten genutzt wurde ...

    INPUT: Bewerber-Daten
    OUTPUT: Ja/Nein (Ergebnis HR + Verantwortlicher)

    Der Algo hat nicht gelernt, welcher der "geeignete" Kandidat ist, sondern welcher bisher bevorzugt eingestellt wurde. Die Daten zeigen damit, dass die HR un CO lieber Männer eingestellt haben. Mehr nicht!

  16. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Gandalf2210 11.10.18 - 15:51

    Wo muss ich Anfragen, wenn ich einen haben will?
    Väterlicherseits müsste das möglich sein, wenn ich den Ariernachweis meiner Großeltern noch finde.

    wir hatten auch so unsere Bedenken als eine osmanische Familie in die Siedlung gezogen ist.
    Der Papa läuft aber draußen mit Jogginghose, Badelatschen und Socken rum, und hat in der WM Vorrunde so gelitten wie kein anderer. Gelungene Integration.

  17. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: spag@tti_code 11.10.18 - 15:57

    Icestorm schrieb:
    --------------------------------------------------------------------------------
    > spag@tti_code schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Neutral heißt nicht unbedingt Fair.
    > > Auch Fakten können diskriminierend sein.
    >
    > Seit wann sind Fakten diskriminierend?

    Ein Faktum selbst natürlich nicht, aber eine faktenbasierte Entscheidung.
    Wenn ich ein Individuum auf Grund der einer zugehörigkeit zu einer Menschengruppen Beurteile (die nichts mit meiner Zielvorgabe zu tun hat) ist das immer diskriminierend. Selbst wenn es statistisch Begründet ist.
    Dabei ist vollkommen irrelevant ob die Entscheidung ein Mensch oder eine Maschine gefällt hat.

  18. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: AndyK70 11.10.18 - 16:16

    _4ubi_ schrieb:
    --------------------------------------------------------------------------------
    > Der Algo hat nicht gelernt, welcher der "geeignete" Kandidat ist, sondern
    > welcher bisher bevorzugt eingestellt wurde.

    Ich habe in dem Artikel keinen Hinweis gefunden, dass das Kriterium "wurde eingestellt" zu dieser Gewichtung geführt hat. Woher hast du diese Information?

    Meiner Meinung nach wäre es eh besser, wenn man nicht "wurde eingestellt", sondern nur Trainingsdaten von Kandidaten nimmt, die überhaupt eingestellt wurden und dann den Werdegang in der Firma betrachtet. Wie gut arbeiten sie im Team? Ist es eine Führungspersönlichkeit? Zeigt die Person Engagement? etc. etc.
    Und diese Daten dann den jeweiligen Bewerbungen gegenüberstellt und daraus eine Basis bildet.

  19. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Vögelchen 11.10.18 - 16:17

    Computer_Science schrieb:
    --------------------------------------------------------------------------------
    > Statistik ist der Grundpfeiler all unserer wissenschaftlichen Erkenntnisse

    Wie kommt man auf so einen Unfug?

  20. Re: wenn Statistik unliebsame Wahrheiten offenbart ...

    Autor: Sharra 11.10.18 - 16:19

    Vögelchen schrieb:
    --------------------------------------------------------------------------------
    > Computer_Science schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Statistik ist der Grundpfeiler all unserer wissenschaftlichen
    > Erkenntnisse
    >
    > Wie kommt man auf so einen Unfug?

    Indem man Statistikfanatiker ist, und, nachdem eine wissenschaftliche Erkenntnis getätigt wurde, seinen Quatsch oben auf propft vermute ich mal.
    Jede Erkenntnis lässt sich, im Nachhinein, statistisch irgendwie vergewaltigen.
    Und dann vermutet man einfach, dass die Statistik zu der Erkenntnis geführt hat.

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Dieses Thema wurde geschlossen.

Stellenmarkt
  1. TeamBank AG, Nürnberg
  2. GK Software SE, Sankt Ingbert, Köln, Schöneck
  3. SCHOTT AG, Mainz
  4. BRZ Deutschland GmbH, Nürnberg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. mit Logitech-Angeboten, z. B. G900 Chaos Spectrum für 79€ statt über 100€ im Vergleich)
  2. 99,90€ + Versand (Vergleichspreis 140€)
  3. 149,90€ + Versand (im Preisvergleich ab 184,95€)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Apple Mac Mini (Late 2018) im Test: Tolles teures Teil - aber für wen?
Apple Mac Mini (Late 2018) im Test
Tolles teures Teil - aber für wen?

Der Mac Mini ist ein gutes Gerät, wenngleich der Preis für die Einstiegsvariante von Apple arg hoch angesetzt wurde und mehr Speicher(platz) viel Geld kostet. Für 4K-Videoschnitt eignet sich der Mac Mini nur selten und generell fragen wir uns, wer ihn kaufen soll.
Ein Test von Marc Sauter

  1. Apple Mac Mini wird grau und schnell
  2. Neue Produkte Apple will Mac Mini und Macbook Air neu auflegen

Requiem zur Cebit: Es war einmal die beste Messe
Requiem zur Cebit
Es war einmal die beste Messe

Nach 33 Jahren ist Schluss mit der Cebit und das ist mehr als schade. Wir waren dabei, als sie noch nicht nur die größte, sondern auch die beste Messe der Welt war - und haben dann erlebt, wie Trends verschlafen wurden. Ein Nachruf.
Von Nico Ernst

  1. IT-Messe Die Cebit wird eingestellt

Mars Insight: Nasa hofft auf Langeweile auf dem Mars
Mars Insight
Nasa hofft auf Langeweile auf dem Mars

Bei der Frage, wie es im Inneren des Mars aussieht, kann eine Raumsonde keine spektakuläre Landschaft gebrauchen. Eine möglichst langweilige Sandwüste wäre den beteiligten Wissenschaftlern am liebsten. Der Nasa-Livestream zeigte ab 20 Uhr MEZ, dass die Suche nach der perfekten Langeweile tatsächlich gelang.

  1. Astronomie Flüssiges Wasser auf dem Mars war Messfehler
  2. Mars Die Nasa gibt den Rover nicht auf
  3. Raumfahrt Terraforming des Mars ist mit heutiger Technik nicht möglich

  1. 2nd Life: Ausgemusterte Bus-Akkus speichern jetzt Solarenergie
    2nd Life
    Ausgemusterte Bus-Akkus speichern jetzt Solarenergie

    Was wird mit den Unmengen von entsorgten Akkus aus Elektroautos und Bussen passieren? Volvo macht in Schweden bei einem Forschungsprojekt mit, bei dem gebrauchte Bus-Akkus in ihrer zweiten Lebenshälfte als Stromspeicher von Photovoltaikanlagen dienen.

  2. Paketlieferungen per Drohne: Amazon hat sein Versprechen nicht gehalten
    Paketlieferungen per Drohne
    Amazon hat sein Versprechen nicht gehalten

    Da hat sich Amazon-Chef Jeff Bezos verkalkuliert. Vor fünf Jahren hatte er angekündigt, dass allerspätestens ab diesem Jahr Drohnen Amazon-Pakete zu den Kunden fliegen. Der Plan wird weiter verfolgt - die Deutsche Post ist aber skeptisch.

  3. Fehler, Absturz oder Problem: Verbotene Wörter im Apple Store
    Fehler, Absturz oder Problem
    Verbotene Wörter im Apple Store

    Absturz, Fehler oder Problem: Diese Wörter sind für Mitarbeiter im Apple Store tabu, wenn es um technische Fehler von Apple-Produkten geht. Stattdessen sollen die Mitarbeiter zwar verständnisvoll sein, aber keinesfalls die Produkte als Grund für die Probleme benennen.


  1. 13:30

  2. 12:24

  3. 11:45

  4. 11:15

  5. 09:00

  6. 13:57

  7. 13:20

  8. 12:45