1. Foren
  2. Kommentare
  3. Wirtschaft
  4. Alle Kommentare zum Artikel
  5. › Kreditkarte: Apple Card mit…

Das kommt raus wenn Machine learning

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Das kommt raus wenn Machine learning

    Autor: Silbersulfid 11.11.19 - 12:05

    Entscheidet und sich herausstellt, dass die ganzen "Vorurteile" alle auf statistischer Basis beruhen

  2. Re: Das kommt raus wenn Machine learning

    Autor: dilaracem 11.11.19 - 12:30

    Silbersulfid schrieb:
    --------------------------------------------------------------------------------
    > Entscheidet und sich herausstellt, dass die ganzen "Vorurteile" alle auf
    > statistischer Basis beruhen

    Genau. Das Ergebnis wird aus den Eingaben abgeleitet. Wenn die Eingaben z.B. rassistisch oder sexistisch sind, weil sie auf dem gesellschaftlichem Status Quo bestehen (die wiederum ein Ergebnis von Vorurteilen ganz ohne Gänsefüßchen sind), kommt hier auch kein besseres Ergebnis zustande. Wir erinnern uns z.B. auch an den automatischen Seifenspender, der nur bei Menschen mit heller Haut funktioniert hat.

    Deshalb brauchen Entwickler*innen solcher Systeme mehr als nur Wissen über Machine Learning.

  3. Re: Das kommt raus wenn Machine learning

    Autor: SchluppoMäcQuarkkeulchen 11.11.19 - 13:09

    Moment mal. Man sollte nicht alles in einen großen Suppentopf schmeißen.

    Dieser Seifenspender wurde ja nicht mit rassistischer Absicht gebaut.
    Und: Daten die Diskriminieren sind in der Interpretation ggf rassistisch, die Intention der Dienstleistung muss es nicht sein.

    Die Leute sind heute leider immer sehr schnell bei der Sache loszuschreien, bieten aber selten Lösungen an.

    "Einfach" rassistische Kriterien weglassen,... damit macht man es sich so wunderbar einfach. Dass Mann&Frau, Schwarz&Weiß, jung&alt aber durchaus Kategorien sind, welche der Risikobewertung dienen, ganz trocken und kühl betrachtet, ist eben nicht von der Hand zu weisen. Will sagen: Es muss dann eben auch eine praktikable Alternative gefunden werden, seriös Risiken abzuschätzen. Schafft man das nicht, werden Kredite bzw. derartige Dienstleistungen im Zweifel einfach für alle teurer.

  4. Re: Das kommt raus wenn Machine learning

    Autor: Silbersulfid 11.11.19 - 13:11

    Ich als junger weißer cis Mann bezahle ja auch höhere kfz Versicherungen Als ne junge Frau. Einfach weil Risiko. Gleichberechtigung bedeutet auch gleiches Recht auf Diskriminierung.

  5. Re: Das kommt raus wenn Machine learning

    Autor: Peter Brülls 11.11.19 - 13:21

    Silbersulfid schrieb:
    --------------------------------------------------------------------------------
    > Ich als junger weißer cis Mann bezahle ja auch höhere kfz Versicherungen
    > Als ne junge Frau. Einfach weil Risiko.

    Das gilt meines Wissen seit 2013 nicht mehr. Wenn Du es in sechs Jahren nicht schaffst, Deinen Tarif umzustellen: Selbst schuld.

  6. Du hast die Anführungszeichen falsch gesetzt

    Autor: franzropen 11.11.19 - 13:22

    Die ganzen Vorurteile beruhen auf "statistischer" Basis.
    Auch im ML gilt, Bullshit in, Bullshit out



    1 mal bearbeitet, zuletzt am 11.11.19 13:22 durch franzropen.

  7. Re: Das kommt raus wenn Machine learning

    Autor: Peter Brülls 11.11.19 - 13:27

    SchluppoMäcQuarkkeulchen schrieb:
    --------------------------------------------------------------------------------
    > Moment mal. Man sollte nicht alles in einen großen Suppentopf schmeißen.
    >
    > Dieser Seifenspender wurde ja nicht mit rassistischer Absicht gebaut.

    Korrekt. Ändert aber nichts daran, dass der Seifenspender diskriminiert.

    > Die Leute sind heute leider immer sehr schnell bei der Sache loszuschreien,
    > bieten aber selten Lösungen an.

    > "Einfach" rassistische Kriterien weglassen,... damit macht man es sich so
    > wunderbar einfach. Dass Mann&Frau, Schwarz&Weiß, jung&alt aber durchaus
    > Kategorien sind, welche der Risikobewertung dienen, ganz trocken und kühl
    > betrachtet, ist eben nicht von der Hand zu weisen.

    Ja, nur wenn dann pauschal mal das Risiko durch „Mann“ oder „weiß“ gezeigt wird, dann ist das Geheule groß.

    Und da sind wie beim Seifenspender: Der ignoriert dunkle Haut, weil hellhäutige Ingenieure das entwickeln, hellhäutige Programmierer das Programmieren und hellhäutige Manager dafür sorgen, dass das möglichst auch so bleibt.

    Allein schon der Hinweis, dass solche Probleme verringert werden, wenn man mal ein paar Frauen/Dunkelhäutige/Menschen mit Behinderten an Bord holt und auf sie hört, endet ja erfahrungsgemäß in einem Geheile, als ob weißhäusige Menschen kurz davor stehen, nur noch das Hausmeister im Krematorium arbeiten zu dürfen.

  8. Re: Das kommt raus wenn Machine learning

    Autor: Schnarchnase 11.11.19 - 13:56

    SchluppoMäcQuarkkeulchen schrieb:
    --------------------------------------------------------------------------------
    > Will sagen: Es muss dann eben auch eine praktikable Alternative gefunden
    > werden, seriös Risiken abzuschätzen.

    Du willst jetzt nicht ernsthaft behaupten, dass das Geschlecht, die Hautfarbe oder das Alter irgendeine Relevanz bei der Risikobewertung eines Kredites haben oder?
    Eine statistische Korrelation ist kein kausaler Zusammenhang, auch wenn dieser Fehler leider sehr verbreitet ist.

    Gerade beim Verfügungsrahmen von Kreditkarten wäre es extrem einfach einen Algorithmus zu entwickeln der nicht diskriminiert, aber den möglichen Verlust minimiert. Einfach mal von dem ausgehen worum es dort geht und das ist Geld und Zuverlässigkeit. Mit einem geringen Rahmen anfangen und für ausgeglichene Transaktionen je nach Höhe und Menge Pluspunkte verteilen, nicht oder zu spät ausgeglichene Beträge entsprechend negativ bewerten.

    Vor allem wenn das gleiche Konto hinter zwei Kreditkarten steckt (wie im Beispiel, je Frau und Mann eine Karte), gibt es keinen Grund hier zu unterscheiden.

  9. Re: Das kommt raus wenn Machine learning

    Autor: tstrunk 11.11.19 - 14:13

    Schnarchnase schrieb:
    --------------------------------------------------------------------------------
    > Gerade beim Verfügungsrahmen von Kreditkarten wäre es extrem einfach einen
    > Algorithmus zu entwickeln der nicht diskriminiert, aber den möglichen
    > Verlust minimiert.

    Das kommt wirklich auch auf den Algorithmus an. Das Problem ist, dass du hier versteckte Korrelationen hast, die bei heutigen ML Algorithmen mit ihren riesigen Inputvektoren möglicherweise nicht so einfach zu erkennen sind.

    Harmloses, weil unrealistisches, Beispiel:
    Stell dir mal vor du könntest tatsächlichen Alkoholkonsum tracken.
    Dann würde ich nun vermuten: Erhöhter Alkoholkonsum == weniger Kreditwürdig.

    Gleichzeitig weiss man aber, dass Männer statistisch mehr trinken als Frauen. Wenn du nun den absoluten Alkoholkonsum, aber nicht das Gender in deinem Machine Learning Input Vektor hättest, dann könnte und würde dein Algorithmus automatisch einen Diskrimator zwischen Männer und Frauen lernen.

  10. Re: Das kommt raus wenn Machine learning

    Autor: SchluppoMäcQuarkkeulchen 11.11.19 - 14:56

    Schnarchnase schrieb:
    --------------------------------------------------------------------------------
    >
    > Du willst jetzt nicht ernsthaft behaupten, dass das Geschlecht, die
    > Hautfarbe oder das Alter irgendeine Relevanz bei der Risikobewertung eines
    > Kredites haben oder?

    Exakt das behaupte ich. Und auch noch ernsthaft. Quasi ganz unironisch.

    So funktioniert das draußen in dieser realen Welt.

  11. Re: Das kommt raus wenn Machine learning

    Autor: captain_spaulding 11.11.19 - 14:57

    tstrunk schrieb:
    --------------------------------------------------------------------------------
    > Wenn du nun den absoluten Alkoholkonsum, aber nicht das Gender in
    > deinem Machine Learning Input Vektor hättest, dann könnte und würde dein
    > Algorithmus automatisch einen Diskrimator zwischen Männer und Frauen
    > lernen.
    Das könnte er, wenn "Geschlecht" ein Inputparameter wäre. Aber das wird hoffentlich verboten sein. Genauso wie "Hautfarbe".

  12. Re: Das kommt raus wenn Machine learning

    Autor: aLpenbog 11.11.19 - 15:08

    SchluppoMäcQuarkkeulchen schrieb:
    --------------------------------------------------------------------------------
    > Schnarchnase schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > >
    > > Du willst jetzt nicht ernsthaft behaupten, dass das Geschlecht, die
    > > Hautfarbe oder das Alter irgendeine Relevanz bei der Risikobewertung
    > eines
    > > Kredites haben oder?
    >
    > Exakt das behaupte ich. Und auch noch ernsthaft. Quasi ganz unironisch.
    >
    > So funktioniert das draußen in dieser realen Welt.

    Das finde ich nicht in Ordnung. Angenommen ich möchte mit 120 Jahren ein Kredit aufnehmen, den ich in den nächsten 20 Jahren zurückzahlen möchte, warum sollte man da mein Alter beachten. Da würde ich mich aber ziemlich diskriminiert fühlen. Soll das etwa heißen, dass alte Menschen keine Ehre haben und ihre Schulden nicht zurückzahlen?!

    Das gleiche gilt natürlich auch für Lebensversicherungen und co. Ebenfalls wenn ich schon sterbenskrank sein sollte. Ich kann ja immerhin wieder gesund werden oder wünscht man mir gar den Tod?!



    1 mal bearbeitet, zuletzt am 11.11.19 15:09 durch aLpenbog.

  13. Re: Das kommt raus wenn Machine learning

    Autor: StaTiC2206 11.11.19 - 15:11

    Peter Brülls schrieb:
    --------------------------------------------------------------------------------

    > Korrekt. Ändert aber nichts daran, dass der Seifenspender diskriminiert.

    Hier musste ich jetzt echt schmunzeln :D

  14. Re: Das kommt raus wenn Machine learning

    Autor: eidolon 11.11.19 - 15:20

    Peter Brülls schrieb:
    --------------------------------------------------------------------------------
    > Korrekt. Ändert aber nichts daran, dass der Seifenspender diskriminiert.

    Er diskriminiert aber nicht, er hat technische Probleme bei bestimmten Hautfarben. Das sollte man unterscheiden können.

    Oder diskriminiert dein Smartphone auch, weil man dunkelhäutige Menschen auf Fotos nachts schlechter erkennen kann?

  15. Re: Das kommt raus wenn Machine learning

    Autor: einglaskakao 11.11.19 - 15:30

    captain_spaulding schrieb:
    --------------------------------------------------------------------------------
    > tstrunk schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Wenn du nun den absoluten Alkoholkonsum, aber nicht das Gender in
    > > deinem Machine Learning Input Vektor hättest, dann könnte und würde dein
    > > Algorithmus automatisch einen Diskrimator zwischen Männer und Frauen
    > > lernen.
    > Das könnte er, wenn "Geschlecht" ein Inputparameter wäre. Aber das wird
    > hoffentlich verboten sein. Genauso wie "Hautfarbe".
    Ich verstehe Dein Ansinnen, aber welcher Inputparameter wäre denn diskriminierungsfrei?
    Man könnte nun Geschlecht, Religion und Hautfarbe weglassen, aber dafür die Straße oder den Konsum an Alkohol an sich nehmen.
    Nun kann ich nichts dafür, wenn in meiner Straße vermehrt getrunken wird.
    Auch wenn ich eventuell mehr als der Durchschnitt trinke, weil ich deutlich mehr vertrage, ist dies in gewisser Weise diskriminierend.

    War da nicht auch mal was bei den Startup-Kreditunternehmen, die schon anhand des Browsers und Betriebssystems mit dem man die Seite aufruft eine Kreditwürdigkeit errechnen?

    Ich sehe insgesamt keine Vorteile in Machine Learning, es führt zwangsläufig zu Massenüberwachung und Zwangsangepasstheit, weil man nicht aus dem Muster fallen und somit nicht riskieren möchte, diskriminiert/eingeschränkt zu werden.

  16. Re: Das kommt raus wenn Machine learning

    Autor: JPanse 11.11.19 - 15:35

    Peter Brülls schrieb:
    --------------------------------------------------------------------------------
    > SchluppoMäcQuarkkeulchen schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Moment mal. Man sollte nicht alles in einen großen Suppentopf schmeißen.
    > >
    > > Dieser Seifenspender wurde ja nicht mit rassistischer Absicht gebaut.
    >
    > Korrekt. Ändert aber nichts daran, dass der Seifenspender diskriminiert.
    >

    Ernsthaft? Wenn ein Gerät nicht so funktioniert wie es soll ist es Diskriminierung? Vorallem, dieser Seifenspender wird auch hellhäutige Menschen "diskriminieren" sofern deren Hände nur schmutzig genug sind. Die Erklärung für das Versagen des Seifenspenders dürfte so einfach wie dämlich sein. Infrarotsensor der eine entsprechend starke reflexion erwartet. Je dunkler ein Material, in diesem Fall Haut, desto weniger wird reflektiert.

    Nur um es klarzustellen. Der Seifenspender ist einfach ein Fail sondergleichen und die Firma die diesen fabriziert hat gehört ausgelacht bis zum Sanktnimmerleinstag. Aber bei einem Konstruktionsfehler von Diskriminierung ("Benachteiligung oder Herabwürdigung von Gruppen oder einzelnen Personen nach Maßgabe bestimmter Wertvorstellungen oder aufgrund unreflektierter, z. T. auch unbewusster Einstellungen, Vorurteile oder emotionaler Assoziationen" siehe Wikipedia (nebenbei die am einfachsten zu erfüllende Definition die ich gerade gefunden habe)) zu sprechen ist mindestens genauso lächerlich.

  17. Re: Das kommt raus wenn Machine learning

    Autor: captain_spaulding 11.11.19 - 16:08

    einglaskakao schrieb:
    --------------------------------------------------------------------------------
    > Nun kann ich nichts dafür, wenn in meiner Straße vermehrt getrunken wird.
    > Auch wenn ich eventuell mehr als der Durchschnitt trinke, weil ich deutlich
    > mehr vertrage, ist dies in gewisser Weise diskriminierend.
    Ja, aber es ist immerhin kein Rassismus. Wenn man keine Einzelfallentscheidungen mit kompletten Daten macht, kann Diskriminierung nicht ausgeschlossen werden.

  18. Re: Das kommt raus wenn Machine learning

    Autor: Oktavian 11.11.19 - 16:13

    > Ich als junger weißer cis Mann bezahle ja auch höhere kfz Versicherungen
    > Als ne junge Frau. Einfach weil Risiko. Gleichberechtigung bedeutet auch
    > gleiches Recht auf Diskriminierung.

    Schon seit etlichen Jahren gibt es nur noch Unisex-Tarife. Vorher war tatsächlich KfZ für den Mann teurer, Krankenversicherung für die Frau fast unbezahlbar. Risiko-Lebensversicherung war für den Mann teurer, Rentenversicherung für die Frau, usw.

  19. Re: Das kommt raus wenn Machine learning

    Autor: Schnarchnase 11.11.19 - 16:16

    tstrunk schrieb:
    --------------------------------------------------------------------------------
    > Harmloses, weil unrealistisches, Beispiel:
    > Stell dir mal vor du könntest tatsächlichen Alkoholkonsum tracken.
    > Dann würde ich nun vermuten: Erhöhter Alkoholkonsum == weniger
    > Kreditwürdig.

    Das Beispiel finde ich perfekt als Negativbeispiel. Es beruht auf irgendwelchen nicht beweisbaren Annahmen. Ich bin der Meinung man sollte sich an die Fakten halten. Gerade bei Geld funktioniert das meiner Meinung nach gut. Bei Neukunden hat man erst mal ein erhöhtes Risiko, aber mit jeder Transaktion lässt sich der Kunde immer besser und ganz individuell einschätzen.

  20. Re: Das kommt raus wenn Machine learning

    Autor: Schnarchnase 11.11.19 - 16:20

    SchluppoMäcQuarkkeulchen schrieb:
    --------------------------------------------------------------------------------
    > Exakt das behaupte ich. Und auch noch ernsthaft. Quasi ganz unironisch.

    Den Beweis ist bisher jeder schuldig geblieben, aber ich lasse mich gerne vom Gegenteil überzeugen. Statistik ist übrigens kein Beweis.

    > So funktioniert das draußen in dieser realen Welt.

    Dass diese Praxis existiert ist mir bewusst, aber auf diese Diskrepanz wollte ich hinaus: Es gibt keinen kausalen Zusammenhang. Einige missverstehen statistische Korrelation als solchen und diskriminieren auf der Grundlage. Das heißt aber nicht, dass es richtige wäre.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Porsche Deutschland GmbH, Bietigheim-Bissingen
  2. Deloitte, Leipzig
  3. Medienzentrum Pforzheim-Enzkreis, Pforzheim
  4. Linde Material Handling GmbH, Hamburg, Aschaffenburg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. 2,49€
  2. (-70%) 5,99€
  3. 4,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Netzwerke: Warum 5G nicht das bessere Wi-Fi ist
Netzwerke
Warum 5G nicht das bessere Wi-Fi ist

5G ist mit großen Marketing-Versprechungen verbunden. Doch tatsächlich wird hier mit immensem technischem und finanziellem Aufwand überwiegend das umgesetzt, was Wi-Fi bereits kann - ohne dessen Probleme zu lösen.
Eine Analyse von Elektra Wagenrad

  1. Rechenzentren 5G lässt Energiebedarf stark ansteigen
  2. Hamburg Telekom startet 5G in weiterer Großstadt
  3. Campusnetze Bisher nur sechs Anträge auf firmeneigenes 5G-Netz

Echo Dot mit Uhr und Nest Mini im Test: Amazon hängt Google ab
Echo Dot mit Uhr und Nest Mini im Test
Amazon hängt Google ab

Amazon und Google haben ihre kompakten smarten Lautsprecher überarbeitet. Wir haben den Nest Mini mit dem neuen Echo Dot mit Uhr verglichen. Google hat es sichtlich schwer, konkurrenzfähig zu Amazon zu bleiben.
Ein Test von Ingo Pakalski

  1. Digitale Assistenten Amazon verkauft dreimal mehr smarte Lautsprecher als Google
  2. Googles Hardware-Chef Osterloh weist Besuch auf smarte Lautsprecher hin
  3. Telekom Smart Speaker im Test Der smarte Lautsprecher, der mit zwei Zungen spricht

Weltraumsimulation: Die Star-Citizen-Euphorie ist ansteckend
Weltraumsimulation
Die Star-Citizen-Euphorie ist ansteckend

Jubelnde Massen, ehrliche Entwickler und ein 30 Kilogramm schweres Modell des Javelin-Zerstörers: Die Citizencon 2949 hat gezeigt, wie sehr die Community ihr Star Citizen liebt. Auf der anderen Seite reden Entwickler Klartext, statt Marketing-Floskeln zum Besten zu geben. Das steckt an.
Ein IMHO von Oliver Nickel

  1. Theatres of War angespielt Star Citizen wird zu Battlefield mit Raumschiffen
  2. Star Citizen Mit der Carrack ins neue Sonnensystem
  3. Star Citizen Squadron 42 wird noch einmal verschoben

  1. Energiewende: Dänemark plant künstliche Insel für Wasserstofferzeugung
    Energiewende
    Dänemark plant künstliche Insel für Wasserstofferzeugung

    Dänemark will seine klimaschädlichen Emissionen bis 2030 um 70 Prozent reduzieren. Eine Maßnahme ist der weitere Ausbau der Windenergie. Die Regierung plant einen riesigen Windpark mit angeschlossener Power-To-X-Anlage auf einer künstlichen Insel.

  2. 3D-Druck: Elektronik soll frei verwendbar und reparierbar werden
    3D-Druck
    Elektronik soll frei verwendbar und reparierbar werden

    Gegen die gewollte Obsoleszenz sollen Hersteller Bauanleitungen der Allgemeinheit zur Verfügung stellen. Das fordern die Grünen im Bundestag. So sollten Nutzer Ersatzteile zum Beispiel mit dem 3D-Drucker selbst herstellen können. Auf Reparaturdienstleistungen soll der reduzierte Mehrwertsteuersatz erhoben werden.

  3. Security Essentials: MSE ist nicht Teil des erweiterten Windows-7-Supports
    Security Essentials
    MSE ist nicht Teil des erweiterten Windows-7-Supports

    Zum Ende des Windows-7-Supports wird auch das kostenlose Antivirenprogramm Microsoft Security Essentials eingestellt. Da hilft auch der erweiterte Support nicht weiter. Ein Umstieg auf andere Anbieter ist daher wohl unvermeidbar.


  1. 15:32

  2. 14:52

  3. 14:00

  4. 13:26

  5. 13:01

  6. 12:15

  7. 12:04

  8. 11:52