1. Foren
  2. Kommentare
  3. Security
  4. Alle Kommentare zum Artikel
  5. › Überwachung: Bündnis fordert Verbot…

Diskriminierung

  1. Thema

Neues Thema Ansicht wechseln


  1. Diskriminierung

    Autor: trinkhorn 09.01.20 - 14:25

    Gute Sache, dass dagegen Einspruch erhoben wird, aber dieses Zitat versteh ich nicht:
    > "Automatische Gesichtserkennung ist eine Hochrisikotechnologie", sagte Viktor Schlüter von Digitale Freiheit. Hohe Falscherkennungsraten, die Diskriminierung von Frauen und nicht-weißer Menschen sowie das enorme Missbrauchspotential stellten eine Gefahr für die Demokratie dar.

    Was haben die Diskriminierung von Frauen und nichtweißen Menschen damit zu tun? Sind die Systeme bei Frauen die (eher/mehr) geschminkt sind als Männer und bei Menschen die nicht weiß sind weniger präzise, oder wo ist da der Zusammenhang?

    (Ich will hier nicht sagen, dass Diskriminierung keine Gefahr für Demokratie darstellt, aber ich verstehe die Erwähnung in diesem Kontext nicht.)

  2. Re: Diskriminierung

    Autor: c3rl 09.01.20 - 14:37

    trinkhorn schrieb:
    --------------------------------------------------------------------------------
    > Sind die Systeme bei Frauen die (eher/mehr) geschminkt sind als Männer
    > und bei Menschen die nicht weiß sind weniger präzise, oder wo ist da der
    > Zusammenhang?

    Korrekt. Gerade bei Menschen mit sehr dunkler Hautfarbe funktioniert das nur unter guten Lichtverhältnissen. Das Problem gibts in ähnlichen Formen schon seit Jahrzehnten, weil Kamera-Technologie hauptsächlich von weißen Menschen entwickelt und mit solchen getestet wird. Viele Digitalkameras erkennen bis heute schwarzen Gesichter wie gesagt nur unter sehr guten Lichtbedingungen.

  3. Re: Diskriminierung

    Autor: bofhl 09.01.20 - 15:39

    c3rl schrieb:
    --------------------------------------------------------------------------------
    > trinkhorn schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Sind die Systeme bei Frauen die (eher/mehr) geschminkt sind als Männer
    > > und bei Menschen die nicht weiß sind weniger präzise, oder wo ist da der
    > > Zusammenhang?
    >
    > Korrekt. Gerade bei Menschen mit sehr dunkler Hautfarbe funktioniert das
    > nur unter guten Lichtverhältnissen. Das Problem gibts in ähnlichen Formen
    > schon seit Jahrzehnten, weil Kamera-Technologie hauptsächlich von weißen
    > Menschen entwickelt und mit solchen getestet wird. Viele Digitalkameras

    Das hat aber nichts mit der Hautfarbe der Entwickler oder Tester zu tun - das liegt schlicht an der Unterscheidbarkeit durch Farbenverläufe zu tun! Bei hellen Hauttönen sind die Umrisse einfacher zu erkennen, bei dünkleren Hauttönen gibt es keine klar erkennbaren Kanten, sondern es gibt eher -auch durch Verzerrungen- entstehende fliesende Verläufe, die nahezu kaum zu identifieren sind.

    > erkennen bis heute schwarzen Gesichter wie gesagt nur unter sehr guten
    > Lichtbedingungen.

  4. Re: Diskriminierung

    Autor: Qbit42 09.01.20 - 15:43

    Ich weiß nicht, ob es hier allein um die Fähigkeiten der Kamera geht. Ich hätte eher in die Richtung der neuronalen Netze gedacht. Diese werden häufig zur Bildanalyse eingesetzt und dort schwebt dieser Vorwurf schon länger im Raum.

    Das Problem: Diese neuronalen Netze müssen mit möglichst vielen Grunddaten angelernt werden. Diese Grunddaten haben oft aber keine Gleichverteilung aller ethnischen und geschlechtlichen Merkmale, weshalb es bei der Erkennung oft zu einem starken Bias kommen kann.

    Aber genaueres kann wohl nur Herr Schlüter sagen.

  5. Re: Diskriminierung

    Autor: c3rl 09.01.20 - 15:44

    Das ist absolut klar, ändert aber nichts an der von mir geäußerten Feststellung, dass gerade Film-Kameras durch Hollywood und Co nunmal eben primär für weiße Hautfarben optimiert wurden, und sich das mit der so entstandenen Technik auch auf Digitalkameras übertrug und sogar schlimmer wurde. Niemand bezeichnet die Entwickler der Kamera als rassistisch, es ist einfach eine bloße Tatsache, und die versuchte ich zu erklären.

  6. Re: Diskriminierung

    Autor: trinkhorn 09.01.20 - 15:53

    Klingt logisch. Wenn ein Deep Learning Programm analysiert welche Autofahrer es anhalten soll, und die Polizisten aufgrund derer Dashcams es lernt rassistisch sind, dann wird auch das Programm rassistisch entscheiden.
    Oder ein HR-Algorithmus, der bemerkt, dass bei Einstellungsentscheidungen oder Gehältern das Geschlecht bei den menschlichen Entscheidern scheinbar ein signifikanter Einflussfaktor war, und das reproduziert.

    In beiden Fällen vorausgesetzt, das Deep learning versucht die Entscheidungen zu reproduzieren, statt ihre Wirksamkeit zu beurteilen. (Im 1. Beispiel wäre auch möglich, ein rassistischer Cop hält 100 Autos an. Davon 5 weiße die schlangenlinien gefahren sind, und 95 schwarze, einfach weil sie schwarz waren. Davon hat vlt. einer tatsächlich etwas verbrochen. Dann lernt der Algorithmus ein gegengesetztes (aber ebenfalls rassistisches) Verhalten und hält nur noch weiße an, da die ja zu 100% besoffen fahren, während nur 1/95 schwarzen kriminell ist...)

  7. Re: Diskriminierung

    Autor: Tango 09.01.20 - 18:02

    trinkhorn schrieb:
    --------------------------------------------------------------------------------
    > Dann lernt der Algorithmus ein gegengesetztes (aber ebenfalls
    > rassistisches) Verhalten und hält nur noch weiße an, da die ja zu 100%
    > besoffen fahren, während nur 1/95 schwarzen kriminell ist...)

    Hahaha :), danke, der ist gut! Ich hoffe doch, dass in den statistischen Modellen mehr abhängige Variablen abgeleitet und evaluiert werden. Aber bei einer naiven Implementation ist deine Logik gut nachvollziehbar.

  8. Re: Diskriminierung

    Autor: chefin 10.01.20 - 08:12

    Genau so funktioniert es aber. Und auch wenn ich 100 weitere Variable dazu gebe, da viel merh Schwarze angehalten werden nur weil sie schwarz sind, aber ihre Kriminalitätsrate wenn überhaupt nur unwessentlich höher ist im Gesamten führt das zwangsläufig dazu, das Schwarze statistisch weniger anfällig sind. Das 100 Schwarze und nur 10 Weisse in der Statistik sind egalisiert sich, wenn das System mal bei 10 Millionen Schwarze und 1 Million Weisse angekommen ist. Dann gilt eine Statistik als "zuverlässig", weil ab 1 Million jede weitere Million nur noch einige Stellen hinter dem Komma verändern.

    Diese schwäche der Statistik wird ausgemerzt, indem man bei der Auswahl der Objekte eben auf gute Zufälligkeit setzt. Das ist aber bei Learning by doing nicht mehr der Fall.

    Ich würde nun zwar gerne mathematisch einfügen, das wir einfach die Verbrechensrate heranziehen um die Masse an Schwarzen zu reduzieren. Aber dann stolpere ich drüber, das ich wenn ich die 10 Millionen Schwarze umrechne ja das Verhältniss zwischen Kontrolliert und erwischt nicht ändern darf. Dann ist es aber wiederum egal...wenn ich einfach 9 Millionen wegstreiche und dabei auch Kriminelle rauswerfe aus der Auswertung.

    Um zu einer gute Lösung zu kommen, muss ich Diskriminierung zulassen. Ich muss Bereich mit hoher Kriminalität auch dementsprechend als schwarze Ghettos klassifizieren dürfen. Wie gut das funktioniert sieht man zb beim Navi. Dort werden immer besser die Strassenverhältnisse einkalkuliert und dadurch Strassen diskriminiert als besonders Staugefährdet. Obwohl sie nur ganz wenige Minuten am Tag das Problem haben. zB das Frankfurter Kreuz, nur ca 1,5h in 24h ein problem, verteilt auf Morgens und Abends. Und selbst dann nur ab und zu, da inzwsichen recht gut ausgebaut wurde. Menschen dürfte ich so nicht einklassifizieren. Strassen darf ich.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Hays AG, Würzburg
  2. Garmin Würzburg GmbH, Würzburg
  3. BGN Berufsgenossenschaft Nahrungsmittel und Gastgewerbe, Mannheim
  4. Vodafone GmbH, verschiedene Standorte

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote


Haben wir etwas übersehen?

E-Mail an news@golem.de


Energiewende: Schafft endlich das Brennstoffzellenauto ab!
Energiewende
Schafft endlich das Brennstoffzellenauto ab!

Sie sind teurer und leistungsschwächer als E-Autos und brauchen dreimal so viel Strom. Der Akku hat gewonnen. Wasserstoff sollte für Chemie benutzt werden.
Ein IMHO von Frank Wunderlich-Pfeiffer

  1. Hyundai Nexo Wasserdampf im Rückspiegel
  2. Brennstoffzellenauto Bayern will 100 Wasserstofftankstellen bauen
  3. Elektromobilität Daimler und Volvo wollen Brennstoffzellen für Lkw entwickeln

Notebooks unter 400 Euro im Test: Duell der drei Discounter-Laptops
Notebooks unter 400 Euro im Test
Duell der drei Discounter-Laptops

Sind preiswerte Notebooks wirklich so schrecklich? Golem.de hat drei Geräte für unter 400 Euro getestet. Dabei: Acer, Medion und Trekstor.
Ein Test von Oliver Nickel

  1. Linux-Laptop System 76 bringt mobile Ryzen-Workstation
  2. Pinebook Pro im Test Der 200-US-Dollar-Linux-Laptop für Bastler
  3. Gigabyte Aero 15 Studio im Test OLED-Notebook mit cleverem Nutzer-Support

PC-Hardware: Das kann DDR5-Arbeitsspeicher
PC-Hardware
Das kann DDR5-Arbeitsspeicher

Vierfache Kapazität, doppelte Geschwindigkeit: Ein Überblick zum DDR5-Speicher für Server und Desktop-PCs.
Ein Bericht von Marc Sauter