1. Foren
  2. Kommentare
  3. Wissenschaft
  4. Alle Kommentare zum Artikel
  5. › Diskriminierung: KI ist nur so…

Fehler im System?

Helft uns, die neuen Foren besser zu machen! Unsere kleine Umfrage dauert nur wenige Sekunden!
  1. Thema

Neues Thema Ansicht wechseln


  1. Fehler im System?

    Autor: ZwoVierNeun 11.06.20 - 12:54

    Wenn eine KI sich von der Realität zB rassistisches Verhalten anlernt, dann liegt der "Fehler" tatsächlich im System. Allerdings nicht im System der KI! Dort funktioniert alles so wie es soll und auch gar nicht anders kann, ohne selbst mit einer letztendlich diskriminierenden Justierung eingreifen zu müssen.

  2. Re: Fehler im System?

    Autor: divStar 11.06.20 - 14:25

    So ist es. Die Weltpolitiker sollten erst einmal Umstände herstellen, in denen so eine Diskriminierung nicht stattfinden. Viel Erfolg.

  3. Selbstlernende KIs können gar nicht „funktionieren“

    Autor: janoP 12.06.20 - 13:18

    Ob die Ergebnisse einer selbstlernenden, auf künstlichen neuronalen Netzen basierenden KI sinnvoll sind, wird immer Glückssache bleiben. Also sollte man die Teile nur da einsetzen, wo es in Ordnung ist, wenn das Ergebnis Glückssache ist (z. B. Videospiele, Snapchat-Filter, Video- oder Audiobearbeitungsfunktionen etc.).

    Auszug aus einem längerem Beitrag, der derzeit wegen irgendwelcher Wortgruppen vom Spamfilter nicht durchgelassen wird:

    Die KIs werden immer diskriminieren, das liegt einfach in der Natur dieser Systeme, die kennen keine Logik, sondern nur Korrelationen, wie das menschliche Unterbewusstsein, das für die impliziten Vorurteile verantwortlich ist. Da nützt auch keine Vorfilterung, weil manche Korrelationen in der Welt einfach vorkommen, ohne dass man will, dass sie sich auf die Entscheidungfindung zu bestimmten Bereichen auswirken.

    Selbstlernende KI-Systeme versuchen sich an der Aufgabe der logischen Induktion, und die Philosophie weiß schon lange, dass die logische Induktion nicht möglich ist: Man kann nicht vom speziellen Fällen aufs allgemeine Regeln schließen, egal wie groß die Menge des Speziellen (die Lerndaten der KI) ist.

    Möglich ist nur der umgekehrte Fall, die Deduktion: Wenn ich weiß, dass die meisten internationalen Terrororganisationen im Allgemeinen nur Muslime nehmen, kann ich daraus schließen, dass jedes Mitglied dieser Terrororganisationen im Speziellen muslimisch ist.

    Umgekehrt geht das nicht: Wenn ich mir mehrere spezielle Fälle von Terroranschlägen ansehe und feststelle, dass sie von Muslimen ausgehen, kann ich daraus keine allgemeine Regel ableiten. KI-Systeme würden es versuchen, und wahrscheinlich zu dem Schluss kommen, dass Muslime mit hoher Wahrscheinlichkeit Terroristen sind. Was angesichts der Kausalität natürlich kompletter Schwachsinn ist.

    Daher ist das, was IBM gemacht hat, genau richtig: In kritischen Bereichen, die über klar harmlose Fälle, in denen False-Positives keine negativen Konsequenzen haben, hinaus gehen, dürfen selbstlernende KI-Systeme schlicht nicht eingesetzt werden. Sie funktionieren nicht und werden nie funktionieren können.



    4 mal bearbeitet, zuletzt am 12.06.20 13:23 durch janoP.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Amprion GmbH, Ludwigsburg
  2. GASAG AG, Berlin
  3. KfW Bankengruppe, Frankfurt am Main
  4. Allianz Deutschland AG, Stuttgart

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. 19,49€
  2. 21€
  3. (u. a. Standard Edition PC für 44,99€, Xbox One / Series S/X für 62,99€, Deluxe Edition PC...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme