Abo
  1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › Deepmind: Mit neuronalem Netz…

Ein Problem

  1. Thema

Neues Thema Ansicht wechseln


  1. Ein Problem

    Autor: Bujin 08.02.16 - 12:23

    Neuronale Netzwerke sind ja schön und gut aber nehmen wir mal an man benutzt diese für irgendeinen Service der Menschen betrifft. Die einzige Möglichkeit mit Millionen Menschen zu interagieren wäre doch das Internet. Man würde die Maschine mit Millionen Menschen verbinden und sie würde so lernen wie sie uns am besten dienen kann. Sie würde mehr über uns lernen als wir je über uns selbst lernen könnten.

    Wie könnten wir jemals feststellen ob uns diese Maschine überhaupt korrekte Ergebnisse liefert, wenn sie lernen würde dass sie mit Falschinformationen eher ans Ziel kommt? Wenn man mal genau darüber nachdenkt werden wir doch schon lange von einem Computer gesteuert. Wir googlen jeden Tag und dabei konzentrieren wir uns eigentlich nur auf die erste Seite.

    Jetzt passiert etwas erstaunliches: Der Computer hat sein neuronales Netz das lernt wie es Inhalte im Netz bewertet und die Rückkopplung kommt vom Menschen der sich daran anpasst (SEO). Wohin kann so eine Rückkopplung führen? Wir sind Teil des Algorithmus und die Maschine wird lernen wie sie uns zu beeinflussen hat, damit die Inhalte die es im Netz gibt immer höher eingestuft werden.

    Ich finde sowas echt erschreckend zumal niemand alles überblicken kann. Niemand bei Google weiß was jeder einzelne für Suchergebnisse sieht weil es einfach zu viele sind.

    Es geht aber noch weiter. Google lernt dass bei Katastrophen das Interesse am Netz gewaltig ansteigt. Leute informieren sich online über das was passiert ist. So ein neuronales Netz könnte ohne Probleme lernen Konflikte auszulösen. Es muss nur die Suchergebnisse an strategisch wichtigen Punkten anpassen. Da bekomm ich direkt ne Gänsehaut^^

  2. Re: Ein Problem

    Autor: Peter Später 08.02.16 - 12:28

    Okay Google. Brauche ich heute einen Regenschirm?

    - Nein

    "es regnet"

    *face of betrayal*

  3. Re: Ein Problem

    Autor: Bujin 08.02.16 - 12:30

    Ja, du denkst es wäre nur ein simpler Fehler aber die wahre Absicht könnte gewesen sein dich ein bisschen zu verärgern, was mit Sicherheit deine Entscheidungen des jeweiligen Tages beeinflussen wird.

    Ich meine klar, sowas gleicht einer Verschwörungstheorie aber könnten wir wirklich feststellen ob es nur ein zufälliger Fehler war oder doch gezielt?

  4. Re: Ein Problem

    Autor: photoliner 08.02.16 - 14:49

    Bujin schrieb:
    --------------------------------------------------------------------------------
    > Es geht aber noch weiter. Google lernt dass bei Katastrophen das Interesse
    > am Netz gewaltig ansteigt. Leute informieren sich online über das was
    > passiert ist. So ein neuronales Netz könnte ohne Probleme lernen Konflikte
    > auszulösen. Es muss nur die Suchergebnisse an strategisch wichtigen Punkten
    > anpassen. Da bekomm ich direkt ne Gänsehaut^^


    Das würde aber bedeuten, dass dieses neuronale Netz versteht, Inhalte zu generieren. Noch zieht es mehr oder weniger "intelligente" Schlüsse aus Dingen, die es vorher millionenmal gesehen und davon diverse Male falsch eingeschätzt hat.
    Solange wir noch lange nicht an dem Punkt der Generierung von Inhalten angekommen sind, sehe ich NNs als spezialisierte Nische, denn als Bedrohung.

  5. Re: Ein Problem

    Autor: theonlyone 08.02.16 - 15:50

    Was das "Ziel" ist bestimmt man mit einem Punkte System.

    Die ganze Logik baut darauf auf das abfolgen von Aktionen besser sind die am Ende mehr Punkte bekommen.

    Gerade bei der Interaktion mit Menschen sollte die Zufriedenheit der Menschen hcoh gewichtet sein, den egal was raus kommt, wenn der Mensch am Ende unzufriedener ist als zuvor ist das schlecht.


    Wie man diese Puntke verteilung macht, DAS ist die Sache des Programmierers der die Daten vorgibt und da kann man natürlich viel "schmu" einbauen.

    Am Ende lässt man sein netz auch nicht blind loslaufen, irgendwer muss auch mal bewerten ob es tut was man sich vorgestellt hat und genau da greift wieder ein Mensch ein und im Zweifel passt man seine Punkte vergabe eben wieder an, bis man Ergebnisse bekommt die einen zufriedenstellen.

    Schlechte Handlungen werden entsprechend mit wenig oder negativen Punkten bewertet, die Logik des Netz wird also versuchen diese Aktionen zu vermeiden.



    Je nachdem wie viel Handlungsspielraum die Logik hat kann aus jeder Kleinigkeit eine Katastrophe entstehen, wenn wir sie auf die reale Welt loslassen.
    Ein Wegfindungsalgorithmus ist eine Sache, aber sobald ein abstraktes Ziel definiert ist Menschen zufrieden zu stellen wird es schon schwer das Ziel genau einzugrenzen.

  6. Re: Ein Problem

    Autor: Seasdfgas 08.02.16 - 16:12

    Bujin schrieb:
    --------------------------------------------------------------------------------
    > Neuronale Netzwerke sind ja schön und gut aber nehmen wir mal an man
    > benutzt diese für irgendeinen Service der Menschen betrifft. Die einzige
    > Möglichkeit mit Millionen Menschen zu interagieren wäre doch das Internet.
    > Man würde die Maschine mit Millionen Menschen verbinden und sie würde so
    > lernen wie sie uns am besten dienen kann. Sie würde mehr über uns lernen
    > als wir je über uns selbst lernen könnten.
    >
    > Wie könnten wir jemals feststellen ob uns diese Maschine überhaupt korrekte
    > Ergebnisse liefert, wenn sie lernen würde dass sie mit Falschinformationen
    > eher ans Ziel kommt? Wenn man mal genau darüber nachdenkt werden wir doch
    > schon lange von einem Computer gesteuert. Wir googlen jeden Tag und dabei
    > konzentrieren wir uns eigentlich nur auf die erste Seite.
    >
    > Jetzt passiert etwas erstaunliches: Der Computer hat sein neuronales Netz
    > das lernt wie es Inhalte im Netz bewertet und die Rückkopplung kommt vom
    > Menschen der sich daran anpasst (SEO). Wohin kann so eine Rückkopplung
    > führen? Wir sind Teil des Algorithmus und die Maschine wird lernen wie sie
    > uns zu beeinflussen hat, damit die Inhalte die es im Netz gibt immer höher
    > eingestuft werden.
    >
    > Ich finde sowas echt erschreckend zumal niemand alles überblicken kann.
    > Niemand bei Google weiß was jeder einzelne für Suchergebnisse sieht weil es
    > einfach zu viele sind.
    >
    > Es geht aber noch weiter. Google lernt dass bei Katastrophen das Interesse
    > am Netz gewaltig ansteigt. Leute informieren sich online über das was
    > passiert ist. So ein neuronales Netz könnte ohne Probleme lernen Konflikte
    > auszulösen. Es muss nur die Suchergebnisse an strategisch wichtigen Punkten
    > anpassen. Da bekomm ich direkt ne Gänsehaut^^

    das sind probleme, die unser künstlicher freund hoffentlich in absehbarer zeit selbst löst. soll der sich mit diesen widersprüchen außeinandersetzen.

  7. Re: Ein Problem

    Autor: tingelchen 08.02.16 - 17:22

    Nur weil es heißt Neuronale Netzwerke können lernen, heißt dies noch lange nicht das es so lernen kann wie unser Gehirn oder über irgendwelche Gefühle verfügt. Solche Netzwerke werden für bestimmte Aufgaben entwickelt. Die "Knoten" können nur Informationen in einem ganz bestimmten Bereich sammeln.

    Solche Netzwerke machen sich keine Gedanken um Weltherrschaft. Solche größenwahnsinnigen Gedanken machen sich nur Menschen. Sie sammeln lediglich Informationen und verarbeiten diese anhand ihrer Programmierung. Im Grunde ein stumpfer Algorithmus nur mit dem Faktor das dieser "Fehleranalyse" betreiben kann um False Positives besser zu vermeiden.

    Oder um es anders aus zu drücken. Neuronale Netzwerke denken nicht!

  8. Re: Ein Problem

    Autor: hw75 08.02.16 - 20:55

    Natürlich ist für neuronale Netze unabdingbar, das Resultat vernünftig auf Korrektheit zu beurteilen, das gleiche gilt auch für genetische Algorithmen.

    Das Problem wird dadurch angegangen, dass der Algorithmus millionenfach auf zufällig generierte Situationen angewandt wird.

    Natürlich kann es danach immer noch vorkommen, dass der Algorithmus irgendwann nicht funktioniert, das ist bei Menschen aber auch nicht anders. "Man lernt nie aus".

  9. Re: Ein Problem

    Autor: tingelchen 09.02.16 - 14:39

    Nur das der Mensch sich seiner selbst bewusst ist und Vorstellungen von seiner Gestaltung seiner Zukunft hat. Ein Neuronales Netzwerk denkt nicht. Zum "Denken" fehlt dem Netzwerk schlicht der nötige Algorithmus ;)

    Ja, sie lernen. Habe nichts anderes behauptet. Aber sie lernen nur in einem ganz engen Rahmen. Ein Neuronales Netzwerk welches für die Bilderkennung entwickelt wurde, denkt nicht über den Inhalt der Bilder nach. Ein Neuronales Netzwerk für Spracherkennung fängt zwar an Sprache zu verstehen. Aber es denkt nicht über den Kontext nach. Es übersetzt die Sprache lediglich stumpf in eine Folge von Befehlen die andere Anwendungen verarbeiten können.

    Von der Gefahr die der TE hier anspricht, ist man mit Neuronalen Netzwerken noch Lichtjahre entfernt.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Viessmann Group, Berlin
  2. Enertrag Aktiengesellschaft, Dauerthal, Berlin
  3. Schaeffler Technologies AG & Co. KG, Herzogenaurach
  4. Rolf Weber KG, Schauenstein

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 337,00€
  2. 69,99€ (Release am 25. Oktober)
  3. 39,99€ (Release am 3. Dezember)
  4. (aktuell u. a. Corsair Glaive RGB Gaming-Maus für 32,99€, Microsoft Office 365 Home 1 Jahr für...


Haben wir etwas übersehen?

E-Mail an news@golem.de


WLAN-Kameras ausgeknipst: Wer hat die Winkekatze geklaut?
WLAN-Kameras ausgeknipst
Wer hat die Winkekatze geklaut?

Weg ist die Winkekatze - und keine unserer vier Überwachungskameras hat den Dieb gesehen. Denn WLAN-Cams von Abus, Nest, Yi Technology und Arlo lassen sich ganz einfach ausschalten.
Von Moritz Tremmel

  1. Wi-Fi 6 Router und Clients für den neuen WLAN-Standard
  2. Wi-Fi 6 und 802.11ax Was bringt der neue WLAN-Standard?
  3. Brandenburg Vodafone errichtet 1.200 kostenlose WLAN-Hotspots

IT-Sicherheit: Auch kleine Netze brauchen eine Firewall
IT-Sicherheit
Auch kleine Netze brauchen eine Firewall

Unternehmen mit kleinem Geldbeutel verzichten häufig auf eine Firewall. Das sollten sie aber nicht tun, wenn ihnen die Sicherheit ihres Netzwerks wichtig ist.
Von Götz Güttich

  1. Anzeige Wo Daten wirklich sicher liegen
  2. Erasure Coding Das Ende von Raid kommt durch Mathematik
  3. Endpoint Security IT-Sicherheit ist ein Cocktail mit vielen Zutaten

Internetprovider: P(y)ures Chaos
Internetprovider
P(y)ures Chaos

95 Prozent der Kunden des Internetproviders Pyur bewerten die Leistung auf renommierten Bewertungsportalen mit der Schulnote 6. Ein Negativrekord in der Branche. Was steckt hinter der desaströsen Kunden(un)zufriedenheit bei der Marke von Tele Columbus? Ein Selbstversuch.
Ein Erfahrungsbericht von Tarik Ahmia

  1. Bundesnetzagentur Nur 13 Prozent bekommen im Festnetz die volle Datenrate

  1. Quartalsbericht: Netflix erneut mit rückläufigem Kundenwachstum
    Quartalsbericht
    Netflix erneut mit rückläufigem Kundenwachstum

    Netflix kann ein weiteres Mal die selbstgesteckten Ziele bei der Gewinnung neuer Abonnenten nicht ganz erreichen. Doch Gewinn und Umsatz legen stark zu.

  2. Ex-Mars Cube: LED-Zauberwürfel bringt Anfängern das Puzzle bei
    Ex-Mars Cube
    LED-Zauberwürfel bringt Anfängern das Puzzle bei

    Der Ex-Mars Cube hat wie ein herkömmlicher Zauberwürfel sechs Seiten mit je neun Farbkacheln - das System kann allerdings auch als Brettspielwürfel oder Dekolicht genutzt werden und Anfängern die Logik dahinter erklären.

  3. FWA: Huawei verspricht schnellen Glasfaserausbau ohne Spleißen
    FWA
    Huawei verspricht schnellen Glasfaserausbau ohne Spleißen

    Huawei hat Komponenten für den Glasfaserausbau entwickelt, die das Spleißen überflüssig machen sollen. Statt in 360 Minuten könne mit End-to-End-Plug-and-Play der Prozess in nur 36 Minuten erfolgen.


  1. 22:46

  2. 17:41

  3. 16:29

  4. 16:09

  5. 15:42

  6. 15:17

  7. 14:58

  8. 14:43