Abo
  1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › Deepmind: Mit neuronalem Netz…

Ein Problem

  1. Thema

Neues Thema Ansicht wechseln


  1. Ein Problem

    Autor: Bujin 08.02.16 - 12:23

    Neuronale Netzwerke sind ja schön und gut aber nehmen wir mal an man benutzt diese für irgendeinen Service der Menschen betrifft. Die einzige Möglichkeit mit Millionen Menschen zu interagieren wäre doch das Internet. Man würde die Maschine mit Millionen Menschen verbinden und sie würde so lernen wie sie uns am besten dienen kann. Sie würde mehr über uns lernen als wir je über uns selbst lernen könnten.

    Wie könnten wir jemals feststellen ob uns diese Maschine überhaupt korrekte Ergebnisse liefert, wenn sie lernen würde dass sie mit Falschinformationen eher ans Ziel kommt? Wenn man mal genau darüber nachdenkt werden wir doch schon lange von einem Computer gesteuert. Wir googlen jeden Tag und dabei konzentrieren wir uns eigentlich nur auf die erste Seite.

    Jetzt passiert etwas erstaunliches: Der Computer hat sein neuronales Netz das lernt wie es Inhalte im Netz bewertet und die Rückkopplung kommt vom Menschen der sich daran anpasst (SEO). Wohin kann so eine Rückkopplung führen? Wir sind Teil des Algorithmus und die Maschine wird lernen wie sie uns zu beeinflussen hat, damit die Inhalte die es im Netz gibt immer höher eingestuft werden.

    Ich finde sowas echt erschreckend zumal niemand alles überblicken kann. Niemand bei Google weiß was jeder einzelne für Suchergebnisse sieht weil es einfach zu viele sind.

    Es geht aber noch weiter. Google lernt dass bei Katastrophen das Interesse am Netz gewaltig ansteigt. Leute informieren sich online über das was passiert ist. So ein neuronales Netz könnte ohne Probleme lernen Konflikte auszulösen. Es muss nur die Suchergebnisse an strategisch wichtigen Punkten anpassen. Da bekomm ich direkt ne Gänsehaut^^

  2. Re: Ein Problem

    Autor: Peter Später 08.02.16 - 12:28

    Okay Google. Brauche ich heute einen Regenschirm?

    - Nein

    "es regnet"

    *face of betrayal*

  3. Re: Ein Problem

    Autor: Bujin 08.02.16 - 12:30

    Ja, du denkst es wäre nur ein simpler Fehler aber die wahre Absicht könnte gewesen sein dich ein bisschen zu verärgern, was mit Sicherheit deine Entscheidungen des jeweiligen Tages beeinflussen wird.

    Ich meine klar, sowas gleicht einer Verschwörungstheorie aber könnten wir wirklich feststellen ob es nur ein zufälliger Fehler war oder doch gezielt?

  4. Re: Ein Problem

    Autor: photoliner 08.02.16 - 14:49

    Bujin schrieb:
    --------------------------------------------------------------------------------
    > Es geht aber noch weiter. Google lernt dass bei Katastrophen das Interesse
    > am Netz gewaltig ansteigt. Leute informieren sich online über das was
    > passiert ist. So ein neuronales Netz könnte ohne Probleme lernen Konflikte
    > auszulösen. Es muss nur die Suchergebnisse an strategisch wichtigen Punkten
    > anpassen. Da bekomm ich direkt ne Gänsehaut^^


    Das würde aber bedeuten, dass dieses neuronale Netz versteht, Inhalte zu generieren. Noch zieht es mehr oder weniger "intelligente" Schlüsse aus Dingen, die es vorher millionenmal gesehen und davon diverse Male falsch eingeschätzt hat.
    Solange wir noch lange nicht an dem Punkt der Generierung von Inhalten angekommen sind, sehe ich NNs als spezialisierte Nische, denn als Bedrohung.

  5. Re: Ein Problem

    Autor: theonlyone 08.02.16 - 15:50

    Was das "Ziel" ist bestimmt man mit einem Punkte System.

    Die ganze Logik baut darauf auf das abfolgen von Aktionen besser sind die am Ende mehr Punkte bekommen.

    Gerade bei der Interaktion mit Menschen sollte die Zufriedenheit der Menschen hcoh gewichtet sein, den egal was raus kommt, wenn der Mensch am Ende unzufriedener ist als zuvor ist das schlecht.


    Wie man diese Puntke verteilung macht, DAS ist die Sache des Programmierers der die Daten vorgibt und da kann man natürlich viel "schmu" einbauen.

    Am Ende lässt man sein netz auch nicht blind loslaufen, irgendwer muss auch mal bewerten ob es tut was man sich vorgestellt hat und genau da greift wieder ein Mensch ein und im Zweifel passt man seine Punkte vergabe eben wieder an, bis man Ergebnisse bekommt die einen zufriedenstellen.

    Schlechte Handlungen werden entsprechend mit wenig oder negativen Punkten bewertet, die Logik des Netz wird also versuchen diese Aktionen zu vermeiden.



    Je nachdem wie viel Handlungsspielraum die Logik hat kann aus jeder Kleinigkeit eine Katastrophe entstehen, wenn wir sie auf die reale Welt loslassen.
    Ein Wegfindungsalgorithmus ist eine Sache, aber sobald ein abstraktes Ziel definiert ist Menschen zufrieden zu stellen wird es schon schwer das Ziel genau einzugrenzen.

  6. Re: Ein Problem

    Autor: Seasdfgas 08.02.16 - 16:12

    Bujin schrieb:
    --------------------------------------------------------------------------------
    > Neuronale Netzwerke sind ja schön und gut aber nehmen wir mal an man
    > benutzt diese für irgendeinen Service der Menschen betrifft. Die einzige
    > Möglichkeit mit Millionen Menschen zu interagieren wäre doch das Internet.
    > Man würde die Maschine mit Millionen Menschen verbinden und sie würde so
    > lernen wie sie uns am besten dienen kann. Sie würde mehr über uns lernen
    > als wir je über uns selbst lernen könnten.
    >
    > Wie könnten wir jemals feststellen ob uns diese Maschine überhaupt korrekte
    > Ergebnisse liefert, wenn sie lernen würde dass sie mit Falschinformationen
    > eher ans Ziel kommt? Wenn man mal genau darüber nachdenkt werden wir doch
    > schon lange von einem Computer gesteuert. Wir googlen jeden Tag und dabei
    > konzentrieren wir uns eigentlich nur auf die erste Seite.
    >
    > Jetzt passiert etwas erstaunliches: Der Computer hat sein neuronales Netz
    > das lernt wie es Inhalte im Netz bewertet und die Rückkopplung kommt vom
    > Menschen der sich daran anpasst (SEO). Wohin kann so eine Rückkopplung
    > führen? Wir sind Teil des Algorithmus und die Maschine wird lernen wie sie
    > uns zu beeinflussen hat, damit die Inhalte die es im Netz gibt immer höher
    > eingestuft werden.
    >
    > Ich finde sowas echt erschreckend zumal niemand alles überblicken kann.
    > Niemand bei Google weiß was jeder einzelne für Suchergebnisse sieht weil es
    > einfach zu viele sind.
    >
    > Es geht aber noch weiter. Google lernt dass bei Katastrophen das Interesse
    > am Netz gewaltig ansteigt. Leute informieren sich online über das was
    > passiert ist. So ein neuronales Netz könnte ohne Probleme lernen Konflikte
    > auszulösen. Es muss nur die Suchergebnisse an strategisch wichtigen Punkten
    > anpassen. Da bekomm ich direkt ne Gänsehaut^^

    das sind probleme, die unser künstlicher freund hoffentlich in absehbarer zeit selbst löst. soll der sich mit diesen widersprüchen außeinandersetzen.

  7. Re: Ein Problem

    Autor: tingelchen 08.02.16 - 17:22

    Nur weil es heißt Neuronale Netzwerke können lernen, heißt dies noch lange nicht das es so lernen kann wie unser Gehirn oder über irgendwelche Gefühle verfügt. Solche Netzwerke werden für bestimmte Aufgaben entwickelt. Die "Knoten" können nur Informationen in einem ganz bestimmten Bereich sammeln.

    Solche Netzwerke machen sich keine Gedanken um Weltherrschaft. Solche größenwahnsinnigen Gedanken machen sich nur Menschen. Sie sammeln lediglich Informationen und verarbeiten diese anhand ihrer Programmierung. Im Grunde ein stumpfer Algorithmus nur mit dem Faktor das dieser "Fehleranalyse" betreiben kann um False Positives besser zu vermeiden.

    Oder um es anders aus zu drücken. Neuronale Netzwerke denken nicht!

  8. Re: Ein Problem

    Autor: hw75 08.02.16 - 20:55

    Natürlich ist für neuronale Netze unabdingbar, das Resultat vernünftig auf Korrektheit zu beurteilen, das gleiche gilt auch für genetische Algorithmen.

    Das Problem wird dadurch angegangen, dass der Algorithmus millionenfach auf zufällig generierte Situationen angewandt wird.

    Natürlich kann es danach immer noch vorkommen, dass der Algorithmus irgendwann nicht funktioniert, das ist bei Menschen aber auch nicht anders. "Man lernt nie aus".

  9. Re: Ein Problem

    Autor: tingelchen 09.02.16 - 14:39

    Nur das der Mensch sich seiner selbst bewusst ist und Vorstellungen von seiner Gestaltung seiner Zukunft hat. Ein Neuronales Netzwerk denkt nicht. Zum "Denken" fehlt dem Netzwerk schlicht der nötige Algorithmus ;)

    Ja, sie lernen. Habe nichts anderes behauptet. Aber sie lernen nur in einem ganz engen Rahmen. Ein Neuronales Netzwerk welches für die Bilderkennung entwickelt wurde, denkt nicht über den Inhalt der Bilder nach. Ein Neuronales Netzwerk für Spracherkennung fängt zwar an Sprache zu verstehen. Aber es denkt nicht über den Kontext nach. Es übersetzt die Sprache lediglich stumpf in eine Folge von Befehlen die andere Anwendungen verarbeiten können.

    Von der Gefahr die der TE hier anspricht, ist man mit Neuronalen Netzwerken noch Lichtjahre entfernt.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. KÖNIGSTEINER GmbH, Stuttgart
  2. Stadt Leipzig Neues Rathaus, Leipzig
  3. Universitätsklinikum Augsburg, Augsburg
  4. Universität Passau, Passau

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Kingston A400 1.92 TB für 159,90€ + Versand statt ca. 176€ im Vergleich)
  2. (u. a. Logitech MX Master Gaming-Maus für 47,99€, Gaming-Tastaturen ab 39,00€, Lautsprecher ab...
  3. (aktuell u. a. AKRacing Masster Premium Gaming-Stuhl für 269,00€, QPAD OH-91 Headset für 49...
  4. 99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Cyberangriffe: Attribution ist wie ein Indizienprozess
Cyberangriffe
Attribution ist wie ein Indizienprozess

Russland hat den Bundestag gehackt! China wollte die Bayer AG ausspionieren! Bei großen Hackerangriffen ist oft der Fingerzeig auf den mutmaßlichen Täter nicht weit. Knallharte Beweise dafür gibt es selten, Hinweise sind aber kaum zu vermeiden.
Von Anna Biselli

  1. Double Dragon APT41 soll für Staat und eigenen Geldbeutel hacken
  2. Internet of Things Neue Angriffe der Hackergruppe Fancy Bear
  3. IT-Security Hoodie-Klischeebilder sollen durch Wettbewerb verschwinden

Rabbids Coding angespielt: Hasenprogrammierung für Einsteiger
Rabbids Coding angespielt
Hasenprogrammierung für Einsteiger

Erst ein paar einfache Anweisungen, dann folgen Optimierungen: Mit dem kostenlos erhältlichen PC-Lernspiel Rabbids Coding von Ubisoft können Jugendliche und Erwachsene ein bisschen über Programmierung lernen und viel Spaß haben.
Von Peter Steinlechner

  1. Transport Fever 2 angespielt Wachstum ist doch nicht alles
  2. Mordhau angespielt Die mit dem Schwertknauf zuschlagen
  3. Bus Simulator angespielt Zwischen Bodenschwelle und Haltestelle

Samsung CRG9 im Test: Das Raumschiffcockpit für den Schreibtisch
Samsung CRG9 im Test
Das Raumschiffcockpit für den Schreibtisch

Keine Frage: An das Curved Panel und das 32:9-Format des Samsung CRG9 müssen wir uns erst gewöhnen. Dann aber wollen wir es fast nicht mehr hergeben. Dank der hohen Bildfrequenz und guten Auflösung vermittelt der Monitor ein immersives Gaming-Erlebnis - als wären wir mittendrin.
Ein Test von Oliver Nickel

  1. Android Samsung will Android-10-Beta auch für Galaxy Note 10 bringen
  2. Speichertechnik Samsung will als Erster HBM2 in 12 Ebenen und 24 GByte bauen
  3. Samsung Fehler am Display des Galaxy Fold aufgetreten

  1. Quartalsbericht: Microsoft steigert Gewinn und Umsatz zweistellig
    Quartalsbericht
    Microsoft steigert Gewinn und Umsatz zweistellig

    Microsoft hat wie erwartet starkes Wachstum bei Umsatz und Gewinn verzeichnet. Der Softwarekonzern erreichte eine Marktkapitalisierung von 1,056 Billionen US-Dollar. Das Cloudgeschäft legt wieder massiv zu.

  2. Kongress-Anhörung: Zuckerberg will Zustimmung der USA zu Libra abwarten
    Kongress-Anhörung
    Zuckerberg will Zustimmung der USA zu Libra abwarten

    Mark Zuckerberg muss den US-Abgeordneten Rede und Antwort zur Digitalwährung Libra stehen. Der Facebook-Chef warnt vor einem Bedeutungsverlust der US-Finanzwirtschaft bei einer Blockade des Projekts.

  3. Mikrowellen: Verizons 5G Netz kann kein Stadion ausleuchten
    Mikrowellen
    Verizons 5G Netz kann kein Stadion ausleuchten

    Verizon kündigt sein 5G Ultra Wideband für Stadien an. Doch nur ein Teil der Besucher kann das Netz auch nutzen, da der Betreiber ein Problem mit der Ausleuchtung hat.


  1. 22:46

  2. 19:16

  3. 19:01

  4. 17:59

  5. 17:45

  6. 17:20

  7. 16:55

  8. 16:10