Abo
  1. Foren
  2. Kommentare
  3. Foto
  4. Alle Kommentare zum Artikel
  5. › Google Brain: Algorithmus macht Gesichter…

Nicht korrekt

Anzeige
  1. Thema

Neues Thema Ansicht wechseln


  1. Nicht korrekt

    Autor: SchranzDampf 08.02.17 - 13:34

    Das neuronale (nicht neurale) Netz vergleich die samples nicht mit einem Archiv.
    Das Archiv wird nur im trainigsprozess verwendet, aus welchem das Netz FEATURES LERNT, welche zb ein Gesicht beschreiben, also Form von Nasen, Augen, Mund, sowie deren relative Position zu einander. Wer hier von einem "Vergleich" spricht, hat das prinzip von Deep Learning und neuronalen Netzen nicht ganz verstanden...
    Beste Grüße,
    SD

  2. Re: Nicht korrekt

    Autor: Eheran 08.02.17 - 14:30

    Wenn ich aus 2 Datenpunkten eine Linie Zeichne, also eine Gerade mathematisch beschreibe (etwas lerne) und dann einen der Punkte zum Überprüfen wieder hinpacke... oh welch Wunder, er liegt auf der Geraden. Und dabei wurde nicht einfach irgendwas verglichen.
    Wenn ich das mit 10 Punkten mache und die irgendwie mit einem Polynom angenähert werden, dann liegen die 10 Punkte nicht exakt auf der Kurve, aber eben mehr oder weniger dicht dran.

    Es ist einfach "nutzlos", wenn man etwas sowieso Bekanntes erkennbar macht.
    Da müssen dem Systemnicht bekannten und nicht zu Trainigszwecken verwendete Fotos rein und der Output dann mit dem Original verglichen werden.



    1 mal bearbeitet, zuletzt am 08.02.17 14:31 durch Eheran.

  3. Re: Nicht korrekt

    Autor: Trollversteher 08.02.17 - 14:33

    Irgendwie habe ich jetzt (ehrlich) nicht ganz begriffen, worauf Du hinaus willst?

  4. Re: Nicht korrekt

    Autor: Eheran 08.02.17 - 15:16

    Ein Input wird irgendwie in ein Modell gesteckt um dann später aus Input einen Output zu erzeugen.

    Hier wird der Input und das daraus resultierende Modell mit dem selben Input nochmal gefüttert. Natürlich ist der Output dann sehr nah an dem, was es ursprünglich war. Ist ja auch schon bekannt.
    Aber was wenn ich einfach ein 8x8 Pixel Bild mit einem Gesicht als Input habe? Eines, das nicht schon bekannt ist. Das wäre interessant und natürlich würde der Vergleich dann zeigen, dass das System nicht halten kann, was einige sich erhoffen.

    Das zeigen die Beispielbilder auch deutlich. Einmal wird aus einem "Breipixel" klar definierte gekräuselte Haare und beim andern mal eine abgerenzte Haarsträhne ohne irgendwelche Lücken. Beides exakt wie im Ursprungsbild.
    Oder die Menge an Zähnen, die gezeigt wird... Oder der Lippenstrift?
    Woher kommt diese Information denn? Jedenfalls nicht aus dem 8x8 Pixel Bild.

  5. Re: Nicht korrekt

    Autor: ino-fb 08.02.17 - 15:45

    > Das neuronale (nicht neurale) Netz

    Den Fehler gab es schon in der deutschen Synchronisation von 'Terminator'. Fuer einen Film verzeilich. Bei Artikeln mit auch nur angenaehertem Fachbezug kann man dann eigentlich aufhoeren, zu lesen.

  6. Re: Nicht korrekt

    Autor: Trollversteher 08.02.17 - 16:28

    Ah Ok, jetzt verstehe ich was Du meintest.

    Klar, eine KI hat schließlich auch keine übersinnlichen Kräfte - will sagen, je geringer der Informationsgehalt des "Inputs", desto unschärfer bzw ungenauer der Output.
    Ist mit unserer Phantasie ja auch nicht anders; je unschärfer ein Objekt dass wir mit unseren Sinnen erfassen, desto größer die Wahrscheinlichkeit, dass wir etwas hineininterpretieren was gar nicht da ist.

  7. Re: Nicht korrekt

    Autor: ashahaghdsa 09.02.17 - 09:22

    Eheran schrieb:
    --------------------------------------------------------------------------------
    > Hier wird der Input und das daraus resultierende Modell mit dem selben
    > Input nochmal gefüttert. Natürlich ist der Output dann sehr nah an dem, was
    > es ursprünglich war.

    Na ja, ganz so einfach war es dann doch nicht. Der Test wurde natürlich an anderen Bildern durchgeführt. Das hab ich zwar nicht so direkt im Paper gefunden, aber wenns anders wäre, hätte die NearesNeighbor-Suche hinreichend oft exakt das richtige Bild gefunden, hat sie aber nie.
    Alles andere wäre auch Betrug und geht ohne Neuronale Netze deutlich besser.
    Die NearesNeighbor gefundenen Bilder zeigen aber, wie ähnlich sich Test und Trainingsdaten waren. Damit ist das Verfahren dennoch ziemlich nutzlos.

  8. Re: Nicht korrekt

    Autor: Eheran 09.02.17 - 10:55

    >Na ja, ganz so einfach war es dann doch nicht. Der Test wurde natürlich an anderen Bildern durchgeführt.
    Aha. Und woher kommt dann die Information, dass der Pixel da gekräuselte Haare sind und nicht, dass die Haarfront an Stelle xyz ist, an der sich ebenfalls diese Mischfarbe ergeben würde?
    Weil es so schon im Trainingsbild war.
    >Das hab ich zwar nicht so direkt im Paper gefunden
    Bingo.
    >hätte die NearesNeighbor-Suche hinreichend oft exakt das richtige Bild gefunden, hat sie aber nie.
    Weil das 2 getrennte Systeme sind. Bei meinem Bispiel liegen die Ausgangspunkte auch nicht genau auf der daraus erzeugten Kurve.

  9. Re: Nicht korrekt

    Autor: ashahaghdsa 09.02.17 - 12:03

    Eheran schrieb:
    --------------------------------------------------------------------------------
    > Aha. Und woher kommt dann die Information, dass der Pixel da gekräuselte
    > Haare sind ...?
    Glück und die haben natürlich die besten Ergebnisse ausgewählt. 70% der generierten Bilder sehen richtig scheiße aus.

    > >hätte die NearesNeighbor-Suche hinreichend oft exakt das richtige Bild
    > gefunden, hat sie aber nie.
    > Weil das 2 getrennte Systeme sind.
    Wat?
    > The nearest neighbors baseline searches the downsampled training set for the nearest example (using euclidean distance) and returns its high resolution counterpart.

    Mit trainings set ist natürlich das set des NNs gemeint. Wenn das schon die gesamte Menge wäre, würde immer exakt das korrekte Bild gefunden.

    Klar, wenn du denen handfesten Betrug unterstellst, kann ich keine Gegenargumente liefern. Von dir hab ich aber auch noch keinen Beleg dafür gefunden. Dass bei einem von 80 Fotos mal ne Locke richtig geraten wurde beweist noch keinen Betrug. Die Locke ist ja auch noch das ähnlichste auf dem Bild, das Gesicht sieht doch total anders aus.

  10. Re: Nicht korrekt

    Autor: Eheran 09.02.17 - 12:30

    >Glück und die haben natürlich die besten Ergebnisse ausgewählt.
    So einen Bias hatte ich jetzt gar nicht auf dem Schirm - natürlich, das würde das erklären. Das würde die Arbeit, wenn der Großteil wirklich nutzlos ist, ebenfalls schlecht dastehen lassen. Und sämtliche Träumereien hier in dem Kommentaren ebenfalls beenden.

    Zusammenfassung: Aus 8x8 Pixel kann man keine Informationen zaubern. Auch wenn man ab und an mal Glück hat und es ähnlich aussieht.

  11. Re: Nicht korrekt

    Autor: ashahaghdsa 09.02.17 - 13:09

    Sagen wir mal so, wenn man ohnehin weiß, was man sieht oder sehen *will*, dann kann ein neuronales Netz teils sehr beeindruckende Bilder generieren.

    Viel beeindruckender finde ich auf jeden Fall die Ergebnisse von diesem Paper:
    https://arxiv.org/abs/1609.04802
    (Einfach runterladen und von hinten nur die Bildchen gucken)

  12. Re: Nicht korrekt

    Autor: storm009 09.02.17 - 21:48

    Sorry Leute aber viele hier haben einfach keine Ahnung, wie Deep Learning funktioniert und was die Beispiele bedeuten.
    Die Bilder waren zu 100% nicht Bestandteil des Trainings und demonstrieren die Leistungsfähigkeit des Netzes.
    Glaubt es oder lasst es (oder lest Bücher...)

  13. Re: Nicht korrekt

    Autor: Eheran 09.02.17 - 21:52

    >Die Bilder waren zu 100% nicht Bestandteil des Trainings
    Quelle?
    >Glaubt es
    Ich glaube nicht einfach irgendwas, was irgendwer einfach so behauptet.

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Anzeige
Stellenmarkt
  1. diva-e Digital Value Enterprise GmbH, Hamburg
  2. TRUMPF GmbH & Co. KG, Ditzingen
  3. operational services GmbH & Co. KG, Wolfsburg, Braunschweig
  4. operational services GmbH & Co. KG, Berlin, Dresden, Frankfurt am Main, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Blu-ray-Angebote
  1. (u. a. 2 Guns, Bad Boys 2, Captain Phillips, Chappie, Christine)
  2. (u. a. Hobbit Trilogie Blu-ray 43,89€ und Batman Dark Knight Trilogy Blu-ray 17,99€)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Mesh- und Bridge-Systeme in der Praxis: Mehr WLAN-Access-Points, mehr Spaß
Mesh- und Bridge-Systeme in der Praxis
Mehr WLAN-Access-Points, mehr Spaß
  1. Eero 2.0 Neues Mesh-WLAN-System kann sich auch per Kabel vernetzen
  2. BVG Fast alle Berliner U-Bahnhöfe haben offenes WLAN
  3. Broadcom-Sicherheitslücke Vom WLAN-Chip das Smartphone übernehmen

Neues iPad Pro im Test: Von der Hardware her ein Laptop
Neues iPad Pro im Test
Von der Hardware her ein Laptop
  1. iFixit iPad Pro 10,5 Zoll intern ein geschrumpftes 12,9 Zoll Modell
  2. Office kostenpflichtig Das iPad Pro 10,5 Zoll ist Microsoft zu groß
  3. Hintergrundbeleuchtung Logitech bringt Hülle mit abnehmbarer Tastatur für iPad Pro

Oneplus Five im Test: Der Oneplus-Nimbus verblasst - ein bisschen
Oneplus Five im Test
Der Oneplus-Nimbus verblasst - ein bisschen

  1. SNES Classic Mini: Nintendo bringt 20 Klassiker und ein neues Spiel
    SNES Classic Mini
    Nintendo bringt 20 Klassiker und ein neues Spiel

    Es war zu erwarten, jetzt ist es offiziell: Nintendo hat das Nintendo Classic Mini Super Nintendo Entertainment System angekündigt. Insgesamt werden 21 Spiele installiert und emuliert sein. Dabei sogar ein paar ganz seltene.

  2. Wahlprogramm: SPD will 90 Prozent der Gebäude mit Gigabit-Netzen versorgen
    Wahlprogramm
    SPD will 90 Prozent der Gebäude mit Gigabit-Netzen versorgen

    Die SPD hat sich auf Gigabit-Netze für 90 Prozent aller Gebäude festgelegt, 5G soll mit Glasfaser angebunden werden. Die CDU will das in erster Linie für die Wirtschaft.

  3. Erziehung: Erst schriftliche Einwilligung, dann Whatsapp für Kinder
    Erziehung
    Erst schriftliche Einwilligung, dann Whatsapp für Kinder

    In einem Sorgerechtsfall sorgt das Amtsgericht Bad Hersfeld mit einem Beschluss für einige Verwirrung. So sollen Eltern von allen Whatsapp-Kontakten der Kinder eine schriftliche Einwilligung einholen, sonst würden Abmahnungen drohen.


  1. 19:30

  2. 18:32

  3. 18:15

  4. 18:03

  5. 17:47

  6. 17:29

  7. 17:00

  8. 16:23