1. Foren
  2. Kommentare
  3. Wissenschaft-Forum
  4. Alle Kommentare zum Artikel
  5. › Mathematik & Neurologie…

Machen diese Untersuchungen in Zeiten der LLM's überhaupt noch Sinn?

  1. Thema

Neues Thema


  1. Machen diese Untersuchungen in Zeiten der LLM's überhaupt noch Sinn?

    Autor: Samon 04.01.24 - 20:49

    LLM's (Large Language Models, wie z. B. die GPT Modelle) erlernen Konzepte, z. B. das Konzept einer Zahl oder das Konzept eines Stuhls, genauso wie das Konzept einer Schätzung. Es ist nicht unwahrscheinlich, dass das Gehirn auf dieser Betrachtungsebene ganz ähnlich funktioniert. Diese Konzepte sind aber kreuz und quer verdrahtet und es ist daher schlicht nicht sinnvoll, sich einzelne Neuronen (bzw. Perceptronen bei künstlichen neuronalen Netzen) anzusehen, da sie nur zufällig ein Teil des Konzepts und ggf. vieler weiterer Konzepte sind - wie sich das Netz halt entschieden hat, ein bestimmtes Neuron / Perceptron zu nutzen.

    Man müsste also die Konzepte dahinter analysieren und das wird beim Gehirn schwierig. Bei künstlichen neuronalen Netzen, bzw. LLM's kann man sich da mit verschiedenen Methoden nähern.

    Mich würde es daher nicht wundern, wenn wir durch die Erforschung von LLM's mehr über das menschliche Gehirn erfahren, als das mit klassischen Neurowissenschaften möglich wäre.



    1 mal bearbeitet, zuletzt am 04.01.24 20:50 durch Samon.

  2. Re: Machen diese Untersuchungen in Zeiten der LLM's überhaupt noch Sinn?

    Autor: Kakiss 04.01.24 - 21:49

    Du hast vollkommen recht.

    Mein Sohn ist jetzt einanhalb Jahre alt, seine Unterscheidung bzw. das erlernen von Gegenständen scheint recht ähnlich zu geschehen wie bei Mustererkennung von KI.

    Er hat gelernt ein Hund ist Wauwau, ein Dinosaurier mit langer schnauze ist für ihn auch Wauwau.

    Alles mit Rädern war ein Brummbrumm, als er älter wurde und das Wort Auto lernte, hat er das Wort teilweise auf alles bezogen was automatisch läuft (eigentlich garnicht so unkorrekt^^), also auch die Spülmaschine.

    Alles in einer Tasse ist Tee.

    Etc.

    Er kategorisiert also stark nach ähnlichen Merkmalen, ohne dabei zu denken dass es das gleiche ist.


    Aber es ist ja jetzt garnichts so unbekanntes, deshalb sehen wir ja beispielhaft in Gestrüppen "Gesichter", in Wolken Figuren und wortwörtlich Geister in verlassenen Häusern.

    Das Gehirn kategorisiert, am Ende auch um schnell verarbeiten zu können.

    Da passt es auch mit der im Artikel genannten Zahl vier.
    Alles drüber ist eben nicht mehr fix zu entscheiden.

  1. Thema

Neues Thema


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Business Systems Analyst (m/w/d) IT
    Packsize GmbH, bundesweit
  2. Lead Data Engineer (m/w/d)
    Duravit AG, Hornberg
  3. Partner Development Manager Acquisition (m/w/d) für Eschborn oder Stuttgart
    Vodafone GmbH, Eschborn, Stuttgart
  4. Software-Ingenieur (m/w/d) im Bereich autonome mobile Arbeitsmaschinen oder Embedded Linux ... (m/w/d)
    JOSEPH VÖGELE AG, Ludwigshafen am Rhein

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 1.049€ mit 150€-Sofort-Coupon (Direktabzug im Warenkorb) - günstig wie nie!
  2. 809€ mit 90€-Sofort-Coupon (Direktabzug im Warenkorb) - günstig wie nie!
  3. u. a. RAM von Corsair, Lüfter von Be Quiet, Tower-Gehäuse von NZXT


Haben wir etwas übersehen?

E-Mail an news@golem.de