1. Foren
  2. Kommentare
  3. Sonstiges-Forum
  4. Alle Kommentare zum Artikel
  5. › Geforce RTX 2080 (Ti) im Test…

@Golem: Keine Messwerte zu DL

Neue Foren im Freiraum! Raumfahrt und freie Software haben jetzt einen Platz, die Games tummeln sich jetzt alle in einem Forum.
  1. Thema

Neues Thema


  1. @Golem: Keine Messwerte zu DL

    Autor: Anonymer Nutzer 19.09.18 - 19:14

    ich habe mir nun den Artikel mehrfach überflogen und alle Grafiken durchgeklickt, aber bei 7 Seiten und mehreren Bildergalerien kann ich auch was übersehen haben: Ich finde keine Tensorflow Messwerte (insb. Training). Nur HDR, Spiele etc. - eher uninteressant für einen IT Profi. Dabei wird Deep-Learning sogar im Teaser erwähnt. Wurden die Messwerte vergessen? Danke!

  2. Re: @Golem: Keine Messwerte zu DL

    Autor: ms (Golem.de) 19.09.18 - 19:29

    Deep Learning bei Turing ist primär DLSS per Inferencing, dafür war aber keine Zeit. Geforce sind nun mal Gaming.

    Marc Sauter, Sr Editor
    Golem.de



    1 mal bearbeitet, zuletzt am 19.09.18 20:22 durch ms (Golem.de).

  3. Re: @Golem: Keine Messwerte zu DL

    Autor: Jbrahms 19.09.18 - 22:05

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Geforce sind nun mal Gaming.

    Würde ich so nicht unterschreiben. Es wird ja einen Grund geben, warum so viele Deep Learning Paper auf Geforce setzen.

  4. Re: @Golem: Keine Messwerte zu DL

    Autor: Anonymer Nutzer 20.09.18 - 00:28

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Deep Learning bei Turing ist primär DLSS per Inferencing, dafür war aber
    > keine Zeit. Geforce sind nun mal Gaming.

    Danke für die Antwort. Aber ich bin schon über dieses Unwissen über das, was Ihr da testet und schreibt ziemlich geschockt :( Das wirft ein wirkliches schlechtes Licht auf den Artikel. Natürlich sind die 1080 TI und natürlich viel mehr die 2080 TI für das Training bestens geeignet. Nur die Lizenzbedingungen schränken es so ein, dass man diese nicht für Server nehmen darf (für Desktop und kommerziell hingegen schon). Die 2080 Ti wird mit Sicherheit die erstmal wohl am meisten genutzte KI Karte sein für Tensorflow, Caffe &Co. Denn gerade die GTX 1080 Ti hat doch Tensorflow und DL erst richtig populär gemacht. Und so glaubt Tom Petersen von Nvidia dass die RTX-Serie neben Gaming noch einen weiteren Zweck erfüllen kann: Sie bringt dedizierte KI-Hardware in die Hände vieler Entwickler. Ich zitiere mal: “All die Garagen-Computerwissenschaftler haben plötzlich Zugriff auf KI-Hardware quasi auf Supercomputer-Level. "

    Heisst: vielen IT Profis wird es wirklich egal sein, ob diese RTX 2080 Ti ein paar mehr FPS in irgendeinem Spiel hat. Das führt doch zu dieser Preis/Nutzen Diskussion in den vielen Threads hier. Da sehe ich die Schwerpunkte von diesem Artikel schon ziemlich falsch gesetzt bzw. der Teaser ist da irreführend.



    3 mal bearbeitet, zuletzt am 20.09.18 00:36 durch weltraumkuh.

  5. Re: @Golem: Keine Messwerte zu DL

    Autor: ms (Golem.de) 20.09.18 - 08:21

    Ich habe Urlaub und äußere mich danach ausführlich =)

    Marc Sauter, Sr Editor
    Golem.de

  6. Re: @Golem: Keine Messwerte zu DL

    Autor: bubbelmx 20.09.18 - 13:05

    Interessant ist der Zeitgewinn im Training. 11gb im Vergleich zu 8gb und ein paar mehr tensor cores.

    Denke aber das alles in allem der Preis hier wie schon in der Vergangenheit total überzogen ist.

  7. Re: @Golem: Keine Messwerte zu DL

    Autor: ms (Golem.de) 23.09.18 - 16:33

    Wenn ich aktuelle Tensorflow mit CUDA9 und FP32/FP16 hernehme, liegen die RTX 2080 (Ti) ähnlich weit in Front wie in Spielen, das wird sich erst mit CUDA10 ändern, wenn die Tensor-Cores von Turing unterstützt werden.

    Der Schwerpunkte des Artikel liegt auf Gaming, da die allermeisten Geforce-Karten von Spielern gekauft werden. Ich hatte nur anteilig den Freitag überhaupt Zeit für den Test und habe das ganze Wochenende dann Tag und Nacht im Büro verbracht, damit vor meinem Urlaub ein Test fertig wird.

    Ich bin mit der Letzte, der hier im Forum nicht auf Wünsche etc eingeht, aber dann bitte in einem weniger pampigen Ton und ohne Unterstellungen wie Unwissen oder Aussagen wie irreführende Teaser - danke.

    Marc Sauter, Sr Editor
    Golem.de

  8. Re: @Golem: Keine Messwerte zu DL

    Autor: Anonymer Nutzer 23.09.18 - 18:59

    Computerbase hat erste Tests, wartet aber noch auf CUDA 10+Tensorflow:
    https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/6/#abschnitt_maschinelles_lernen_mit_tensorflow_update



    1 mal bearbeitet, zuletzt am 23.09.18 19:00 durch weltraumkuh.

  9. Re: @Golem: Keine Messwerte zu DL

    Autor: Anonymer Nutzer 23.09.18 - 19:07

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Wenn ich aktuelle Tensorflow mit CUDA9 und FP32/FP16 hernehme, liegen die
    > RTX 2080 (Ti) ähnlich weit in Front wie in Spielen, das wird sich erst mit
    > CUDA10 ändern, wenn die Tensor-Cores von Turing unterstützt werden.


    ja kann man auf Computerbase nachlesen
    >
    > Der Schwerpunkte des Artikel liegt auf Gaming, da die allermeisten
    > Geforce-Karten von Spielern gekauft werden. Ich hatte nur anteilig den
    > Freitag überhaupt Zeit für den Test und habe das ganze Wochenende dann Tag
    > und Nacht im Büro verbracht, damit vor meinem Urlaub ein Test fertig wird.
    >
    > Ich bin mit der Letzte, der hier im Forum nicht auf Wünsche etc eingeht,
    > aber dann bitte in einem weniger pampigen Ton und ohne Unterstellungen wie
    > Unwissen oder Aussagen wie irreführende Teaser - danke.


    Ähem - ich zitiere nochmal:
    "Deep Learning bei Turing ist primär DLSS per Inferencing, dafür war aber keine Zeit. Geforce sind nun mal Gaming."

    Und genau das ist doch nicht richtig und das kann man doch nicht so schreiben. Daher stehe ich da voll zu meiner Kritik (auch mit dem Teaser bzw. Unwissen). Denn ich habe das ausführlich begründet. Wenn das als "pampig" wahrgenommen wird, dann tut mir das leid. Aber man sollte schon auch berechtigte Kritik als eine solche wahrnehmen und nicht gleich dünnhäutig reagieren. Das finde ich nicht ok so.

  10. Re: @Golem: Keine Messwerte zu DL

    Autor: ms (Golem.de) 23.09.18 - 20:52

    Ich fürchte wir reden aneinander vorbei wenn wir von Deep Learning reden - ich meinte damit explizit bisher Turing exklusive Inferencing Implementierungen wie DLSS per Tensor Cores und nicht allgemein die Fähigkeit per Tensorflow etwas zu klassifizieren etc.

    Die Kritik ist angekommen, ich habe erläutert, dass keine Zeit war und gesagt, mit cuDNN 7.3 sollten ja nun die Tensor Cores auch laufen. Wegen dunnhäutig: sollte nicht so rüber kommen, es war einfach sehr viel Stress und sehr wenig Zeit.

    Marc Sauter, Sr Editor
    Golem.de

  11. Re: @Golem: Keine Messwerte zu DL

    Autor: Anonymer Nutzer 24.09.18 - 07:58

    weltraumkuh schrieb:
    --------------------------------------------------------------------------------
    >
    > Ähem - ich zitiere nochmal:
    > "Deep Learning bei Turing ist primär DLSS per Inferencing, dafür war aber
    > keine Zeit. Geforce sind nun mal Gaming."
    >
    > Und genau das ist doch nicht richtig und das kann man doch nicht so
    > schreiben. Daher stehe ich da voll zu meiner Kritik (auch mit dem Teaser
    > bzw. Unwissen). Denn ich habe das ausführlich begründet. Wenn das als
    > "pampig" wahrgenommen wird, dann tut mir das leid. Aber man sollte schon
    > auch berechtigte Kritik als eine solche wahrnehmen und nicht gleich
    > dünnhäutig reagieren. Das finde ich nicht ok so.

    Natürlich sind die Geforce für Gaming gedacht. Wissenschaftliche Zwecke dürften vermutlich sogar noch nach Cryptomining kommen, von daher ist es okay wenn man sich auf den Hauptzweck konzentriert. Zumal, wie hier geschrieben, die wirkliche Neuerung erst mit Cuda 10 kommt.

  12. Re: @Golem: Keine Messwerte zu DL

    Autor: Anonymer Nutzer 28.09.18 - 12:57

    hier gibt es nun erste Benchmark Ergebnisse:
    https://lambdalabs.com/blog/2080-ti-deep-learning-benchmarks/

    - The RTX 2080 Ti’s single-precision (FP32) training of CNNs with TensorFlow is between 27% and 45% faster than the 1080 Ti for measured networks.
    - The RTX 2080 Ti’s half-precision (FP16) training of CNNs with TensorFlow is between 60% and 65% faster than the 1080 Ti for measured networks.
    -If you do FP16 training, the RTX 2080 Ti is probably worth the extra money. If you don't, then you'll need to consider whether a 71% increase in cost is worth an average of 36% increase in performance.

  1. Thema

Neues Thema


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Junior Projekt Manager (m/w/d) im Bereich Category und Sales Management
    Hoffrogge GmbH, Wildeshausen
  2. CSV Experte Qualitätskontrolle (m/w/d)
    BERLIN-CHEMIE AG, Berlin
  3. (Senior) IT Professional Client Systems (m/w/d)
    ALDI International Services SE & Co. oHG, Mülheim an der Ruhr
  4. Senior Softwareingenieur - Test für Hubschraubersysteme (gn)
    ESG Elektroniksystem- und Logistik-GmbH, Donauwörth

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 149,90€ + 7,99€ Versand (Vergleichspreis ca. 200€)
  2. ca. 16.000 Artikel günstiger, hunderte Tiefstpreise lt. Preisvergleich
  3. (heute: Gehäuse, Netzteile und Wasserkühlungen von Fractal Design)
  4. 399€


Haben wir etwas übersehen?

E-Mail an news@golem.de