1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Nvidia Ampere: Spezifikationen von…

Back to Thermi?

Helft uns, die neuen Foren besser zu machen! Unsere kleine Umfrage dauert nur wenige Sekunden!
  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Back to Thermi?

    Autor: Graveangel 30.08.20 - 12:01

    Ständig darf ich mir von allen Ecken anhören, dass AMD so ineffizient ist und ständig durchbrennt (mindestens das 2. Ist natürlich Unsinn).
    350W als TDP sind jedoch enorm und irgendwie erinnert mich das an die Fermi Chips damals.

    Ob Nvidia da Probleme hat? Warum würde man diesen Weg gehen?

  2. Re: Back to Thermi?

    Autor: ms (Golem.de) 30.08.20 - 12:11

    Ineffizienter kommt auf den Betriebspunkt an ... für die RX 5700 XT trifft dies zu, für die RX 5700 non-XT nicht. Allerdings nutzt AMD schon N7P für Navi 10/14, wohingegen Nvidia für Turing noch 12FFN einsetzt.

    Marc Sauter, Sr Editor
    Golem.de



    1 mal bearbeitet, zuletzt am 30.08.20 12:12 durch ms (Golem.de).

  3. Re: Back to Thermi?

    Autor: Tommy_Hewitt 30.08.20 - 12:14

    Das Problem bei AMD war doch nur meistens, dass sie in den letzten Generationen gern mal bei weniger/gleicher Leistung teils deutlich mehr verbraucht haben als nVidia-Karten. Wenn die RTX3000 mehr verbrauchen, aber bei der Leistung ordentlich Prozente drauflegen, ist das zumindest für mich kein Problem. Wenn sie 50% mehr verbrauchen und nur 30% schneller wären, wäre das was anderes.

    Zumal sich noch zeigen muss, wie viel die neuen Karten jetzt wirklich verbrauchen. Die 350W könnten auch nur erreicht werden mit Raytracing am Anschlag.

  4. Re: Back to Thermi?

    Autor: ms (Golem.de) 30.08.20 - 12:21

    Wieso sollten die 350W nur mit Raytracing erreicht werden?

    Marc Sauter, Sr Editor
    Golem.de

  5. Re: Back to Thermi?

    Autor: DASPRiD 30.08.20 - 12:28

    Man sollte auch nicht vergessen, dass TDP nicht gleich Verbrauch ist.

  6. Re: Back to Thermi?

    Autor: ms (Golem.de) 30.08.20 - 12:30

    Bei Nvidia entspricht das Power-Limit seit Jahren der realen Leistungsaufnahme, sofern nichts bremst (CPU, Vsync, etc) ...

    Marc Sauter, Sr Editor
    Golem.de

  7. Re: Back to Thermi?

    Autor: Tommy_Hewitt 30.08.20 - 13:01

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Wieso sollten die 350W nur mit Raytracing erreicht werden?

    Weil da die RT- und Tensor-Cores ausgelastet werden. Ich gehe mal davon aus, dass nVidia hier auch aufgestockt hat.

  8. Re: Back to Thermi?

    Autor: ms (Golem.de) 30.08.20 - 13:35

    Die RT- und die Tensor-Cores teilen sich das Power-Budet mit den regulären ALUs usw, sprich deine Aussage ist falsch. Eine RTX 2080 Ti Fe erreicht ihre 260W auch ohne DLSS oder Raytracing problemlos in 4K - ich hatte damals zum Launch zB mit BF1 unter D3D11 gemessen.

    https://www.golem.de/news/geforce-rtx-2080-ti-im-test-nvidias-turing-grafikkarten-sind-konkurrenzlos-1809-136185.html

    Marc Sauter, Sr Editor
    Golem.de

  9. Re: Back to Thermi?

    Autor: tommihommi1 30.08.20 - 13:49

    es takten halt einfach die anderen Einheiten hoch, bis die Karte ins power limit läuft.

  10. Re: Back to Thermi?

    Autor: ternot 30.08.20 - 13:51

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Die RT- und die Tensor-Cores teilen sich das Power-Budet mit den regulären
    > ALUs usw, sprich deine Aussage ist falsch. Eine RTX 2080 Ti Fe erreicht
    > ihre 260W auch ohne DLSS oder Raytracing problemlos in 4K - ich hatte
    > damals zum Launch zB mit BF1 unter D3D11 gemessen.
    >
    > www.golem.de


    Das bedeutet im Umkehrschluss, dass der Rest der Karte langsamer wird (da weniger Ressourcen) sobald Raytracing aktiviert wird?

  11. Re: Back to Thermi?

    Autor: Tommy_Hewitt 30.08.20 - 14:20

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Die RT- und die Tensor-Cores teilen sich das Power-Budet mit den regulären
    > ALUs usw, sprich deine Aussage ist falsch.

    Bei Ampere wird ja gemunkelt, dass das nicht mehr so ist. Was bringt da jetzt ein Link zu eurem Test, wenn es ne vollkommen andere Karte ist?

  12. Re: Back to Thermi?

    Autor: ms (Golem.de) 30.08.20 - 14:21

    Da die RT- bzw die Tensor-Cores signifikant schneller sind als die ALUs, erhöht sich bei Raytracing die absolute Geschwindigkeit. Aber ja, die Shader haben dann weniger des anteiligen Power Budgets.

    Marc Sauter, Sr Editor
    Golem.de

  13. Re: Back to Thermi?

    Autor: ms (Golem.de) 30.08.20 - 14:28

    Da würde ich erstmal abwarten ob und was da genau implementiert ist ... Igor spekulierte, es gäbe eine eigene Leitung, das muss aber nicht heißen, dass die RT- und Tensor-Cores on top der Power Package der ALUs laufen.

    Marc Sauter, Sr Editor
    Golem.de

  14. Re: Back to Thermi?

    Autor: Ach 30.08.20 - 14:31

    Auf jeden Fall nicht sehr angenehm so einen ständigen Hitzeklotz in seinem PC werkeln zu haben, obendrein ist die Karte auch nicht gerade kompakt zu nennen. Frage ich mich, wie laut/effizient die Kühlung ist. Die 320Watt der 3080 reißen die Sache auch nicht raus, und erst die 220W der 3070 machen auf mich einen akzeptablen Eindruck. Für alles darüber lohnt sich die Anschaffung einer Wakü.

  15. Re: Back to Thermi?

    Autor: Tommy_Hewitt 30.08.20 - 14:35

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Da würde ich erstmal abwarten ob und was da genau implementiert ist ...

    Deshalb ja auch das kleine Wörtchen "könnte". Meine Aussage kann gar nicht wirklich falsch sein, da es nur eine Vermutung ist ^^

  16. Re: Back to Thermi?

    Autor: ms (Golem.de) 30.08.20 - 14:38

    Hehe, das stimmt - Dienstag wisst ihr mehr.

    Marc Sauter, Sr Editor
    Golem.de

  17. Re: Back to Thermi?

    Autor: Sharra 30.08.20 - 14:41

    Früher war das tatsächlich mal ein Ding. Mir ist wirklich mal eine ATI (vor dem Kauf durch AMD wohlgemerkt) abgefackelt. Ich müsste jetzt tief in der Erinnerung graben, aber ich glaube was war eine 9800 oder so (ja ATI hatte auch mal solche Bezeichnungen). Die gab es in 2 Ausführungen. Revision 1 hatte noch diesen Fummel-Stromadapter, der eigentlich für Diskettenlaufwerke gedacht war. Später gabs die Karte dann mit dem etwas kontaktfreudigeren größeren Molex-Stecker.

    Und genau dieser Fummelstecker hat sich dann in einer kurzen Flamme verabschiedet weil er durch zu hohe Leistungsaufnahme durchgeschlagen ist.

    Hat jetzt nichts direkt mit dem Chip zu tun, aber ich frage mich bis heute, was ATI sich damals dabei gedacht hat. Wahrscheinlich nicht viel, denn man hat ihn dann ja ersetzt.

  18. Re: Back to Thermi?

    Autor: c3rl 30.08.20 - 15:20

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Bei Nvidia entspricht das Power-Limit seit Jahren der realen
    > Leistungsaufnahme, sofern nichts bremst (CPU, Vsync, etc) ...

    TDP, Power-Limits und Leistungsaufnahme sind drei unterschiedliche Dinge die rein physikalisch nicht das gleiche sein können...

    TDP < Limits < Aufnahme

    TDP hat nichts mit Strom zu tun, da geht es rein um die thermische Abwärme, was einen nur Teil des realen Stromverbrauchs darstellen kann (wenn auch selbst mit modernen Chips einen sehr hohen).

    Power-Limits begrenzen die Menge an Strom die ein System (hier die Grafikkarte) von der Stromversorgung ziehen kann.

    Und die tatsächliche Leistungsaufnahme liegt aufgrund von Ineffizienzen (z.B. durch Spannungswandlung im Netzteil aber auch auf der Grafikkarte selber) nochmal darüber (je nach Netzteil und Belastung 5-50%).



    7 mal bearbeitet, zuletzt am 30.08.20 15:30 durch c3rl.

  19. Re: Back to Thermi?

    Autor: xPandamon 30.08.20 - 15:33

    Tommy_Hewitt schrieb:
    --------------------------------------------------------------------------------
    > Das Problem bei AMD war doch nur meistens, dass sie in den letzten
    > Generationen gern mal bei weniger/gleicher Leistung teils deutlich mehr
    > verbraucht haben als nVidia-Karten.

    Zumindest da kann ich berichten, dass es anscheinend besser geworden ist. Meine RX 5600 XT verbraucht ähnlich viel und sogar etwas weniger als eine ebenbürtige RTX 2060 Super. Weiß nicht wie das bei den High-End-Karten aussehen wird aber wenn die schaffen das so hochzuskalieren, könnte das echt was werden. Die Treiber/ Karte war zwar Anfangs etwas problematisch aber ich denke die haben daraus gelernt, mittlerweile hab ich eigentlich keine Probleme mehr, zum Glück

  20. Re: Back to Thermi?

    Autor: DASPRiD 30.08.20 - 16:55

    ms (Golem.de) schrieb:
    --------------------------------------------------------------------------------
    > Bei Nvidia entspricht das Power-Limit seit Jahren der realen
    > Leistungsaufnahme, sofern nichts bremst (CPU, Vsync, etc) ...

    Die Leistungsaufnahme sollte eigentlich höher liegen:

    "Some sources state that the peak power for a microprocessor is usually 1.5 times the TDP rating.[2] However, the TDP is a conventional figure while its measurement methodology has been the subject of controversy. In particular, until around 2006 AMD used to report the maximum power draw of its processors as TDP, but Intel changed this practice with the introduction of its Conroe family of processors.[3]"

    Quelle: https://en.wikipedia.org/wiki/Thermal_design_power

    Der TDP gibt ja erst mal nur an, wie viel Abwärme eine Komponente erzeugen kann.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. BG Klinikum Unfallkrankenhaus Berlin gGmbH, Berlin
  2. Amprion GmbH, Pulheim
  3. Amprion GmbH, Ludwigsburg
  4. THD - Technische Hochschule Deggendorf, Deggendorf

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. für PC, PS4/PS5, Xbox und Switch
  2. 6,50€
  3. 3,33€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme