Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › HEDT-Prozessor: AMD kündigt…

Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

  1. Thema

Neues Thema Ansicht wechseln


  1. Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: derdiedas 08.03.19 - 09:32

    Ja ich gehöre auch zu denen die gerne viel Leistung haben, aber ganz ehrlich habe ich so langsam Zweifel dass diese Leistungsschlacht die AMD anzettelt in Gewinn für die Firma AMD enden wird.

    Als Server CPU kann es nicht genug Leistung geben, aber beim Desktop ist das Grundproblem das abseits von 3D und Softwareentwicklung kaum noch Szenarien gibt die viele Cores ausnutzen können. Was auch logisch ist, da man auch für Notebooks (die haben 1/10 und weniger der Leistung eines performanten Desktop PC) Software entwickelt, eigentlich liegt dort sogar der Fokus da es mehr Notebooks als Desktops gibt.

    Und Spiele - nun die werden in der Masse für die Konsolen entwickelt und kommen dann als PC Versionen raus die so gut wie gar keinen Nutzen aus mehr als 4 Cores Nutzen können. Einzig bei der GPU wird Leistung noch in besseren Details honoriert.

    Wo also sollen die hunderttausende von Threadripper Kunden herkommen die dessen Entwicklung rechtfertigen? Denn außer in Benchmarks wie Cinebench wird man die Mehrleistung abseits von Blender, Maya und Cinema 4D und co. wird man kaum in der Lage sein die massive Leistung abrufen zu können.

    Wenn ich sehe das CURA bis 2017 als Slicer nur einen Core nutzte und ewig benötigte und nur die massive Kritik der Community hat die Entwickler dazu gebraucht das zu beheben, denke ich das viele Entwickler immer noch massive Probleme haben Multithreaded Anwendungen zu programmieren.

    Und hier sind Intel und AMD gefragt, sie müssen schlichtweg kostenfreie Entwicklungsumgebungen und vor allem Rapid Development Tools herausbringen die per default Multithreaded entwickeln.

    Sie müssen es schaffen das auch der Heim und Hobbyprogrammierer einfach und schnell hoch Performante Anwendungen zu schreiben. Aktuell schreiben immer weniger Firmen performancerelevante Anwendungen, und wenn sind das in 90%+ Server/Cloudanwendungen und nichts für den Endpoint.

    Intel und AMD werden mit der Inflation an Performance und Cores ohne solche einen Support der privaten Entwickler schlichtweg auf die Nase fallen. Denn kommerzielle Entwickler abseits von 3D programmieren heute vorwiegend nur noch Serveranwendungen.

    Gruß DDD

  2. Re: Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: Caretaker 08.03.19 - 12:10

    Die meisten Menschen sind mit der Materie nicht vertraut. Leistung definiert sich nicht nur anhand von Kernen und Threads.
    Es ist schlicht nicht möglich alles zu parallelisieren.

    In der realen Welt kannst du nicht zeitgleich den Haushalt machen, einkaufen gehen, arbeiten, zum Sport... usw. Nur nacheinander oder mit Unterbrechungen mal das eine, dann das andere wieder. Exakt so verhält es sich mit einem Thread. Ginge es anders und wir könnten all das parallel abhandeln hätten wir reales Multithreading.

    Die Sache ist die, dass dein geforderter Support seitens Intel und AMD bereits lange lange Zeit Bestand hat. Multithreading gibt es seit vielen Jahren und lange bevor es Mehrkerner gab. Selbst Windows arbeitete schon zu Windows 98 Zeiten mit sehr vielen Threads und C++ hat auch seit eh und jeh alles an Bord. Jedes einzelne Programm hat seinen eigenen Thread und kann beliebig viele weitere starten. Was sich verändert hat ist eben, dass durch mehr Kerne und Threads nicht mehr alle Threads auf einem Kern ausgeführt werden müssen, sondern überall verteilt wird und dadurch Threads parallel ausgeführt werden.

    Wenn wir mal an die Schulzeit zurückdenken, hatten wir in Mathe oft Aufgaben die wir sequentiell abarbeiten mussten, weil z.B. für b) das Ergebnis von a) notwendig war. Ebenso verhält es sich auch mit der Softwareentwicklung. Wenn du sequentielle Abhängigkeiten hast macht eine Verlagerung eines Teils davon auf einen separaten Thread keinen Sinn, weil der ursprüngliche Thread ohnehin warten muss. Zum Nachteil kommen noch etwaige Probleme dazu, das z.B. zwei Threads auf gleiche Ressourcen oder Variablen zugreifen und Deadlocks verhindert werden müssen.

    Schlussendlich hat man als Hobbyentwickler eine Idee oder Vision seines Programms und dort kristallisiert sich während der Entwicklung heraus wo man was auf einem anderen Thread abarbeiten möchte. Dann macht man es eben auch. Allerdings werden die meisten eben keinen oder nur ganz wenige Threads brauchen.
    Beim Rendering hast du halt den optimalen Fall, weil du ein Bild segmentierst und jedes Segment von einem eigenen Thread abarbeiten lässt. 32 unabhängige mathematische Berechnungen kannst du problemlos auf 32 Threads ausführen lassen, aber wenn Abhängigkeiten dazu kommen, ändert sich schlagartig alles.

    Wenn, dann sind die Entwickler gefragt wie man jemanden zeitgleich auf die Arbeit und zum Einkaufen schicken kann und das kann gerne mal jegliches Vorstellungsvermögen sprengen.
    Deshalb ist unsere wichtige Leistungsgröße der Singlethread, denn mit ihm können wir jede Aufgabe mindestens beschleunigen.

  3. Re: Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: yumiko 08.03.19 - 12:44

    Caretaker schrieb:
    --------------------------------------------------------------------------------
    > Wenn, dann sind die Entwickler gefragt wie man jemanden zeitgleich auf die
    > Arbeit und zum Einkaufen schicken kann und das kann gerne mal jegliches
    > Vorstellungsvermögen sprengen.
    > Deshalb ist unsere wichtige Leistungsgröße der Singlethread, denn mit ihm
    > können wir jede Aufgabe mindestens beschleunigen.
    Die Ausführungen sind schön gemacht, aber das Fazit ist doch etwas zu dünn IMHO.
    Richtig ist es natürlich beim Programmieren von Microcontrollern, wo kein anderer Code als der entwickelte drauf läuft.

    Real haben wir aber komplexe Personalcomputer mit mehrschichtigen Betriebssystemen, Treibern, Hintergrundprogrammen usw.
    Bei umfänglichen Programmen wie Spielen kann man noch weiter zwischen Grafikrendering, Physik, UI, Sound, Eingabegeräte usw. unterscheiden.

    Dies führt dazu, dass meine 16 Kerne beim Spielen alle etwas zu tun haben, aber nicht so viel, dass die CPU hochtakten muss - also insbesondere sehr kühl, sparsam und leise bleibt.

  4. Re: Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: Caretaker 08.03.19 - 13:29

    Ja das ist richtig, nur ist es nicht nötig in die Tiefe zu gehen, dass Grundproblem bleibt ja bestehen. Was kann ich überhaupt abkappseln und parallel abarbeiten.

    Als Entwickler bist du aber außen vor was das Betriebssystem betrifft, dass ist z.B. Microsoft Angelegenheit. Es wird ja zwingend abgeraten die Threads der Kerne direkt anzusprechen, um dem Scheduler nicht dazwischen zu funken.
    Ansonsten greifen auch die meisten Entwickler auf DirectX zurück, die enthaltenen Bibliotheken deckeln ja so ziemlich alles von Input bis Audio usw.

    Spiele nutzen heute sehr viel mehr Threads als früher, Final Fantasy 14 hat z.B. rund 50 Threads am Laufen. Allerdings gibt es immer den einen Mainthread, der am Ende auch die höchste Last erzeugt. Das Verhalten bei dir ist aber normal, da der Scheduler permanent alle Threads gleichmäßig über die CPU Threads verteilt. Wobei aber auch mit mehr Threads das Laufzeitverhalten negativ beeinflusst wird, was sich ja gerade in Spielen bemerkbar macht. Wenn du sehr wenig Spielelast über alle Threads hast, würde ich mal die Hälfte der Kerne deaktivieren und schauen inwiefern sich die Performance verändert, da es besser ist wenn wenn die Threads gebündelt sind und Übergriffe vermieden werden können.

  5. Re: Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: derdiedas 08.03.19 - 15:30

    Na ja deine Schlussfolgerungen sind etwas eindimensional. Moderne Programme (auch die von Hobbyprogrammierern) bedienen sich vieler 3rd party komponenten die ohne Probleme in einem eigenen Thread laufen können.

    Software hat heute sobald sie eine gewisse Größe erreicht hat immer unabhängige Pfade die miteinander kaum etwas zu tun haben. Cura ist ein gutes Beispiel, es war von Anfang an klar das Multithreading fürs Slicen absolut Sinnvoll ist, aber das hat 3 Jahre gedauert bis die Entwickler das begriffen haben, bzw. Umsetzen konnten.

    Und es gibt etliche Software, etwa CAM Tools für CNC Fräsen die von Hobbyprogrammierern mit bemerkenswerten Eifer vorangetrieben werden. Oder Arduino - Multithreaded Compiling ist immer noch im Aufbau befindlich.

    Es ist einfach so das das was Intel und AMD liefern so komplex ist das die meisten Entwickler einen Bogen drum herum machen. Und solange Single Threaded schreiben, bis die Software so erfolgreich ist das es sich lohnt auf Wünsche der Community einzugehen.

    Wir sind was das Zeilenweise Codieren angeht an einer Grenze angelangt, und es braucht Rapid Development Tools die wesentlich Massentauglicher das Coden komplexer Anwendungen ermöglichen. Ich habe mal lange unter Assembler Programmiert, aber das macht heute auch niemand mehr - weil die Komplexität die Vorteile der Assemblerprogrammierung auffrisst. Und genau das gleiche haben wir aktuell mit allen Zeilencodierten Programmiersprachen.

    Die Komplexität frisst jede Kreativität auf - und sorgt dafür das Software ohne kommerziellen Hintergedanken oder Sponsoring durch Firmen oder Interessengruppen oft nicht über ein bestimmtes Maß mehr hinaus kommt.



    Gruß DDD

  6. Re: Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: Caretaker 08.03.19 - 15:52

    Multithreading unter Windows ist jetzt nicht unbedingt komplex für den Entwickler gehalten. Schau dir .Net an, easy going.

    Es gibt halt auch zu viel Software mittlerweile und eine Android App zu entwickeln wo sich die Kundschaft über einen Preis von 79 Cent noch aufregt macht dann auch keine Freude mehr.

  7. Re: Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: Ach 08.03.19 - 22:37

    Out of the Box? Wenn ich spielerisch in die Zukunft denke : Spracherkennung und Instantan-Übersetzungen könnten von der Serverumgebung wieder zurück auf den Desktop geholt werden, sowie alle Arten von Deep Learning Anwendungen, mit denen sich Alltagsaufgaben erleichtern lassen. Große Datensätze, die man nicht selten für Deep Learning Jobs benötigt, würden wiederum den Speichermarkt ankurbeln, jedem sein eingenes Big Data System sozusagen, das sich die Daten selber aus dem Netz zieht statt umgekehrt. Selbstredend dass man auf diese Weise so einige Cores mit frischer Arbeit zuwerfen könnte, aber ich geb zu, dass das so nicht schon morgen der Fall sein wird. Ist einfach ne Perspektive.



    1 mal bearbeitet, zuletzt am 08.03.19 22:52 durch Ach.

  8. Re: Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: platoxG 08.03.19 - 23:26

    Als Anmerkung, dass Multithreaded-Programmierung nur in einfachster Form trivial ist und hierbei ist es nicht mal eben mit den Grundzügen, die einem die Java- oder .Net-Sprachumgebung zur Verfügung stellen, getan. Hier kann man schnell in Deadlocks laufen, die die gesamte Performance auffressen oder das System sogar noch langsamer als eine SingleThread-Anwendung machen.
    Nur eine beschränkte Zahl an Anwendungen lässt sich grundsätzlich gut (und beliebig) parallelisieren, so bspw. einige Simulationen (bspw. Finite Elemente, Flüssigkeiten, etc.) oder auch Rendering-Tasks, bei denen jeder Thread nur einen kleinen Block des gesamten Bildes rendert. Gemeinsames Kriterium für die gute Parallelisierbarkeit hierbei ist, dass jeder Tasks praktisch keine Abhängigkeiten zu den anderen Tasks hat, d. h. im Idealfall gibt es gar keine Kommunikation zwischen den Tasks und jeder arbeitet für sich das ihm zugewiesene Pensum ab und versendet abschließend eine Vollzugsmeldung. (In diesem Idealfall beschränken lediglich die parallel abarbeitbare Zahl an Threads, die Art und Häufigkeit, in der die unterschiedlichen Rechnenwerke wie INT, FP, SIMD genutzt werden und I/O wie bspw. zum RAM oder den Massenspeichern.)
    Eine "full-blown" Game-Engine ist dagegen deutlich komplexer aufgebaut und die unterschiedlichen Komponenten verfügen über sehr viele Abhängigkeiten, was einen beträchtlichen Kommunikationsbedarf zwischen den Threads erforderlich macht, was widerum der Parallelisierbarkeit Grenzen aufzwingt.
    Mit sehr viel Arbeitsaufwand ist hier zweifelsfrei noch mehr zu erreichen (und nicht umsonst greifen viele Studios zu professionell entwickelten Standard-Engines oder favorisieren nur noch eine hauseigene Engine, die über alle dem Mutterkonzern angehörenden Studios weiterentwickelt wird), jedoch ist ein wesentlicher, beschränkender Faktor zudem die Wirtschaftlichkeit. In der Mehrzahl nutzen aktuelle Spiele ein Leistungsäquivalent von grob 4 leistungsstarken Desktop-CPU-Kernen, was in etwa den 7 zur Verfügung stehenden Kernen auf den aktuellen Konsolen entspricht. (Faktisch sind hochgetaktete/aktuelle 4-Kerner schon schneller und das ohne spezielle Funktionseinheiten wie bspw. AVX2.) Nur wenige Entwickler machen sich die Arbeit hier auf dem PC noch weiter zu optimieren und i. d. R. handelt es sich dann dabei um nicht spielrelevante Features (bspw. Grafik- oder Partikel-Effekte oder Post-Filter, etc.), was auch nachvollziehbar ist, denn die meisten Titel werden parallel für alle drei Systeme entwickelt und kein Entwickler will bspw. seine PS4-Kundschaft mit deutlich dümmerer KI und Wegfindung im Regen stehen lassen, wärend Spieler auf einer XBox oder dem PC ein deutlich besseres Spielgefühl erleben dürfen.
    Mit den bevorstehenden Konsolen sind bis zu 8 Zen2-Kerne zu erwarten (zweifelsfrei mit deutlich unter 4 GHz) aber damit dennoch deutlich leistungsfähiger als die aktuelle Generation und die Entwickler werden sich auf dieses neue Leistungsniveau einschießen, dass dann auch für den PC implizit einen neuen Standard definieren wird. Eine sinnvolle Nutzung von mehr als 8 Kernen wird man am ehesten dann auf den wenigen PC-only-Titeln beobachten können (oder aber man muss selbst für eine entsprechende Auslastung sorgen, bspw. durch paralleles Streaming ;-)

    Threadripper ist nett, aber i. d. R. nur für besondere Anwendungsfälle wie ContentCreation oder andere Workstation-Arbeitslast, zumal AMD offensichtlich Ryzen 3xxx (Zen 2) bereits auf über 8 bis hin zu maximal 16 Kerne hochziehen wird (möglicherweise nur bis 12 oder 14, um teildefekte Chiplets sinnvoll weiterverwerten zu können, während der neue Threadripper dann vielleicht am unteren Ende mit 16 Kernen beginnt).
    Für reines Gaming kann man das gesparte Geld besser in eine leistungsstärkere Grafikkarte investieren, denn immerhin kostet der aktuelle 16-Kerner (2950X) über 500 ¤ mehr als ein 8-Kerner (2700X).

    Wer einen ungefähren Eindruck vom Umfang der Multithreading-Programmierung erhalten möchte, kann hier einmal reinschauen:

    https://software.intel.com/en-us/articles/designing-the-framework-of-a-parallel-game-engine/

  9. Re: Desktop CPUs rennen davon, nur wie groß ist der Markt der das Nutzen kann?

    Autor: aragon999 09.03.19 - 18:32

    Browser, ein sehr oft eingesetztes Programm, parallelisiert nahezu nativ durch die ganzen unterschiedlichen offenen Tabs.
    Auch die Art und Weise wie viele Menschen ihren PC benutzen, kann sehr gut parallelisiert werden

    Es ist klar, das bei Spielen die "Single Core Performance" wichtiger ist, aber diese Cores sind eben auch viel teurer in der Produktion.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Technische Universität Dresden, Dresden
  2. Deloitte, Leipzig
  3. BWI GmbH, Germersheim
  4. SIZ Informatikzentrum der Sparkassenorganisation GmbH, Bonn

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 769,00€
  2. 239,90€ (Bestpreis!)
  3. 58,90€
  4. 27“ großer NANO-IPS-Monitor mit 1 ms Reaktionszeit und WQHD-Auflösung (2.560 x 1.440)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Telekom Smart Speaker im Test: Der smarte Lautsprecher, der mit zwei Zungen spricht
Telekom Smart Speaker im Test
Der smarte Lautsprecher, der mit zwei Zungen spricht

Die Deutsche Telekom bietet derzeit den einzigen smarten Lautsprecher an, mit dem sich parallel zwei digitale Assistenten nutzen lassen. Der Magenta-Assistent lässt einiges zu wünschen übrig, aber die Parallelnutzung von Alexa funktioniert schon fast zu gut.
Ein Test von Ingo Pakalski

  1. Smarte Lautsprecher Amazon liegt nicht nur in Deutschland vor Google
  2. Pure Discovr Schrumpfender Alexa-Lautsprecher mit Akku wird teurer
  3. Bose Portable Home Speaker Lautsprecher mit Akku, Airplay 2, Alexa und Google Assistant

Banken: Die Finanzbranche braucht eine neue Strategie für ihre IT
Banken
Die Finanzbranche braucht eine neue Strategie für ihre IT

Ob Deutsche Bank, Commerzbank oder DKB: Immer wieder wackeln Server und Anwendungen bei großen Finanzinstituten. Viele Kernbanksysteme sind zu alt für aktuelle Anforderungen. Die Branche sucht nach Auswegen.
Eine Analyse von Manuel Heckel

  1. Bafin Kunden beklagen mehr Störungen beim Online-Banking
  2. PSD2 Giropay soll bald nahezu allen Kunden zur Verfügung stehen
  3. Klarna Der Schrecken der traditionellen Banken

IT-Sicherheit: Auch kleine Netze brauchen eine Firewall
IT-Sicherheit
Auch kleine Netze brauchen eine Firewall

Unternehmen mit kleinem Geldbeutel verzichten häufig auf eine Firewall. Das sollten sie aber nicht tun, wenn ihnen die Sicherheit ihres Netzwerks wichtig ist.
Von Götz Güttich

  1. Anzeige Wo Daten wirklich sicher liegen
  2. Erasure Coding Das Ende von Raid kommt durch Mathematik
  3. Endpoint Security IT-Sicherheit ist ein Cocktail mit vielen Zutaten

  1. Archer2: Britischer Top-10-Supercomputer nutzt AMDs Epyc
    Archer2
    Britischer Top-10-Supercomputer nutzt AMDs Epyc

    Der Archer2 soll 2020 die höchste CPU-Leistung aller Supercomputer weltweit erreichen und es dank Beschleunigerkarten in die Top Ten schaffen. Im System stecken fast 12.000 Epyc-7002-Chips und Next-Gen-Radeons.

  2. Corsair One: Wakü-Rechner erhalten mehr RAM- und SSD-Kapazität
    Corsair One
    Wakü-Rechner erhalten mehr RAM- und SSD-Kapazität

    Mit dem i182, dem i164 und dem i145 aktualisiert Corsair die One-Serie: Die wassergekühlten Komplett-PCs werden mit doppelt so viel DDR4-Speicher und doppelt so großen SSDs ausgerüstet.

  3. ChromeOS: Google zeigt neues Pixelbook Go und benennt Start von Stadia
    ChromeOS
    Google zeigt neues Pixelbook Go und benennt Start von Stadia

    Das Pixelbook Go ist ein Clamshell-Notebook mit ChromeOS, das eher eine Ergänzung als ein Nachfolger des Ur-Pixelbooks ist. Zumindest kostet es wesentlich weniger. Auch der genaue Starttermin für Stadia steht jetzt fest.


  1. 18:25

  2. 17:30

  3. 17:20

  4. 17:12

  5. 17:00

  6. 17:00

  7. 17:00

  8. 16:11