Abo
  1. Foren
  2. Kommentare
  3. Wissenschaft
  4. Alle Kommentare zum Artikel
  5. › Supercomputer: EU investiert 1…

Immer mehr Computer?

  1. Thema

Neues Thema Ansicht wechseln


  1. Immer mehr Computer?

    Autor: Anonymer Nutzer 11.01.18 - 19:27

    So schön mehr Rechenleistung ist, sie kompensiert nicht für fehlende effiziente Modelle/Methoden.

    Im Bereich Quantum Chemistry skallieren Methoden wie CCSD(T) mit einem Exponent von 4 oder 5 pro zusätzlichem Elektron. Man kann immer stärkere Computer nuzten, es ist jedoch Blödsinn.
    Stattdessen braucht man neuere/bessere Ansätze welche das Problem effizienter lösen. Speziell im Fall von Quantum Chemistry kommt ein Ansatz vom CEC am Max Planck Institut und nennt sich LPNO/DLPNO.
    Damit lassen sich dann auch entsprechend größere Systeme untersuchen.

    Das Gleiche lässt sich auf so ziemlich jedes andere numerische Feld ausweiten - zum Beispiel CFD: für "direct numerical simulation" (DNS) von einer turbulenten Strömung kann man ein immer feineres Netz nehmen - theoretisch ist es nie fein genug... - Irgendwann sagt man halt "nun ist es genau genug".
    Oder man kann Anfangen verschiedene Schätzungen/Submodelle zu nuzten - 'large eddy simulation" (LES), etc.

    Auf Dauer brauchen wir nicht mehr Rechenleistung, sondern neue Methoden und ein besseres theoretisches Verständnis der zugrundeliegenden Systeme.

    Dann gibt es noch ein zweites Problem: so eine Initiative wird dazu führen dass die Leistung extrem gebündelt ist - was diese wiederum nur einem kleinem Kreis zu Verfügung stellt.
    Die weitere Wissenschaft wird davon nicht profitieren können. Sind "Jobs" zu klein, kann man auch kaum Zeit auf so einem gigantisch Cluster beantragen - da der Job eben zu klein ist...
    Quantum Chemistry? - Ich habe aktuell kein Cluster an meiner Uni - ohne DLPNO-CCSD(T) wären meine aktuellen Berechnungen unmöglich.
    Zeit auf einem Cluster bekommen? Nicht so einfach falls überhaupt möglich.

    Und dann gibt es das Problem dass diese Technologien veralten: man verspricht aktuell das Blaue vom Himmel - aber existiert so ein Cluster erst einmal, wird sich die Ernüchterung doch recht schnell einstellen. Klar, es wird zufriedene Wissenschaftler geben, Berechnungen werden schneller ausgeführt werden - aber die großen Ziele werden mit Sicherheit verfehlt.
    Und ein paar Jahre später hat man dann die Altlasten - ein gigantisches altes Cluster welches zu viel Strom verbraucht und auch noch gewartet werden muss...

    Und bevor ich noch was vergesse... wie konfiguriert man das? Der eine will viel CPU-Leistung, der Andere viel RAM, der Andere I/O ... - oder wenn man sich mit Quantum Chemistry beschäftigt, gleich alles auf einmal...
    Bei so etwas muss es zwangsweise enttäuschte Nutzer geben, da man nicht alle Wünsche wird berücksichtigen können.

    Jedenfalls erwarte ich von diesen politisch motivierten "Ideen" kein gutes Preis-Leistungsverhältnis.

  2. Re: Immer mehr Computer?

    Autor: honna1612 11.01.18 - 22:36

    Sie haben ganz genau die Mentalität die in Europa dazu geführt hat dass wir Technologisch abgehängt wurden. Hier gibt es kein Silicon Valley, keine IT Giganten, keine nennenswerte Smartphoneproduktion.

    Anstatt die 5 Minuten zu recherchieren welcher Sektoren das dringenst brauchen haben sie sich 20 Minuten lang überlegt warum das nicht gehen sollte oder unwirtschaftlich ist.

    Wäre es besser wären die Teile für den Computer nicht von Intel Nvidia oder Supermicro, sondern aus Firmen in der EU. So wandern das Geld und somit Wohlstand ins ausland weil es keine EU alternativen gibt.



    1 mal bearbeitet, zuletzt am 11.01.18 22:37 durch honna1612.

  3. Re: Immer mehr Computer?

    Autor: Anonymer Nutzer 11.01.18 - 23:21

    honna1612 schrieb:
    --------------------------------------------------------------------------------
    > Sie haben ganz genau die Mentalität die in Europa dazu geführt hat dass wir
    > Technologisch abgehängt wurden. Hier gibt es kein Silicon Valley, keine IT
    > Giganten, keine nennenswerte Smartphoneproduktion.
    >

    Hmm, trotzdem sind unsere europäischen Produkte oft höherwertiger als der amerikansiche Kram - und die Asiaten, vor allem aber die Japaner produzieren noch einmal wesentlich hochwertiger.
    Das wird sich auch nicht aufgrund von irgendwelchen "nationalistischen Ideen" (auch wenn Europa keine Nation ist) verändern.
    Das gleiche in England... viele blenden, wenig Substanz.
    Und die IT-Giganten sitzen heute in Asien - die USA sind da schon lange auf dem absteigenden Ast.

    > Anstatt die 5 Minuten zu recherchieren welcher Sektoren das dringenst
    > brauchen haben sie sich 20 Minuten lang überlegt warum das nicht gehen
    > sollte oder unwirtschaftlich ist.
    >

    Och, da wäre auch noch das Problem dass die Effizienzsteigerung mit zunehmender Parallelisierung abnimmt - was auch gegen extrem große Cluster spricht, weil diese ab einem bestimmte Zeitpunkt einfach nicht mehr effizienter arbeiten können.
    Die genauen Grenzen gesetzt hängen dabei stark von dem jeweiligen Problem ab.

    > Wäre es besser wären die Teile für den Computer nicht von Intel Nvidia oder
    > Supermicro, sondern aus Firmen in der EU. So wandern das Geld und somit
    > Wohlstand ins ausland weil es keine EU alternativen gibt.

    Ja gibt es aber nicht - und? Was ist denn daran verkehrt Produkte aus anderen Ländern einzukaufen? Ah ja, nichts.
    Wobei ich bei elektronischen Produkten empfehlen würde japanische Produkte gegenüber europäischen zu bevorzugen. Und die Chinesen produzieren heutzutage mittlerweile auch sehr hochwertige Podukte.

  4. Re: Immer mehr Computer?

    Autor: Rvn.Lvr 11.01.18 - 23:24

    In einigen Punkten stimme ich zu.

    1. Wissenschaftler/-innen können nie genug Rechenleistung bekommen. Allerdings liegt das nicht nur (!) an ineffizienten Methoden. Heute sind Simulationen möglich, die vor 20 Jahren einfach noch nicht möglich waren, z.B. ab initio Molekulardynamik, dabei braucht man die quantenchemische Behandlung des Systems, wenn elektronische Wechselwirkungen wichtig sind (bspw. Simulation von neuen OLED-Stoffen oder katalysierten Reaktionen in Flüssigphase) oder für amorphe Festkörper (Gläser, Polymere etc.) oder für heterogene Systeme (Zellmembranen, Micellen...).

    CCSD(T) skaliert IMHO mit Systemgröße hoch 9. Das heißt aber, die Rechenzeit erhöht sich entsprechend, wenn du die Größe verdoppelst, z.B. von 20 auf 40 Elektronen und nicht, wenn du ein Elektron hinzufügst.

    Auch gut parallelisierbare Methoden wie Quanten-MonteCarlo sind spannende Entwicklungen. Am Ende muss steigende Rechenleistung und Methodenentwicklung Hand in Hand gehen und bei den komplexen Fragestellungen, die wir heutzutage lösen wollen, braucht man oft die Rechenpower, um aus den Ergebnissen einfachere Modelle entwickeln zu können ;)

    2. Oft ist es tatsächlich so, dass die Dekane, Profs etc., die die Supercomputer angeschafft haben, nachher von der Leistung enttäuscht sind. Die Hersteller machen viel Werbung mit der Rechenleistung, aber es bringt nichts, wenn man am Ende nur auf 32 oder 64 Kernen rechnen kann, weil die Kommunikation zwischen den Nodes übelst langsam ist oder die Software (bzw. Methode an sich ;) ) schlecht skaliert.

    Die Supercomputer sind beides: teilweise sinnvoll, teilweise ein Schwanzlängenvergleich ^_^

  5. Re: Immer mehr Computer?

    Autor: monosurround 11.01.18 - 23:28

    Hier scheint auch die Sonne nicht wie in California, kein Gras frei zu kaufen... naja und wir sind zwar ein niedrig Lohn Land, aber mit den Asiaten nehmen wir es noch nicht auf...aber ja, alles wird gut! XD

    PS: den eigentlichen Punkt des Vorredners haben sie scheinbar auch nicht verstanden...

    honna1612 schrieb:
    --------------------------------------------------------------------------------
    > Sie haben ganz genau die Mentalität die in Europa dazu geführt hat dass wir
    > Technologisch abgehängt wurden. Hier gibt es kein Silicon Valley, keine IT
    > Giganten, keine nennenswerte Smartphoneproduktion.
    >
    > Anstatt die 5 Minuten zu recherchieren welcher Sektoren das dringenst
    > brauchen haben sie sich 20 Minuten lang überlegt warum das nicht gehen
    > sollte oder unwirtschaftlich ist.
    >
    > Wäre es besser wären die Teile für den Computer nicht von Intel Nvidia oder
    > Supermicro, sondern aus Firmen in der EU. So wandern das Geld und somit
    > Wohlstand ins ausland weil es keine EU alternativen gibt.

  6. Re: Immer mehr Computer?

    Autor: honna1612 12.01.18 - 01:13

    DetlevCM schrieb:

    > Hmm, trotzdem sind unsere europäischen Produkte oft höherwertiger als der
    > amerikansiche Kram - und die Asiaten, vor allem aber die Japaner

    War früher mal so.

    > Und die IT-Giganten sitzen heute in Asien - die USA sind da schon lange auf
    > dem absteigenden Ast.

    Das können sie nicht belegen, weil es einfach nicht stimmt. China ist stark am Wachsen hat schon einige IT größen aber nicht ansatzweise so groß wie die USA. Bei den Firmen die für Supercomputer relevant sind: AMD, Nvidia, Intel, Supermicro, Cisco eventuell ARM ist keine einzige Europäisch ;)

    > Och, da wäre auch noch das Problem dass die Effizienzsteigerung mit
    > zunehmender Parallelisierung abnimmt - was auch gegen extrem große Cluster
    > spricht, weil diese ab einem bestimmte Zeitpunkt einfach nicht mehr
    > effizienter arbeiten können.
    > Die genauen Grenzen gesetzt hängen dabei stark von dem jeweiligen Problem
    > ab.

    Da sind Sie nicht der erste der draufkommt. Bei 1 Milliarde investitionen sind nicht nur Pappnasen die keine Ahnung haben. Nein da wird die Wirtschaftlichkeit tatsächlich durchgerechnet.

    > Ja gibt es aber nicht - und? Was ist denn daran verkehrt Produkte aus
    > anderen Ländern einzukaufen? Ah ja, nichts.

    Deshalb ist wirtschaftliches und Politisches Allgemeinwissen so wichtig. Informieren sie sich mal was ein Handelsdefizit mit Ländern macht. Deutschland liegt hier extrem gut. Wenn man immer mehr Geld ins Ausland verschiebt als man Exportiert hat man erfolgreich Wohlstand zu anderen Gesellschaften verlagert -> die Bevölkerung ärmer zu machen kann nicht das Ziel eines Landes sein also "Ah ja egal" würde ich nicht sagen.

  7. Re: Immer mehr Computer?

    Autor: Nogul 12.01.18 - 09:59

    DetlevCM schrieb:
    --------------------------------------------------------------------------------
    > So schön mehr Rechenleistung ist, sie kompensiert nicht für fehlende
    > effiziente Modelle/Methoden.

    Das eine zu machen heisst ja nicht, das andere zu lassen.

    Ansonsten weiss ich nicht was ich davon halten soll.

    Klingt wie wir bauen uns unsere eigene MS, Google und Facebook.

    Ich wage jetzt schon mal die Vorhersage, dass wenn dieses Geld ausgegeben ist, immer noch die bisherigen Markführer bessere Produkte im Angebot haben werden. Sobald die Finanzierung beendet ist wird alles nach und nach im Kuriositätenkabinett verschwinden.

  8. Re: Immer mehr Computer?

    Autor: Anonymer Nutzer 12.01.18 - 10:21

    Nogul schrieb:
    --------------------------------------------------------------------------------
    > DetlevCM schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > So schön mehr Rechenleistung ist, sie kompensiert nicht für fehlende
    > > effiziente Modelle/Methoden.
    >
    > Das eine zu machen heisst ja nicht, das andere zu lassen.
    >

    Theoretisch. Praktisch gibt es entweder das Eine oder das Andere (von einigen wenigen Ausnahmen einmal abgesehen).
    Wenn ein stärkerer Computer ausreicht, bekommt man nicht die Zeit neue oder verbesserte Modelle zu entwickeln - das macht man, wenn man das Problem nicht anderweitig lösen kann.
    Es gibt nicht umsonst ds Sprichwort "Not macht erfinderisch".


    > Ansonsten weiss ich nicht was ich davon halten soll.
    >
    > Klingt wie wir bauen uns unsere eigene MS, Google und Facebook.
    >
    > Ich wage jetzt schon mal die Vorhersage, dass wenn dieses Geld ausgegeben
    > ist, immer noch die bisherigen Markführer bessere Produkte im Angebot haben
    > werden. Sobald die Finanzierung beendet ist wird alles nach und nach im
    > Kuriositätenkabinett verschwinden.

  9. Re: Immer mehr Computer?

    Autor: Anonymer Nutzer 12.01.18 - 10:47

    Rvn.Lvr schrieb:
    --------------------------------------------------------------------------------
    > In einigen Punkten stimme ich zu.
    >
    > 1. Wissenschaftler/-innen können nie genug Rechenleistung bekommen.
    > Allerdings liegt das nicht nur (!) an ineffizienten Methoden. Heute sind
    > Simulationen möglich, die vor 20 Jahren einfach noch nicht möglich waren,
    > z.B. ab initio Molekulardynamik, dabei braucht man die quantenchemische
    > Behandlung des Systems, wenn elektronische Wechselwirkungen wichtig sind
    > (bspw. Simulation von neuen OLED-Stoffen oder katalysierten Reaktionen in
    > Flüssigphase) oder für amorphe Festkörper (Gläser, Polymere etc.) oder für
    > heterogene Systeme (Zellmembranen, Micellen...).
    >

    Ja, aber die können wir heute aufgrund von besseren Methoden berechnen, NICHT aufgrund der stärkeren Computer.
    Mit den gleichen Methoden "wie damals" wäre es heute ebenso unmöglich.
    (Das wären zum Beispiel "auxiliary basis sets" und "RI" .)

    > CCSD(T) skaliert IMHO mit Systemgröße hoch 9. Das heißt aber, die
    > Rechenzeit erhöht sich entsprechend, wenn du die Größe verdoppelst, z.B.
    > von 20 auf 40 Elektronen und nicht, wenn du ein Elektron hinzufügst.
    >

    Ganz so schlimm ist es bei CCSD(T) nicht - allerdings konnte ich auf die schnelle keine Quellen finde... (auch "Exploring Chemistry with Electornic Structure Methods" scheint keine Antwort parat z haben, dabei dachte ich das da gesehen zu haben...)
    DFT skalliert mit der Anzahl der Elektronen - wobei ein zusätzliches Elektron meistens en Proton, oder, je nach Element, auch Neutronen mitbringt. Die fließen in die Berechnungen jedoch nicht ein.
    Eine Verdoppelung der Elemente ist im Bereich von Quantum Chemistry eigentlich auch nicht interessant - dann hat man das glewiche Molekül doppelt, und? Stattdessen ist es jedoch interessant verwandte, eventuell größere Moleküle zu behandeln. Sprich, wenn man mit sagen wir Octane rechnen kann, reicht die Leistung für Decan?
    (Das kann im Bereich von Monte Carlo Simulationen anders sein - die sind allerdings auch keine klassische "Quantum Chemistry".)

    > Auch gut parallelisierbare Methoden wie Quanten-MonteCarlo sind spannende
    > Entwicklungen. Am Ende muss steigende Rechenleistung und
    > Methodenentwicklung Hand in Hand gehen und bei den komplexen
    > Fragestellungen, die wir heutzutage lösen wollen, braucht man oft die
    > Rechenpower, um aus den Ergebnissen einfachere Modelle entwickeln zu können
    > ;)
    >

    Ja zum ersten Teil, nicht unbedingt zum zweiten.
    Wenn man Probleme mit "Brute Force" lösen kann, wird man schnell faul und die Motivation das Problem grundlegend zui verstehen schwindet schnell. Das merkt man indirekt an der immer seltener werdenden Grundlagenforschung... Die Modelle "funktionieren doch" und Universitäten werden zur verlängerten Werkbank der Industrie weil Doktoranden billiger sind als Vollzeitbeschäftigte...

    > 2. Oft ist es tatsächlich so, dass die Dekane, Profs etc., die die
    > Supercomputer angeschafft haben, nachher von der Leistung enttäuscht sind.
    > Die Hersteller machen viel Werbung mit der Rechenleistung, aber es bringt
    > nichts, wenn man am Ende nur auf 32 oder 64 Kernen rechnen kann, weil die
    > Kommunikation zwischen den Nodes übelst langsam ist oder die Software (bzw.
    > Methode an sich ;) ) schlecht skaliert.
    >
    > Die Supercomputer sind beides: teilweise sinnvoll, teilweise ein
    > Schwanzlängenvergleich ^_^

  10. Re: Immer mehr Computer?

    Autor: Nogul 12.01.18 - 10:48

    DetlevCM schrieb:
    --------------------------------------------------------------------------------

    > Theoretisch. Praktisch gibt es entweder das Eine oder das Andere (von
    > einigen wenigen Ausnahmen einmal abgesehen).
    > Wenn ein stärkerer Computer ausreicht, bekommt man nicht die Zeit neue oder
    > verbesserte Modelle zu entwickeln - das macht man, wenn man das Problem
    > nicht anderweitig lösen kann.
    > Es gibt nicht umsonst ds Sprichwort "Not macht erfinderisch".

    Nicht wirklich. Man sieht das eigentlich täglich bei Softwareentwicklung.

    Wie groß ist das Performanceproblem? Im Prozentbereich? Das lösen wir mit Hardware. Faktoren? Größenordnungen? Da müssen die Programmierer noch einmal ran.

    Bei Klimamodellen haben wir ^3. Im Ursprungspost wurden Probleme genannt die mit ^5 veranschlagt wird. Mal so einen Rechner aus dem Ärmel schütteln der 1.000 mal schneller ist oder gar 100.000 mal? Keiner wird einen Gedanken daran verschwenden auf diese Rechner zu warten.

    Auf der anderen Seite gibt es ja noch die Minimalisten die gerne an Lösungen tüfteln, um den Hardwarebedarf zu senken. Ich habe es geschafft dieses Problem vom Supercomputer auf Raspi zu bringen. :)

  11. Re: Immer mehr Computer?

    Autor: Anonymer Nutzer 12.01.18 - 11:09

    honna1612 schrieb:
    --------------------------------------------------------------------------------
    > DetlevCM schrieb:
    >
    > > Hmm, trotzdem sind unsere europäischen Produkte oft höherwertiger als
    > der
    > > amerikansiche Kram - und die Asiaten, vor allem aber die Japaner
    >
    > War früher mal so.
    >

    Was "war mal so"? - Die Japaner stellen immer noch wesentlich hochwertigere Elektronik her als die Europäer oder Amerikaner. Heutzutage haben sie einen Teil auch nach China ausgelagert, aber die Produkte "Made in Japan" sind weiterhin von höchster Qualität.
    Und wenn ich mit Dell oder HP anschaue... - Hochwertig ist ds nicht, aber es funktioniert... Dell kauft man weil es billig ist...
    HP hat ordentliche Hardware, die Verarbeitung varieiertn die Software/Treiber sind immer noch eher schlecht... aber es funktioniert.

    > > Und die IT-Giganten sitzen heute in Asien - die USA sind da schon lange
    > auf
    > > dem absteigenden Ast.
    >
    > Das können sie nicht belegen, weil es einfach nicht stimmt. China ist stark
    > am Wachsen hat schon einige IT größen aber nicht ansatzweise so groß wie
    > die USA. Bei den Firmen die für Supercomputer relevant sind: AMD, Nvidia,
    > Intel, Supermicro, Cisco eventuell ARM ist keine einzige Europäisch ;)
    >

    Lenovo, Asus, Clevo, Samsung, Fujitsu- alles Asiaten - und da gibt es noch viele weitere Hersteller von IT und Elektronik.
    Die Chinesen haben in einem Cluster auch ihren eigenen Prozessor stecken (wüsste spontan nicht wer den gebaut hat).
    Die Japaner haben noch ihren K-Computer mit Sparc von Fujitsu.
    Was bisher meistens amerikanisch ist, ist die zugrundeliegende Hardware - weil es auf dem "Massenmarkt" am Ende nur Prozessoren von Intel und AMD gibt, letzterer in Clustern nicht vertreten.
    Mainboards werden auch außerhalb der USA entwickelt - zum Beispiel von Fujitsu - die haben ein "Cluster in a Box" als Produkt im Angebot.

    > > Och, da wäre auch noch das Problem dass die Effizienzsteigerung mit
    > > zunehmender Parallelisierung abnimmt - was auch gegen extrem große
    > Cluster
    > > spricht, weil diese ab einem bestimmte Zeitpunkt einfach nicht mehr
    > > effizienter arbeiten können.
    > > Die genauen Grenzen gesetzt hängen dabei stark von dem jeweiligen
    > Problem
    > > ab.
    >
    > Da sind Sie nicht der erste der draufkommt. Bei 1 Milliarde investitionen
    > sind nicht nur Pappnasen die keine Ahnung haben. Nein da wird die
    > Wirtschaftlichkeit tatsächlich durchgerechnet.
    >

    Solche Supercomputer sind nie "wirtschaftlich" im klassischen Sinn. Sie kosten Geld und bringen eventuell Ergebnisse oder auch nicht. Wenn da ein BWLer vorbeikommt und von Wirtschaftlichkeit schwafelt, weiß man schon dass das nichts werden kann...
    Das erinnert mich allerdings an ein Gespräch in England wo der Kern der Aussage war dass man kontinuierlich das Gleiche in die Proposals für EPSRC schreibt, da die Mehtode bekannt ist (auch wenn diese sinnlos ist) anstatt das Problem von einer anderen Seite her zu betrachten, da es dann abgelehnte werden kann...
    ...und so hat sich - "im Westen" - in den letzten 60 Jahren in enem Fachbereich nicht viel getan... mit ein paar Lichtblicken hier und da, wo dann wirklich interessante und nützliche Publikationen geschrieben wurden.

    > > Ja gibt es aber nicht - und? Was ist denn daran verkehrt Produkte aus
    > > anderen Ländern einzukaufen? Ah ja, nichts.
    >
    > Deshalb ist wirtschaftliches und Politisches Allgemeinwissen so wichtig.
    > Informieren sie sich mal was ein Handelsdefizit mit Ländern macht.
    > Deutschland liegt hier extrem gut. Wenn man immer mehr Geld ins Ausland
    > verschiebt als man Exportiert hat man erfolgreich Wohlstand zu anderen
    > Gesellschaften verlagert -> die Bevölkerung ärmer zu machen kann nicht das
    > Ziel eines Landes sein also "Ah ja egal" würde ich nicht sagen.

    Wenn der Handel funktioniert, ist es ein Geben und Nehmen.
    Dazu kommt auch, wer miteinader handelt und voneinader abhängig ist, bekriegt sich nicht.
    Und gerade Deutschland wird doch vorgehalten durch das Handeldefizit zu viel Geld einzunehmen und zu wenig auszugeben. Das würde eigentlich für einen globalen Einkauf sprechen.

    Und jetzt "europäische Technik" aus "nationalistischer" (auch wenn Europa keine Nation ist) Überzeugung zu kaufen ist kein Schritt vorwärts, sondern ein großer Schritt zurück.

  12. Re: Immer mehr Computer?

    Autor: Anonymer Nutzer 12.01.18 - 11:13

    Nogul schrieb:
    --------------------------------------------------------------------------------
    > DetlevCM schrieb:
    > ---------------------------------------------------------------------------
    > -----
    >
    > > Theoretisch. Praktisch gibt es entweder das Eine oder das Andere (von
    > > einigen wenigen Ausnahmen einmal abgesehen).
    > > Wenn ein stärkerer Computer ausreicht, bekommt man nicht die Zeit neue
    > oder
    > > verbesserte Modelle zu entwickeln - das macht man, wenn man das Problem
    > > nicht anderweitig lösen kann.
    > > Es gibt nicht umsonst ds Sprichwort "Not macht erfinderisch".
    >
    > Nicht wirklich. Man sieht das eigentlich täglich bei Softwareentwicklung.
    >
    > Wie groß ist das Performanceproblem? Im Prozentbereich? Das lösen wir mit
    > Hardware. Faktoren? Größenordnungen? Da müssen die Programmierer noch
    > einmal ran.
    >
    > Bei Klimamodellen haben wir ^3. Im Ursprungspost wurden Probleme genannt
    > die mit ^5 veranschlagt wird. Mal so einen Rechner aus dem Ärmel schütteln
    > der 1.000 mal schneller ist oder gar 100.000 mal? Keiner wird einen
    > Gedanken daran verschwenden auf diese Rechner zu warten.
    >
    > Auf der anderen Seite gibt es ja noch die Minimalisten die gerne an
    > Lösungen tüfteln, um den Hardwarebedarf zu senken. Ich habe es geschafft
    > dieses Problem vom Supercomputer auf Raspi zu bringen. :)

    Na ja, das ist so in etwa die Größenordnung von CCSD(T) auf DLPNO-CCSD(T) vom CEC am Max-Planck Institut. Letzteres skalliert linear und ist in Sachen Rechenzeit auf DFT-Niveau.

    Würde man auf andere Software setzen, bekäme man als Antwort "nimm einen größeren Computer" , "nimm eine anderew Methode" oder "geht nicht" ...

  13. Re: Immer mehr Computer?

    Autor: spectral 12.01.18 - 11:51

    DetlevCM schrieb:
    --------------------------------------------------------------------------------
    > So schön mehr Rechenleistung ist, sie kompensiert nicht für fehlende
    > effiziente Modelle/Methoden.

    Kleine Ergänzung:
    So schön effiziente Modelle/Methoden sind, sie kompensieren nicht für fehlende Rechenleistung.
    Im HPC Umfeld haben die meisten beides.

    > Das Gleiche lässt sich auf so ziemlich jedes andere numerische Feld
    > ausweiten - zum Beispiel CFD: für "direct numerical simulation" (DNS) von
    > einer turbulenten Strömung kann man ein immer feineres Netz nehmen -
    > theoretisch ist es nie fein genug... - Irgendwann sagt man halt "nun ist es
    > genau genug".
    > Oder man kann Anfangen verschiedene Schätzungen/Submodelle zu nuzten -
    > 'large eddy simulation" (LES), etc.

    1. DNS werden für die Grundlagenforschung genutzt, d.h. um für ein extrem vereinfachtes Setup überhaupt erst ein Verständnis gewisser Probleme zu ermöglichen. Sobald ein Problem hinreichend verstanden ist, kann es meist auch sehr effizient gelöst werden, aber der Weg dahin muss teuer erkauft werden. Modelle fallen ja nicht vom Himmel, sondern werden teils auf dem Papier, teils mit bestehenden Daten hergeleitet und müssen zumindest über Referenzrechnungen oder Experimente validiert werden. Zudem gibt es i.d.R. nicht die eierlegende Wollmilchsau, sondern Verfahren und Modelle eignen sich mal mehr mal weniger für gewisse physikalische Probleme geeignet. Wenn nun apriori

    2. Man kann auch mit LES locker die stärksten HPC Systeme in die Knie zwingen.
    Es ist letztlich eine Frage der Perspektive:
    Will man Modelle nutzen, um bekannte Problemstellungen effizienter zu lösen, was oft bei industriellen Anwendungen der Fall ist? Oder will man komplexere Probleme betrachten, die ohne Modell nicht in endlicher Rechenzeit lösbar wären.

    3. Nutzern von HPC Systemen und den Gutachtern, die Rechenzeit bewilligen, ist durchaus bewusst, welche Simulationen den Einsatz von (sehr) viel Rechenzeit erfordern und welche mit einer App auf dem Iphone bewerkstelligt werden können.

    > Auf Dauer brauchen wir nicht mehr Rechenleistung, sondern neue Methoden und
    > ein besseres theoretisches Verständnis der zugrundeliegenden Systeme.

    Wie schon gesagt, man braucht beides. Und Verständnis muss man sich erarbeiten. Für den Nachweis des Higgs-Bosons hat man auch für einge Mrd einen Teilchenbeschleuniger hingestellt. In diesem Sinne sind Supercomputer nichts anderes.

    > Dann gibt es noch ein zweites Problem: so eine Initiative wird dazu führen
    > dass die Leistung extrem gebündelt ist - was diese wiederum nur einem
    > kleinem Kreis zu Verfügung stellt.

    Diese "Initiative" ist ein Tropfen auf dem heissen Stein.

    > Die weitere Wissenschaft wird davon nicht profitieren können. Sind "Jobs"
    > zu klein, kann man auch kaum Zeit auf so einem gigantisch Cluster
    > beantragen - da der Job eben zu klein ist...

    Was auch sinnvoll ist. Für einen kleinen Job reicht ein kleiner Cluster. Und davon gibts im Gegensatz zu Tier 0/1 Systemen viele.

    > Quantum Chemistry? - Ich habe aktuell kein Cluster an meiner Uni - ohne
    > DLPNO-CCSD(T) wären meine aktuellen Berechnungen unmöglich.
    > Zeit auf einem Cluster bekommen? Nicht so einfach falls überhaupt möglich.

    Wenn man eine sinnvolle Problemstellung hat und nachweisen kann, dass der Code hinreichend skaliert ist es ein leichtes an Rechenzeit zu kommen. Da gibt es zahlreiche Programme, Testaccounts usw.
    Ich erlebe bei Reviews von Anträgen immer wieder, dass Leute zwar Ahnung von ihrem Fach haben, aber gelinge gesagt sehr unbedarft an das Thema HPC rangehen, nach dem Motto "viel hilft viel". Wenn der Code zu lahm ist, dann wirds der Supercomputer ja schon richten.

    > Und dann gibt es das Problem dass diese Technologien veralten: man
    > verspricht aktuell das Blaue vom Himmel - aber existiert so ein Cluster
    > erst einmal, wird sich die Ernüchterung doch recht schnell einstellen.
    > Klar, es wird zufriedene Wissenschaftler geben, Berechnungen werden
    > schneller ausgeführt werden - aber die großen Ziele werden mit Sicherheit
    > verfehlt.

    Cluster veralten so wie jede andere Technik auch. Wäre dem nicht so, dann gäbe es auch keinen Fortschritt.
    Und die großen Ziele, falls sowas existiert, werden eben auch nur in kleinen Schritten erreicht.

    > Und ein paar Jahre später hat man dann die Altlasten - ein gigantisches
    > altes Cluster welches zu viel Strom verbraucht und auch noch gewartet
    > werden muss...

    Die Lebenszeit eines Clusters beträgt von vornherein nur wenige Jahre, gerade im Tier 0/1 Bereich.
    Und genau das sind ja die Ziele des Projekts, mehr Leistung bei weniger Stromverbrauch.

    > Und bevor ich noch was vergesse... wie konfiguriert man das? Der eine will
    > viel CPU-Leistung, der Andere viel RAM, der Andere I/O ... - oder wenn man
    > sich mit Quantum Chemistry beschäftigt, gleich alles auf einmal...
    > Bei so etwas muss es zwangsweise enttäuschte Nutzer geben, da man nicht
    > alle Wünsche wird berücksichtigen können.

    Richtig, es eignet sich nicht jede Hardware für jede Problemstellung und jeden Algorithmus.
    Dafür gibt es dann unterschiedliche Systeme mit unterschiedlichen Ausrichtungen.
    Und falls für einen selbst nun wirklich NICHTS dabei ist, sollte man seinen Ansatz überdenken.

    > Jedenfalls erwarte ich von diesen politisch motivierten "Ideen" kein gutes
    > Preis-Leistungsverhältnis.

    Die EU gibt, auch wenn man dieses Programm mit berücksichtigt, wesentlich weniger Geld für HPC aus, als z.B. die USA oder China. Es geht hier weniger darum, ganz vorne mitzuspielen, als darum nicht komplett den Anschluss zu verlieren.

    Dazu muss man verstehen, was Exascale wirklich bedeutet.
    Bisher war die Leistungssteigerung quasi ein Automatismus, mit jeder neuen Prozessorgeneration gabs mehr, und wenns doch nicht reicht nimmt man GPUs. Die Architektur ist seit fast 2 Jahrzehnten weitestgehend gleich geblieben.
    Inzwischen sind wir da allerdings am Limit angelangt. Für Exascale werden aus vielen Gründen massive Architekturänderungen nötig: da wäre der mit aktueller Technik exorbitante Stromverbrauch, der gesenkt werden muss. Da ist die Kühlung, die deutlich komplexer wird und sehr viel mehr leisten muss. Das Netzwerk, dass deutlich stärker gefordert wird. Die Ausfallsicherheit, die immer kritischer wird (es ist wahrscheinlicher, dass bei 100.000 Nodes einer ausfällt als bei 100).

    Für all das sind aller Voraussicht nach grundlegende Änderungen an Hardware UND SOFTWARE nötig.
    Selbst wenn man die Augen verschließt und einfach Exascale Systeme aus den USA und China zukauft, wird man ohne gravierende Softwareänderungen an teils jahrzehntelang gewachsenen Simulationscodes nicht viel damit anfangen können. Und das ist keine Aufgabe, die ein (oft fachfremder) Forscher mal eben erledigt, zumal selbst GPU-Computing in vielen Bereichen noch nicht angekommen ist. Und die Expertise dafür muss man sich hart erarbeiten.

    Und wenn man bedenkt, wie viel diverse Opernhäuser, Bahnhöfe und Flughäfen verschlingen, ist die eine Mrd. für Gesamteuropa eher ein trauriges Beispiel, wie wenig hierzulande in die Zukunft investiert wird.

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. über duerenhoff GmbH, Siegen
  2. Schwarz Zentrale Dienste KG, Weinsberg
  3. Bundeskriminalamt, Wiesbaden
  4. Hays AG, Frankfurt am Main

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (heute u. a. Beyerdynamic DTX 910 Kopfhörer, NZXT H700i Gehäuse, HP Notebook)
  2. (u. a. Canon EOS 2000D + Objektiv 18-55 mm für 299€ statt 394€ im Vergleich)
  3. ab 119,99€
  4. 263,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Mobile-Games-Auslese: Bezahlbare Drachen und dicke Bären
Mobile-Games-Auslese
Bezahlbare Drachen und dicke Bären

Rundenbasierte Strategie auf dem Smartphone mit Chaos Reborn Adventure Fantasy von Nintendo in Dragalia Lost - und dicke Alpha-Bären: Die Mobile Games des Monats bieten spannende Unterhaltung für jeden Geschmack.
Von Rainer Sigl

  1. Mobile-Games-Auslese Städtebau und Lebenssimulation für unterwegs
  2. Mobile-Games-Auslese Barbaren und andere knuddelige Fantasyhelden
  3. Seismic Games Niantic kauft Entwickler von Marvel Strike Force

Passwörter: Eine vernünftige Maßnahme gegen den IoT-Irrsinn
Passwörter
Eine vernünftige Maßnahme gegen den IoT-Irrsinn

Kalifornien verabschiedet ein Gesetz, das Standardpasswörter verbietet. Das ist ein Schritt in die richtige Richtung, denn es setzt beim größten Problem von IoT-Geräten an und ist leicht umsetzbar.
Ein IMHO von Hanno Böck

  1. Retrogaming Maximal unnötige Minis
  2. Streaming Heilloses Durcheinander bei Netflix und Amazon Prime
  3. Sicherheit Ein Lob für Twitter und Github

HP Elitebook 840 und Toshiba Tecra X40: Es kann nur eines geben
HP Elitebook 840 und Toshiba Tecra X40
Es kann nur eines geben

Nicht nur Lenovo baut gute Business-Notebooks, auch HP und Toshiba haben Produkte, die vergleichbar sind. Wir stellen je ein Modell der beiden Hersteller mit ähnlicher Hardware gegenüber: das eine leichter, das andere mit überlegenem Akku - ein knapper Gewinner nach Punkten.
Ein Test von Oliver Nickel

  1. Portégé X20W-D-145 Toshiba stellt alte Hardware im flexiblen Chassis vor
  2. Tecra X40-E-10W Toshibas 14-Zoll-Thinkpad-Pendant kommt mit LTE
  3. Dell, HP, Lenovo AMDs Ryzen Pro Mobile landet in allen Business-Notebooks

  1. Ubuntu 18.10 angesehen: Unitys Smartphone-Look kommt zurück auf den Desktop
    Ubuntu 18.10 angesehen
    Unitys Smartphone-Look kommt zurück auf den Desktop

    Die aktuelle Version 18.10 von Ubuntu, alias Cosmic Cuttlefish bringt die Design-Sprache des gescheiterten Unity 8 zurück auf den Desktop. Das Design ist zwar völlig neu gestaltet, langjährige wie neue Ubuntu-Nutzer sollten sich aber dennoch schnell wohlfühlen und zurechtfinden.

  2. Netzneutralität: US-Justiz untersucht 9,5 Millionen gefälschte Kommentare
    Netzneutralität
    US-Justiz untersucht 9,5 Millionen gefälschte Kommentare

    Der Abschaffung der Netzneutralität in den USA ist eine intensive Lobbyschlacht vorausgegangen. Gegner und Befürworter der Netzneutralität nutzten dabei offenbar nicht ganz saubere Methoden.

  3. DVB-T2: Media Broadcast will Vier-Tage-Woche einführen
    DVB-T2
    Media Broadcast will Vier-Tage-Woche einführen

    Der Betreiber von DVB-T2 und DAB+ braucht weniger Techniker und andere Beschäftigte. Nun soll es eine Vier-Tage-Woche geben, doch die Betroffenen wollen den vollen Lohnausgleich, Media Broadcast ist dagegen.


  1. 12:01

  2. 11:50

  3. 11:42

  4. 11:06

  5. 10:40

  6. 10:24

  7. 10:13

  8. 09:58