-
Nicht wirklich sinnvoll - Aufgabenverteilung verbraucht zu viele Ressourcen
Autor: Scifi-meets-reality Tobias 25.06.15 - 16:07
Auch wenn die Idee zunächst verlockend klingt, denke ich nicht, dass diese Technik einen realen Nutzen bringen wird.
Zum Einen sind die Prozessoren, welche bei IoT zum Einsatz kommen nicht gerade große Rechenwunder und zum anderen ist der Rechenaufwand zur Verteilung der Aufgaben zu groß.
Beispielsweise liegt es nicht an Hardware-Problemen, dass es noch "keine" 16 Kern Prozessoren gibt, sondern schlicht und ergreifend daran, dass diese durch genannte Verteilungsprobleme letzlich nicht schneller werden. -
Re: Nicht wirklich sinnvoll - Aufgabenverteilung verbraucht zu viele Ressourcen
Autor: SelfEsteem 25.06.15 - 18:50
Diese "Verteilungsprobleme" gibt es zwar, aber irgendwie verstehen das viele so, dass der Aufwand zur Verteilung die Mehrressourcen auffrisst. Dem ist _nicht_ so.
Die Probleme kommen hauptsaechlich daher, dass viele Programmierer nicht im Stande sind, korrekt Multithreading zu betreiben.
Ansonsten wuerden Rechencluster mit mehreren Tausend CPUs auch keinerlei Sinn ergeben.
Um die CPUs bei den IOT-Devices wuerde ich mir mal keine Gedanken machen. Die Jungs hier versuchen sich nur auf die Zukunft einzustellen. -
Re: Nicht wirklich sinnvoll - Aufgabenverteilung verbraucht zu viele Ressourcen
Autor: SCF 25.06.15 - 22:25
Das Problem ist nicht die Rechenleistung, die notwendig ist um die Aufgaben aufzuteilen. Das Problem ist eher, dass es sich nur für Probleme lohnt wo eher geringe Datenmengen zu sehr großen Mengen an Rechenbedarf führen.
Der Zeitgewinn durch die größere verfügbare Rechenleistung wird teilweise durch den Datentransfer im Netzwerk wieder aufgefressen. Weiters gibt es selbst bei perfektem Multi-threading einen Overhead. -
Re: Nicht wirklich sinnvoll - Aufgabenverteilung verbraucht zu viele Ressourcen
Autor: SelfEsteem 26.06.15 - 20:29
SCF schrieb:
--------------------------------------------------------------------------------
> Das Problem ist nicht die Rechenleistung, die notwendig ist um die Aufgaben
> aufzuteilen. Das Problem ist eher, dass es sich nur für Probleme lohnt wo
> eher geringe Datenmengen zu sehr großen Mengen an Rechenbedarf führen.
>
> Der Zeitgewinn durch die größere verfügbare Rechenleistung wird teilweise
> durch den Datentransfer im Netzwerk wieder aufgefressen.
Nun, ja, das stimmt. Wobei "kleine Daten" natuerlich immer relativ zu Bandbreite und Latenz der Netzwerkverbindung zu sehen ist.
Dass sich Multithreading nicht fuer _alles_ eignet, hatte ich ja auch nie bestritten.
> Weiters gibt es
> selbst bei perfektem Multi-threading einen Overhead.
Keine Frage, natuerlich gibt es den, aber ich wuerde diesbezueglich den Teufel nicht an die Wand malen.
Ich habe nun oft genug gehoert, dass sich ein System mit mehr als 4, 8, 12 oder 16 (je nachdem, wer einem das Maerchen erzaehlt) Kernen oder CPUs nicht lohn, weil ab da nicht mehr nach oben skalierbar ist, da der Overhead ab da alles auffrisst.
Das ist nunmal so allgemein Bullshit.



