-
Bleibt die Frage nach der Notwendigkeit von 400 Gbps
Autor: senf.dazu 22.10.19 - 16:22
100GBit/s kann schon PCIe3.0x16 - das schon ewige (schon seit inzwischen mehreren Jahren) Nadelöhr bei z.B. der CPU GPU Kommunikation. Umgerechnet mal gerade 12.5 GByte/s kann jedes einzelne von 4..6 oder 8 hergelaufenen einzelne DRAM Modul im Hauptspeicher. Sprich auch bei verteiltem Massenspeicher ist's bereits unmöglich die gesamte DRAM Hauptspeicher Bandbreite ins Netzwerk zur Verfügung zu stellen - es sei denn man nähme mehrere 100G Schnittstellen je Prozessor .. (2x100G sind da ja durchaus auch nicht unüblich)
Die 100G limitieren also die Weiterentwicklung der Prozessoren- und Systemen in sowohl HPC/Parallelrechner/Vermittlungsstellen/Routern.
Angesichts vom langsam doch kommenden PCIe4x16 (200G) oder eher gleich PCIe5x16 (400G) und ebenso steigender Hauptspeichergeschwindigkeit (sei es durch mehr Ram Kanäle oder Stapel-DRAMs/HBR) ist auch die Beschleunigung der Netzwerkkarten auf's 4 fache durchaus paßgenau.
Aber auch PCIe5 ist ja noch nicht so ganz da ..
4 mal bearbeitet, zuletzt am 22.10.19 16:29 durch senf.dazu. -
Re: Bleibt die Frage nach der Notwendigkeit von 400 Gbps
Autor: /lib/modules 22.10.19 - 22:09
Naja über so einem Port geht halt z.B. ein großteil des AWS Traffics. Da stecken dann 10000 Server dahinter. Klar, um einen anzubinden brauchts das noch nicht....



