Warum 1024 = 1000 sind? Darum..
Autor: Senarius 24.03.06 - 12:46
Das hat durchaus seinen Grund und ist mit der Entwicklungsgeschichte der Computer allgemein verbunden.
1 Byte sind 8 Bit, 1 Byte beinhaltet ein Zeichen/Buchstaben/Zahl, hierfür werden mindestens 8 Bit benötigt um diesen darstellen zu können wenn man folgendes berücksichtigt:
Der Computer kennt nur 2 Grundsätze, es fliest Strom oder es fliest kein Strom.
1 Bit kann nur 2 Werte annehmen und zwar NULL oder EINS, Strom fliesst oder fliesst nicht.
(ein Stichwort dazu noch ASCII und ASCII-Zeichen!)
.. und jetzt überspringen wir die ganze Geschichte und detailiertere Erklärungen und die Fragen lassen sich mit einem Satz beantworten:
1000 lässt sich nicht durch 8 teilen!
Alles was man MegaByte, GB, KB usw. hört, ist immer durch 8 teilbar!
128MB -Grafikkarte z.b. usw. usv.
Grüße
Senarius



