Abo
  1. Foren
  2. Kommentare
  3. Internet
  4. Alle Kommentare zum Artikel
  5. › Nationalbibliothek: British Library…

100 TB pro Jahr

Anzeige
  1. Thema

Neues Thema Ansicht wechseln


  1. 100 TB pro Jahr

    Autor: abfallwoscht 07.04.13 - 20:02

    Und das soll reichen?

    Benutzer wird von Ihnen ignoriert. Anzeigen

  2. Re: 100 TB pro Jahr

    Autor: Kampfmelone 07.04.13 - 20:23

    Also wenn ich von 2 tb hdds ausgehe sind das gerade mal 50 festplatten. Mit redundanz dann maximal 100. Das könnte ja sogar eine reiche Privatperson tragen. Server HDDs sind zwar afaik kleiner und teurer, aber so gigantische Datenmengen sind das ja wohl nicht. Aber ob das, was die Speichern wirklich dann auch wichtig ist... who knows.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  3. Re: 100 TB pro Jahr

    Autor: 9r4bµRm0ney 07.04.13 - 21:03

    Und wenn man von bereits verfügbaren 4TB Server-HDDs ausgeht sind es nur 25 Stück.
    Viel ist das wirklich nicht. Zum Vergleich soll Facebook allein TÄGLICH 100TB verarbeiten.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  4. Re: 100 TB pro Jahr

    Autor: The_Ultimative_Langweiler 07.04.13 - 21:19

    Es geht ja um England nicht um Facebook Weltweit oder sehe ich das falsch ?

    Benutzer wird von Ihnen ignoriert. Anzeigen

  5. Re: 100 TB pro Jahr

    Autor: Himmerlarschundzwirn 07.04.13 - 22:16

    Wie war das? Ohne P*rn passt das Internet auf ne Floppy? :-)

    Benutzer wird von Ihnen ignoriert. Anzeigen

  6. Re: 100 TB pro Jahr

    Autor: justanotherhusky 07.04.13 - 22:46

    Himmerlarschundzwirn schrieb:
    --------------------------------------------------------------------------------
    > Wie war das? Ohne P*rn passt das Internet auf ne Floppy? :-)

    Heutzutage wohl nicht mehr, aber lass mal sämtliche Streaming-Sites bzw. sämtliche Videos und Bilder weg. Nimm nur Texte. Keine HTML Seiten. Kein Javascript. Plaintexte. Da sind 100TB viel. Sehr viel sogar.

    Genauergesagt:

    100000000000000 Alphanumerische Zeichen. (1 Char = 1 Byte, 100 TB = 100000 GB = 100000000 MB = 100000000000 KB = 100000000000000 Bytes = Zeichen)

    Bei einer durschnittlichen Buchstabenzahl von 5 pro Wort
    Ca 20000000000000 Worte.

    Bei 8 Wörtern pro Satz
    Ca 2500000000000 Sätze.

    Schreib das mal auf ne Tafel :-)


    Ich vermute zwar, dass es nicht so krass minimal ablaufen wird, aber mal ehrlich, wieviele Facebook-Bilder sind für unsere Nachwelt interessant. 1%?

    Benutzer wird von Ihnen ignoriert. Anzeigen

  7. Re: 100 TB pro Jahr

    Autor: Salzbretzel 07.04.13 - 23:31

    justanotherhusky schrieb:
    --------------------------------------------------------------------------------
    > Heutzutage wohl nicht mehr, aber lass mal sämtliche Streaming-Sites bzw.
    > sämtliche Videos und Bilder weg. Nimm nur Texte. Keine HTML Seiten. Kein
    > Javascript. Plaintexte. Da sind 100TB viel. Sehr viel sogar.
    Das weglassen von Streaming - ja
    HTML (Tabellen, Links) weglassen würde dem zu archivierenden Objekt (Internet) seine Funktionalität berauben.
    Über Javascript kann man vielleicht noch hinwegsehen - aber da es das Ziel ist das Internet zu archivieren könnte es Probleme bereiten.
    ooooder wir stellen jemanden ein der heraussucht wo Elemente der Seite in javascript ausgelagert sind und wo nicht.

    Und Bilder können auch interessant sein. Mohammed Karikaturen bewahren sich nicht von alleine...
    Wenn ich winfuture glauben darf sind es ~900kb pro Webseite. Dabei sind css und scripte mit eingerechnet - sind diese in extra Dateien ausgelagert spart man etwas Datenvolumen. Gehen wir mal großzügig von 500kb pro Seite aus.

    100TB / 500kb =^= 200.000.000 Seiten
    Bei den Millionen Webseiten die es gibt auch nicht die Welt. Aber vermutlich ausreichend um eine nationale Bibliothek anzulegen.

    "Das Genie: Ein Blitz, dessen Donner Jahrhunderte währt" (Knut Hamsun)

    Benutzer wird von Ihnen ignoriert. Anzeigen

  8. Re: 100 TB pro Jahr

    Autor: Technikfreak 07.04.13 - 23:46

    Kampfmelone schrieb:
    --------------------------------------------------------------------------------
    > Also wenn ich von 2 tb hdds ausgehe sind das gerade mal 50 festplatten. Mit
    > redundanz dann maximal 100. Das könnte ja sogar eine reiche Privatperson
    > tragen. Server HDDs sind zwar afaik kleiner und teurer, aber so gigantische
    > Datenmengen sind das ja wohl nicht. Aber ob das, was die Speichern wirklich
    > dann auch wichtig ist... who knows.
    Das Problem liegt wohl weniger in der Speicherung, denn in der Verfügbarkeit.
    Wer bestimmt, welcher Inhalt wieder restauriert wird und zu welchem Stand und Zeitpunkt?

    Benutzer wird von Ihnen ignoriert. Anzeigen

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Anzeige
Stellenmarkt
  1. Preh GmbH, Bad Neustadt (Saale)
  2. Robert Bosch GmbH, Abstatt
  3. GIGATRONIK München GmbH, München
  4. Arnold & Richter Cine Technik GmbH & Co. Betriebs KG, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. ab 229,00€
  2. 94,90€ statt 109,90€
  3. (u. a. Asus GTX 1070 Strix, MSI GTX 1070 Gaming X 8G, Inno3D GTX 1070 iChill)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Next Gen Memory: So soll der Speicher der nahen Zukunft aussehen
Next Gen Memory
So soll der Speicher der nahen Zukunft aussehen
  1. Arbeitsspeicher DDR5 nähert sich langsam der Marktreife
  2. SK Hynix HBM2-Stacks mit 4 GByte ab dem dritten Quartal verfügbar
  3. Arbeitsspeicher Crucial liefert erste NVDIMMs mit DDR4 aus

Wiper Blitz 2.0 im Test: Kein spießiges Rasenmähen mehr am Samstag (Teil 2)
Wiper Blitz 2.0 im Test
Kein spießiges Rasenmähen mehr am Samstag (Teil 2)
  1. Softrobotik Oktopus-Roboter wird mit Gas angetrieben
  2. Warenzustellung Schweizer Post testet autonome Lieferroboter
  3. Lockheed Martin Roboter Spider repariert Luftschiffe

8K- und VR-Bilder in Rio 2016: Wenn Olympia zur virtuellen Realität wird
8K- und VR-Bilder in Rio 2016
Wenn Olympia zur virtuellen Realität wird
  1. 400 MBit/s Telefónica und Huawei starten erstes deutsches 4.5G-Netz
  2. Medienanstalten Analoge TV-Verbreitung bindet hohe Netzkapazitäten
  3. Mehr Programme Vodafone Kabel muss Preise für HD-Einspeisung senken

  1. Linux: Kernel-Sicherheitsinitiative wächst "langsam aber stetig"
    Linux
    Kernel-Sicherheitsinitiative wächst "langsam aber stetig"

    Um den Linux-Kernel besser vor Angriffen zu schützen, wird dieser seit einem Jahr von einer Arbeitsgruppe aktiv erweitert. Die Initiative hat inzwischen eine gute Unternehmensunterstützung und bereits einige Erfolge aufzuweisen, aber weiterhin Probleme mit der Kultur der Linux-Community.

  2. VR-Handschuh: Dexta Robotics' Exoskelett für Motion Capturing
    VR-Handschuh
    Dexta Robotics' Exoskelett für Motion Capturing

    Das chinesische Startup Dexta Robotics stellt mit dem Dexmo einen Motion-Capturing-Handschuh für VR-Anwendungen vor. Momentan sucht der Exoskelett-Prototyp nach Entwicklern und Industriepartnern.

  3. Dragonfly 44: Eine Galaxie fast ganz aus dunkler Materie
    Dragonfly 44
    Eine Galaxie fast ganz aus dunkler Materie

    Sie ist so groß und massereich wie unsere Milchstraße und doch kaum zu sehen: Die Galaxie Dragonfly 44 besteht fast ausschließlich aus dunkler Materie. Die Entdecker rätseln über die Entstehung.


  1. 15:33

  2. 15:17

  3. 14:29

  4. 12:57

  5. 12:30

  6. 12:01

  7. 11:57

  8. 10:40