1. Foren
  2. Kommentare
  3. Wissenschaft
  4. Alle Kommentare zum Artikel
  5. › Extreme Speicherdichte: IBM…

Festplatten mit dieser Technik Marktreif ca. 2045 ...

  1. Thema

Neues Thema Ansicht wechseln


  1. Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: Lala Satalin Deviluke 13.01.12 - 09:59

    ... und da speichern wir Exabytes ganz wo anders als auf magnetischen Datenträgern. Es ist ja gut, wenn die Forschen was möglich ist, jedoch sollte man die Nutzbarkeit im Auge behalten.

    Grüße vom Planeten Deviluke!

  2. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: alastor2001 13.01.12 - 10:58

    Den Abgesang auf magnetische Datenspeicher haben schon ganz andere von sich gegeben, so auch IBM und trotzdem wird damit noch gutes Geld verdient. Forschung an diesen Themen ist u.a. für Bereich wie die Spintronik extrem wichtig...

  3. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: lolwut 13.01.12 - 11:39

    alastor2001 schrieb:
    --------------------------------------------------------------------------------
    > Den Abgesang auf magnetische Datenspeicher haben schon ganz andere von sich
    > gegeben, so auch IBM und trotzdem wird damit noch gutes Geld verdient.
    > Forschung an diesen Themen ist u.a. für Bereich wie die Spintronik extrem
    > wichtig...

    Ohne Forschung kein Fortschritt. Ganz einfach. ... ich finde die Meldung faszinierend. Wer weiß, für was man diese Erkenntnisse sonst noch gebrauchen kann.

  4. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: Fotobar 13.01.12 - 13:59

    Diese Methode wird man in einigen Jahren sicherlich auch auf anderen Datenträgern nutzen können als auf HDDs.

    Selbst der / die Nachfolger der SSDs werden ja schon geplant und erforscht, da SSDs einen riesen Nachteil betreffend Lebensdauer haben. Zudem ist mit anderen Verfahren sogar noch viel mehr Lese / Schreib- Geschwindigkeit drin.

  5. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: /mecki78 13.01.12 - 14:24

    Fotobar schrieb:
    --------------------------------------------------------------------------------
    > Selbst der / die Nachfolger der SSDs werden ja schon geplant und erforscht,
    > da SSDs einen riesen Nachteil betreffend Lebensdauer haben.

    Bei Consumer Geräten ist das irrelevant. Keine "Festplatte" lebt dort heute lange genug, als dass das ein Problem wäre. Sprich: Lange bevor die Lebensdauer deiner SSD zu einem Problem wird, ist dein PC bereits Altmetall. Und selbst wenn du deinen PC in 20 Jahren noch nutzt (wovon ich mal stark nicht ausgehe), hätte auch eine klassische Festplatte sich bis dahin schon lange verabschiedet. Bei klassischen Festplatten ist zwar das "Altern" der Magnetscheiben heute kaum noch ein Problem, aber die Lager (Kugel-/Gleit-) verschleißen und irgendwann dreht die Platte gar nicht mehr hoch. Die Anzahl der max. Anlaufzyklen ist schon ab Werk beschränkt und gute Hersteller geben die auch bei ihren Platten an. Gerade wenn dein System deine Platte immer wieder "schlafen legt", verschleißen die Lager sehr schnell; aber auch im Dauerbetrieb nutzen sie sich natürlich ab. Consumer Festplatten sind auch nicht für einen "echten" Dauerbetrieb ausgelegt, denn die wenigsten Leute lassen ihren Rechner 24 h / 7 Tage die Woche laufen ohne dabei den Platten zu erlauben schlafen zu gehen, wenn länger keine Zugriffe erfolgt sind.

    Ganz anders sieht das ganze im Serverbetrieb aus, denn hier werden Platten genutzt, die zum einen deutlich mehr Anlaufzyklen verkraften (Faktor 10 bis 100!), die auch in der Regel nie schlafen gelegt werden (was die Lager schont) und wo die Lager auch für einen Dauerbetrieb ausgelegt sind (24h / 7 Tage die Woche) und daher deutlich langsamer verschleißen als bei Consumer PCs. Nur im Serverbereich spielen SSD eine sehr untergeordnete Rolle, nicht aufgrund ihrer Lebenszeit, sondern einfach weil hier gigantische Speichermengen anfallen und was das Preis-/Leistungsverhältnis in Sachen Größe angeht können SSDs nicht im Ansatz mit klassischen Festplatten mithalten. Daher ist die Lebenszeit von SSDs im Serverbereich auch irrelevant.

    Während ich also annehme, dass in den kommenden Jahren SSDs zunehmend normale Festplatten im Consumer Bereich verdrängen werden (solche werden höchstens noch als "Zweitplatte" als zusätzlicher Daten-/Backupspeicher verbaut), werden im Serverbereich auf absehbare Zeit Festplatten nicht aussterben und hier ist so eine Entdeckung natürlich Gold wert, weil sich damit in Zukunft die Kapazitäten der Festplatten um ein vielfaches Steigern lassen werden.

    > Zudem ist mit anderen Verfahren sogar noch viel mehr
    > Lese / Schreib- Geschwindigkeit drin.

    Das natürlich auch und somit ist es fraglich ob Server in Zukunft auf SSDs setzen werden. Wenn überhaupt, dann höchstens für die Bootpartition auf der das Betriebssystem selbst liegt, dass abgesehen von Updates in großen Teilen "Read-Only" ist, d.h. hier erfolgen kaum Schreibzugriffe (Logdateien und User Homes kann man ja auf die klassische Festplatte auslagern; bis auf /var, /tmp und /home kann eine Linux System Partition z.B. nur read-only gemounted sein und wird fehlerfrei laufen); und für eine Firma ist es auch tragbar diese Boot-SSD alle 2-3 Jahre durch eine neue zu ersetzen (Server herunter fahren, neue Platte einbauen, von CD booten, Inhalt von alter auf neuer spiegeln, was bei SSDs sehr schnell geht, alte Platte ausbauen und von neuer Platte booten); so was kann man im Zuge eines Betriebssystem-Updates machen, das sowieso zu einem Reboot des Servers zwingt.

    Also ich denke für den Servermarkt ist diese Entdeckung durchaus relevant, für den Consumer Markt nur bedingt, da hier höchstens die Kapazität externer USB Festplatte in Zukunft deutlich steigen wird.

    /Mecki

  6. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: Chl3B 13.01.12 - 15:32

    zu SSD: Es gibt natürlich auch in der Welt der Unternehmenslösungen nicht wenige ehrgeizige Projekte in denen Rechenzentren oder SAN Umgebungen mit hoch performantem SSD Speicher ausgerüstet werden etwa im Bereich Datenbankzugriffe oder Terminalserverbetrieb bei welchem eine Vielzahl von Benutzern die womöglich nur noch hinter ThinClients sitzen die gesamte Leistung auf der Serverstruktur abrufen.

    zu der neuen Speichertechnologie: Man muss noch einen weiteren Faktor bedenken: Der Platzbedarf. Ohne zu wissen mutmaße ich mal dass es für den gesamten Mobility Bereich sehr interessant werden könnte mit einem Bruchteil des benötigten Platzes im Gerät ein vielfaches der Speicherkapazität (im Vergleich zu heutigen Lösungen) bereitstellen zu können.

    Also Mecki hat schon recht, wenn er sagt dass man das nicht vorschnell abtun sollte als Forschung am toten Ende.

  7. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: gorsch 13.01.12 - 16:03

    SSDs sind auch bei Servern hochinteressant. Ich weiß nicht welche Anwendungsfälle du im Auge hast, aber viele Server begnügen sich mit relativ kleinen Datenmengen, welche auch nicht pausenlos geupdated werden. Tatsächlich sind IO/Festplatten-Zugriffe sehr oft das Bottleneck bei Servern, der Einsatz von SSDs kann dir also durchaus ganze Server einsparen und ist insofern preislich nicht unbedingt problematisch.

  8. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: stscon 13.01.12 - 16:03

    Lala Satalin Deviluke schrieb:
    --------------------------------------------------------------------------------
    > ... und da speichern wir Exabytes ganz wo anders als auf magnetischen
    > Datenträgern. Es ist ja gut, wenn die Forschen was möglich ist, jedoch
    > sollte man die Nutzbarkeit im Auge behalten.

    einfach mal Interessehalber: was sollen denn das für andere Techniken sein, bei denen die einzelnen Speichereinheiten kleiner als 12 Atome sind??? Sollen die Bits im Vakuum gespeichert werden??? Irgendein physisches Medium braucht jeder Speichermethode.

  9. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: /mecki78 13.01.12 - 17:29

    gorsch schrieb:
    --------------------------------------------------------------------------------
    > Ich weiß nicht welche
    > Anwendungsfälle du im Auge hast, aber viele Server begnügen sich mit
    > relativ kleinen Datenmengen, welche auch nicht pausenlos geupdated werden.

    Sagen wir mal so: Ich weiß nicht welche Anwendungsfälle du hier im Auge hast, aber einen File- oder Datenbankserver schließt das schon mal aus, sofern hier die Daten nicht statisch sind und nur einmal pro Tag oder so verändert werden.

    Und da ich keine größere Firma kenne, deren Webseite nicht zumindest in großen Teilen Datenbank basiert ist (und hier erfolgen bei weiten nicht nur Lesezugriffe, da es üblich ist User Sessions auch in dieser Datenbank festzuhalten; Cookies dienen hier höchstens als Index für die Tabelle) und wo nicht jeder HTTP Request in einem Access Log festgehalten wird, schließt das auch Webserver praktisch aus; zumindest was den Speicherort des Access Logs und den Datenbanken angeht. Die HTML, CSS und PHP Dateien ändern sich natürlich nicht so häufig, d.h. die kann man genauso wie das restliche System durchaus auf einer SSD lagern, da spricht nichts dagegen.

    Wir haben in einigen unserer Server durchaus SSDs; hauptsächlich damit die Dinger schnell restarten, wenn das mal nötig sein sollte ;-) Aber wir haben peinlich darauf geachtet, dass alle Dateien, die im laufenden Betrieb ständig beschrieben werden, nicht auf der SSD liegen. Die liegen auf anderen Partition auf einem RAID mit klassischen Festplatten, genauso wie SQL Datenbanken und ähnlich dynamischer Inhalt.

    Damit ist das ganze System auch ausfallsicherer, weil von der SSD gibt es nur regelmäßige Backups, d.h. wenn die mal den Geist aufgibt, müssen wir erst eine neue einbauen und das letzte Backup zurück spielen (das kostet enorm viel Zeit; Zeit während der der Server offline wäre). Wenn beim RAID eine Platte ausfällt, dann tauschen wir die im laufenden Betrieb sofort und ohne Datenverlust. Da müssten schon zwei Platten zeitgleich ausfallen, damit wir gezwungen wären auf ein Backup zurück zugreifen (relativ unwahrscheinlich; ist bisher noch nie passiert).

    Natürlich könnten wir unser RAID auch mit SSDs ausstatten, aber statte mal ein komplettes RAID mit SSDs mit mindestens 512 GB aus. Bei den Preis können wir uns das Ding auch gleich vergolden lassen (und das beim aktuellen Goldpreis).

    /Mecki

  10. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: Lala Satalin Deviluke 13.01.12 - 18:02

    Was nützt einem hohe Speicherdichte, wenn die Zugriffsgeschwindigkeit dann noch langsamer ist bei heutigen Festplatten?

    Es sei denn man "sucht" nicht auf einer Scheibe sondern Elektronisch auf Atomebene.

    Grüße vom Planeten Deviluke!

  11. Re: Festplatten mit dieser Technik Marktreif ca. 2045 ...

    Autor: Threat-Anzeiger 13.01.12 - 21:48

    /mecki78 schrieb:
    --------------------------------------------------------------------------------
    > gorsch schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Ich weiß nicht welche
    > > Anwendungsfälle du im Auge hast, aber viele Server begnügen sich mit
    > > relativ kleinen Datenmengen, welche auch nicht pausenlos geupdated
    > werden.
    >
    > Sagen wir mal so: Ich weiß nicht welche Anwendungsfälle du hier im Auge
    > hast, aber einen File- oder Datenbankserver schließt das schon mal aus,
    > sofern hier die Daten nicht statisch sind und nur einmal pro Tag oder so
    > verändert werden.
    >
    > Und da ich keine größere Firma kenne, deren Webseite nicht zumindest in
    > großen Teilen Datenbank basiert ist (und hier erfolgen bei weiten nicht nur
    > Lesezugriffe, da es üblich ist User Sessions auch in dieser Datenbank
    > festzuhalten; Cookies dienen hier höchstens als Index für die Tabelle) und
    > wo nicht jeder HTTP Request in einem Access Log festgehalten wird, schließt
    > das auch Webserver praktisch aus; zumindest was den Speicherort des Access
    > Logs und den Datenbanken angeht. Die HTML, CSS und PHP Dateien ändern sich
    > natürlich nicht so häufig, d.h. die kann man genauso wie das restliche
    > System durchaus auf einer SSD lagern, da spricht nichts dagegen.
    >
    > Wir haben in einigen unserer Server durchaus SSDs; hauptsächlich damit die
    > Dinger schnell restarten, wenn das mal nötig sein sollte ;-) Aber wir haben
    > peinlich darauf geachtet, dass alle Dateien, die im laufenden Betrieb
    > ständig beschrieben werden, nicht auf der SSD liegen. Die liegen auf
    > anderen Partition auf einem RAID mit klassischen Festplatten, genauso wie
    > SQL Datenbanken und ähnlich dynamischer Inhalt.
    >
    > Damit ist das ganze System auch ausfallsicherer, weil von der SSD gibt es
    > nur regelmäßige Backups, d.h. wenn die mal den Geist aufgibt, müssen wir
    > erst eine neue einbauen und das letzte Backup zurück spielen (das kostet
    > enorm viel Zeit; Zeit während der der Server offline wäre). Wenn beim RAID
    > eine Platte ausfällt, dann tauschen wir die im laufenden Betrieb sofort und
    > ohne Datenverlust. Da müssten schon zwei Platten zeitgleich ausfallen,
    > damit wir gezwungen wären auf ein Backup zurück zugreifen (relativ
    > unwahrscheinlich; ist bisher noch nie passiert).
    >
    > Natürlich könnten wir unser RAID auch mit SSDs ausstatten, aber statte mal
    > ein komplettes RAID mit SSDs mit mindestens 512 GB aus. Bei den Preis
    > können wir uns das Ding auch gleich vergolden lassen (und das beim
    > aktuellen Goldpreis).

    Einfache anwendungszwecke? Überall wo hohe IO last vorkommt. Da wären als paradebeispiele extrem grosse datenbanken, datenbanken mit hoher last, und generell dienste mit eher geringer datenbandbreite, dafür aber hoher zugriffszahl genannt.

    Beispiel A: Die Presseagentur Reuters hat eine 27TB grosse datenbank mit nachrichtenmeldungen seit 1970(und tw noch weiter in die vergangenheit zurück). diese 27TB grosse datenbank ist nicht nach heutigen konzepten konstruiert, entsprechend ineffizient ist das datenbank management. Trotzdem muss das file in kurzer zeit durchsuchbar sein.

    Dann wären da noch dienste die viel Datenbanklast haben. Twitscher, Fressenbuch und Google nur als beispiele. Bei denen gibt es viele kleine zugriffe auf die datenbank-cluster, aber insgesamt nur geringe datenmengen die transferiert werden müssen.

    Btw, überleg mal warum im serverbereich platten mit 20k umdrehungen norm sind... richtig, weil man zwar mit raid-systemen die sequentielle lese/schreibrate erhöhen kann, aber zugriffszeiten(suchzeiten) mitunter wichtiger sind, als die geschwindigkeit mti der die daten geliefert werden.

    Und genau hier sind SSDs eine lösung, da sie eben nicht diese minimallatenz haben, die mechanische datenträger immer haben werden.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. über D. Kremer Consulting, Düsseldorf
  2. Süddeutsche Krankenversicherung a.G., Fellbach bei Stuttgart
  3. ING-DiBa AG, Nürnberg
  4. PKS Software GmbH, Ravensburg, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Forza Horizon 4 - Ultimate Edition für 49,99€, ARK: Survival Evolved für 10,99€, Human...
  2. (u. a. Call of Duty: Modern Warfare für 52,49€, Forza Horizon 4 für 34,99€, Red Dead...
  3. (u. a. Conan Exiles für 12,49€, Stellaris - Galaxy Edition für 5,49€, Green Hell für 9...
  4. (aktuell u. a. Star Wars Weekend (u. a. Star Wars: Knights of the Old Republic für 1,93€), Best...


Haben wir etwas übersehen?

E-Mail an news@golem.de