1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › Windows 8.1: Unterstützung für…

theoretisch höhere Ausfallwahrscheinlichkeit

Anzeige
  1. Thema

Neues Thema Ansicht wechseln


  1. theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Voyager 17.08.13 - 13:32

    Womit wird das denn begründet ?
    Der Flashspeicher wird in SSHDs deutlich seltener beschrieben als auf einer SSD weil Schreiboperationen gezielt auf die Magnetplatter umgeleitet werden.
    Und sollte der Flashpuffer einmal ganz ausfallen wofür die Wahrscheinlichkeit deutlich geringer ist bleibt die Festplatte immernoch funktional , SSDs fallen in der Regel nicht durch ausgefallen Flash aus sondern durch ausgefallene Controller.

    Das sollte in der News nochmal erklärt werden wie man darauf kommt.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  2. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Suchiman 17.08.13 - 16:25

    Wenn die Daten auf dem Flash Cache ständig neu organisiert wird weil Windows für jedes Nutzungszenario den Cache neu Organisiert dann kann hier die Schreib Belastung im Gegensatz zur SSD auf der die meisten Daten nur einmal geschrieben werden und dann nur noch ausgelesen werden doch deutlich steigen.

    Die andere Frage ist natürlich OB die Festplatte einen Ausfall des Flash Speichers erkennt und diesen dann abschaltet um weiter zu Funktionieren oder ob dann die ganze Festplatte ausfällt...

    Benutzer wird von Ihnen ignoriert. Anzeigen

  3. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Voyager 17.08.13 - 17:09

    Aus welchem Grund sollte der Cache ständig neu organisiert werden , du weisst doch überhaupt nicht wie das funktioniert .
    Wenn die 6-8 GB voll sind dann sind sie voll , Änderungen gibt es überhaupt erst wieder nach Neuinstallationen.
    Dann werden auf dem Cache auch nur Daten abgelegt die mehrfach angefragt werden , zb. Systemdateien und grundlegende Nutzerdaten wie der Webbrowser Email. Das macht ungefähr die Hälfte des Caches aus und da braucht nichts ständig Neu organisiert zu werden.
    Schreiboperationen werden zum Platter durchgereicht , von daher verbleiben die Daten die vll. in wenigen Tagen organisiert wurden für längere Zeit auf dem Cache .
    Ein SSD hat keine Platter , die muss sämtliche Schreiboperationen aufnehmen.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  4. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Suchiman 17.08.13 - 17:56

    Hast du denn den Artikel gänzlich gelesen ?

    "Dank der neuen Erweiterung entscheidet nicht mehr der Laufwerks-Controller, welche Daten in den Cache kommen sollen, sondern das Betriebssystem. Das sogenannte Hinting-Protokoll gestattet es dem Betriebssystem, Informationen schon im Voraus in den Puffer zu kopieren oder Programmen direkt nach der Installation eine Priorität einzuräumen"

    Benutzer wird von Ihnen ignoriert. Anzeigen

  5. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Voyager 17.08.13 - 17:59

    Willst du damit sagen bei Seagate haben nur 3 besoffene aus der Nachtschicht die SSHD zusamm gelötet und die würde so nicht funktionieren ?

    Sorry aber das ist immernoch kein Argument für deine Behauptung .

    Benutzer wird von Ihnen ignoriert. Anzeigen

  6. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor virtual 17.08.13 - 18:14

    > Aus welchem Grund sollte der Cache ständig neu organisiert werden , du
    > weisst doch überhaupt nicht wie das funktioniert .
    > Wenn die 6-8 GB voll sind dann sind sie voll , Änderungen gibt es überhaupt
    > erst wieder nach Neuinstallationen.

    Yepp, im Grossen und Ganzen hast du da Recht, wenn auch nicht ganz.

    Ich habe das bei Readyboost lange genug via Ressourcen-Monitor u.ä. beobachtet
    Superfetch "pflegte" da durchaus auch den Cache nach den aktuellen Nutzungsgewohnheiten.
    Verwendet man z.B. ein länger nicht mehr genutztes Programm wieder öfter, wird dafür wieder Cache-Speicher eingeräumt und exe's, Dateien, dll's etc. für anderes, was dann mehr am Ende der Nutzungsstatistik rangiert, fliegt dafür raus.

    Auf jeden Fall dürtfe es um Längen intelligenter und "Flash-schonender" gelöst sein, als wenn man den Festplattencontroller sektorbasiert "raten" lässt, was gecached werden soll und was nicht.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  7. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Voyager 17.08.13 - 18:34

    Flash SSDs halten theoretisch Jahre bei normaler Nutzung mit einem OS drauf , Ausfallursachen sind üblicherweise der Controller.
    In einer SSHD wird nur das meistbenutzte in den Flash geschrieben bis er voll ist , da gibts kein Extramenü für tägliche Gewohnheiten wie bei Superfetch.
    Wenn der Flash Cache auch nur "einmal" pro Tag aktualisiert wird , dann ist die Lebensdauer der SSHD deutlich höher als bei einer SSD , die alle Schreibzugriffe aufnehmen muss.
    Von daher bleibe ich bei meinem Eingangspost das der Newsschreiber für die Ausfallwahrscheinlichkeit keinerlei Indiz anführt.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  8. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor virtual 17.08.13 - 18:56

    Zudem wird auch auf HDD-Seite der Verschleiss reduziert, weil der Cache ja vornehmlich den Lese-Zugriff auf viele kleine Dateien auf der HDD erspart, womit im Alltag deutlich weniger Kopfbewegungen der HDD notwendig sind. Auch akustisch übrigens höchst angenehm...

    Benutzer wird von Ihnen ignoriert. Anzeigen

  9. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Ach 17.08.13 - 20:13

    Wobei ich mich zudem frage, ob es mit diesen Platten so sein wird, dass die Platten nicht bei jedem Lesezugriff anlaufen(wenn die zu lesenden Daten eben im Cash liegen, was wahrscheinlich ist). Das wäre dann eine Eigenschaft, die ebenfalls ziemlich nerven-, verschleiß- sowie zeitschonend wäre, denn es gibt nicht wenige Programme die bei jedem Start erst mal über die Hälfte aller Laufwerke ansprechen müssen und auch erst nach diesen Zugriffen wieder eingabebereit sind. Selbst wenn man explizit eine SSD für seine Arbeitsprogramme pflegt, wird der schnelle Programmstart auf diese Weise immer wieder zunichte gemacht und die Hardware jedes mal ausgeleiert, vollkommen überflüssiger Weise, was mich dann ziemlich ärgert.



    2 mal bearbeitet, zuletzt am 17.08.13 20:16 durch Ach.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  10. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor tibrob 18.08.13 - 13:18

    Ach schrieb:
    --------------------------------------------------------------------------------
    > Wobei ich mich zudem frage, ob es mit diesen Platten so sein wird, dass die
    > Platten nicht bei jedem Lesezugriff anlaufen(wenn die zu lesenden Daten
    > eben im Cash liegen, was wahrscheinlich ist).

    Hast du die Festplattenaktivität bei Windows beobachtet? Es vergeht keine Sekunde, in dem Windows nicht irgendetwas liest oder schreibt. "Anlaufen" muss da nichts mehr, dafür ist a) der Cache viel zu klein und b) ist es nur ein Cache, in dem nicht der gesamte Inhalt der Festplatte geschrieben oder von diesem gelesen wird.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  11. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Ach 18.08.13 - 15:49

    Ist schon klar dass Windows unentwegt auf die Systemplatte zugreift. Als Systemplatte benutze ich allerdings eine SSD und eine weitere SSD, die ich als Programmordner gemountet habe für meine Hauptanwendungen. Meine eigentlichen Arbeitsdaten sind auf vier weiteren HDD´s verteilt.

    Diese weiteren HDD´s müssen ergo nur angesprochen werden, wenn ich eine Projektdatei öffnen will, wenn ich ein Backup machen will oder wenn ab und zu der Virenscanner drüber läuft. Ergo befinden sich diese Festplatten im normalen Windowsbetrieb fast ausnahmslos im Ruhemodus, außer ich öffne eben eine Hauptanwendung, dann wachen jedes mal alle vier Platten aus dem Ruhezustand auf, schön nacheinander, verbraucht Strom, macht Lärm und dauert, sehr ärgerlich.

    Eine Hybridplatte wünsche ich mir deshalb auch nicht als Systemplatte, sondern als Archiv- und Arbeitsdatenspeicher, und ich erhoffe mir von davon, dass die angesprochenen Programme beim Starten ihre gewünschten Daten dann aus dem Flash-Cach lesen, und zwar ohne die Mechanik anlaufen zu lassen und gut ist, das wäre dann schön. Ok?

    Benutzer wird von Ihnen ignoriert. Anzeigen

  12. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor tibrob 18.08.13 - 17:34

    Ok, diesen Einsatzzweck habe ich nicht bedacht. Ich bin eher davon ausgegangen, man verwendet Hybrid-Laufwerkt überwiegend als Systemlaufwerk - was ja prinzipiell auch nicht schlecht ist, wenn das Laufwerk den SSD-Teil selbstständig verwaltet.

    Das Problem mit den Laufwerken im Standby kenne ich zur Genüge - alles hängt teilweise für mehrere Sekunden und mit Glück schmiert der Explorer ab, wenn eine externe HDD sich entschließt, wegen Treiberproblemen? nicht mehr richtig oder erst nach Minuten aufzuwachen.

    Ich glaube aber kaum, dass die besagten Hybrid-Laufwerke in deiner gewünschten Art und Weise funktionieren. Ich habe hier eine neuere XT - und da läuft konsequent die Mechanik an - wie bei den normalen Festplatten auch.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  13. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Ach 18.08.13 - 18:28

    >Ich glaube aber kaum, dass die besagten Hybrid-Laufwerke in deiner gewünschten Art und Weise funktionieren. Ich habe hier eine neuere XT - und da läuft konsequent die Mechanik an - wie bei den normalen Festplatten auch.

    Tja, wenn die XT den Flash Speicher schon nicht unabhängig vom HD Speicher ansprechen kann, dann brauche ich mir wohl keine Hoffnungen mehr zu machen. Ich habe auch mal probiert die zweite SSD´s via Software als Cashplatte für die HDD´s zu verwenden, ebenfalls nicht erfolgreich im Sinne eines leiseren Systems.

    Dabei ist es doch so naheliegend: mechanische Fastplattenzugriffe könnten auf ein Minimum begrenzt werden, trotz riesiger und/oder vieler HDD´s. Lieber Hardwaregott erhöre mich!...

    Benutzer wird von Ihnen ignoriert. Anzeigen

  14. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor tibrob 18.08.13 - 21:01

    Die XT ist halt "nur" eine Festplatte mit SSD-Tuning, leider. Auch wenn das gehen würde, hast du das Problem, das manche Programme völlig sinnlos alle angeschlossenen Laufwerke "aufwecken" -> allen voran der Kram von Adobe.

    Im Sinne eines leiseren System verwendet ich für Daten die 2,5er WD Scorpio Blue; 5400rmp (ok, reicht aber für meine Zwecke), schön leise und mit 30-35 Grad recht kühl im Dauerbetrieb. Ab damit in eine billiges passives 5er Array, Multiplier dran, Softwareraid einrichten (Mirror + Spiegel) und bequem 20 x 2,5er 500 GB Scorpios reinstopfen. Das ganze geht ohne Lüfter, ist leise und braucht nichtmal 10 Watt im IDLE (alle Platten in Betrieb) und knapp 30-40 Watt wenn alle Platten sich gleichzeitig abrackern. Das ganze Teil inkl. Platten hat mich nichtmal 500 Euro gekostet - bei 10 TB Speicher. Datenrate liegt bei knapp 240 MB Sec; ganz ok.

    Wenn es aber nach dem Hardwaregott geht, musst du nur ein paar Jährchen warten, bis SSDs irgendwann bei den heutigen Festplattenpreisen ankommen. Wir sehen uns 2030 :)

    Benutzer wird von Ihnen ignoriert. Anzeigen

  15. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor ThorstenMUC 18.08.13 - 21:28

    Voyager schrieb:
    --------------------------------------------------------------------------------
    > Womit wird das denn begründet ?

    Ganz einfache Stochastik.

    Je nachdem, wie der Algorithmus des SSD-Speicherns arbeitet kann es vorkommen, dass Daten(-Blöcke) nur auf der Festplatte oder nur auf der SSD vorliegen.
    Sprich beim Ausfall eines der Bauteile sind die ganze verteilten Daten weg.

    Benutzer wird von Ihnen ignoriert. Anzeigen

  16. Re: theoretisch höhere Ausfallwahrscheinlichkeit

    Autor Ach 18.08.13 - 22:19

    tibrob schrieb:
    --------------------------------------------------------------------------------
    > Die XT ist halt "nur" eine Festplatte mit SSD-Tuning, leider. Auch wenn das
    > gehen würde, hast du das Problem, das manche Programme völlig sinnlos alle
    > angeschlossenen Laufwerke "aufwecken" -> allen voran der Kram von Adobe.
    und von autodesk
    > Im Sinne eines leiseren System verwendet ich für Daten die 2,5er WD Scorpio
    > Blue; 5400rmp (ok, reicht aber für meine Zwecke), schön leise und mit 30-35
    > Grad recht kühl im Dauerbetrieb. Ab damit in eine billiges passives 5er
    > Array, Multiplier dran, Softwareraid einrichten (Mirror + Spiegel) und
    > bequem 20 x 2,5er 500 GB Scorpios reinstopfen.

    Ich sehe du hast Spass an der Sache :]. Es hört sich leistungsmäßig auch ziemlich gut an, aber mir wäre das schlicht ein bisschen zu viel Gemüse.

    > Wenn es aber nach dem Hardwaregott geht, musst du nur ein paar Jährchen
    > warten, bis SSDs irgendwann bei den heutigen Festplattenpreisen ankommen.

    Ich geb die Hoffnung nicht auf, dass irgend ein Hardwarehersteller auf die Idee kommt oder schon gekommen ist und sich eine Lösung überlegt. Theoretisch und wenn ein Index auf dem Flash-Teil der Platte liegt, könnte ein System sogar booten ohne die Mechanik der Platten zu beanspruchen, oder eine USB Hybrid Platte könnte man lesen ohne dass sie anläuft. Das wäre ein ganz anderer Film so ein Rechner, zügig wie ein iPad aber mit den fetten Daten eines ausgewachsenen Desktop.

    > Wir sehen uns 2030 :)

    Noch 17 Jahre HDD´s? Erzähl doch keine solche grauenhaften Dinge :].

    Benutzer wird von Ihnen ignoriert. Anzeigen

Neues Thema Ansicht wechseln


Entschuldigung, nur registrierte Benutzer dürfen in diesem Forum schreiben. Klicken Sie hier um sich einzuloggen


Anzeige

Haben wir etwas übersehen?

E-Mail an news@golem.de


Test Infamous First Light: Neonbunter Actionspaß
Test Infamous First Light
Neonbunter Actionspaß
  1. Infamous Erweiterung First Light leuchtet Ende August 2014

Test Bioshock für iOS: Unterwasserstadt für die Hosentasche
Test Bioshock für iOS
Unterwasserstadt für die Hosentasche
  1. Unter Wasser Bioshock auf iOS-Geräten

Überschall-U-Boot: Von Schanghai nach San Francisco in 100 Minuten
Überschall-U-Boot
Von Schanghai nach San Francisco in 100 Minuten

  1. Versatel: United Internet kauft Glasfasernetz für 586 Millionen Euro
    Versatel
    United Internet kauft Glasfasernetz für 586 Millionen Euro

    United Internet (1&1) kauft das Glasfasernetz Versatel und sieht sich damit als zweitgrößter Betreiber nach der Deutschen Telekom. Nun sollen 145 Millionen Euro in den Netzausbau investiert werden.

  2. Android Wear: Google will die Smartwatch klüger machen
    Android Wear
    Google will die Smartwatch klüger machen

    Bislang benötigen Smartwatches meist die Verbindung zum Smartphone, um voll funktionstüchtig zu sein. Google kündigt nun Uhren an, die weitgehend autonom laufen sollen.

  3. Flir One: PIN-Ausspähung per Wärmesensor
    Flir One
    PIN-Ausspähung per Wärmesensor

    Mit der iPhone-Wärmebildkamera Flir One können Datendiebe offenbar spielend leicht PIN-Nummern an Geldautomaten oder Kassenterminals auslesen. Doch es gibt einen Weg, sich zu schützen.


  1. 08:21

  2. 07:29

  3. 07:12

  4. 07:00

  5. 20:11

  6. 18:30

  7. 18:28

  8. 17:37