1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › Microsoft: Windows-10-Juni…
  6. T…

Bitte den Artikel überarbeiten, der ist irreführend

Helft uns, die neuen Foren besser zu machen! Unsere kleine Umfrage dauert nur wenige Sekunden!
  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: gorsch 16.06.20 - 17:53

    > Windows defragmentiert keine SSDs. Wozu auch?

    Nochmal für dich: Windows defragmentiert *auch* SSDs.

    https://www.hanselman.com/blog/TheRealAndCompleteStoryDoesWindowsDefragmentYourSSD.aspx

  2. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: Potrimpo 16.06.20 - 18:22

    Noch einmal für Dich: Es gibt keine Defragmentierung. Auch in dem von Dir zitierten Artikel heißt es letztlich am Schluss "kind of defragmentation", also eine "Art" der Defragmentierung, gemeint ist hier "Garbage Collection", d.h. die Freigabe von gelöschten Speicherbereichen.

    Bei SSDs sind die Mechaniken TRIM und Garbage Collection - und eben keine Defragmentierung. Eine Defragmentierung wäre zwar begrifflich möglich, ist bei SSDs aber unnötig, da es keine mechanischen Zugriffe gibt. Deshalb gibt es unter Windows 10 für SSDs auch nicht den Begriff "Defragmentierung", sondern "Optimierung".

    Es macht schlicht keinen Sinn irgendwelche Daten auf einer SSD rumzuschieben und anzuordnen, da kein physischer Zugriff auf die SSD erfolgt.

    Lektüre für Dich: https://answers.microsoft.com/de-de/windows/forum/windows_10-hardware/windows-und-ssd-konfiguration-und-optimierung/cf3bb519-28e0-439d-b06e-f3e793b32501



    1 mal bearbeitet, zuletzt am 16.06.20 18:34 durch Potrimpo.

  3. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: nirgendwer 16.06.20 - 20:48

    MarcusK schrieb:
    --------------------------------------------------------------------------------
    > gorsch schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Die Behauptung, dass SSDs von Fragmentierung nicht betroffen seien,
    > stimmt
    > > nicht. Sogar RAM ist von Fragmentierung betroffen.
    >
    > es behauptet niemand das eine SSD nicht Fragmentiert, nur das die
    > Auswirkungen nicht relevant sind.
    > Ob sie Fragmentiert ist oder nicht, spielt nach außen hin keine Rolle.

    Prinzipiell hättest du Recht, wenn es perfekte Dateisysteme gäbe. Aber hier kommt besagter, zitierter Artikel ins Spiel:

    "Actually Scott and Vadim are both wrong. Storage Optimizer will defrag an SSD once a month if volume snapshots are enabled. This is by design and necessary due to slow volsnap copy on write performance on fragmented SSD volumes. It’s also somewhat of a misconception that fragmentation is not a problem on SSDs. If an SSD gets too fragmented you can hit maximum file fragmentation (when the metadata can’t represent any more file fragments) which will result in errors when you try to write/extend a file. Furthermore, more file fragments means more metadata to process while reading/writing a file, which can lead to slower performance. " -- https://www.hanselman.com/blog/TheRealAndCompleteStoryDoesWindowsDefragmentYourSSD.aspx

    Microsoft defragmentiert somit SSDs wohl tatsächlich. (Während es unter Linux nicht einmal bei HDDs üblich ist, btw...)

  4. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: abufrejoval 16.06.20 - 20:48

    gorsch schrieb:
    --------------------------------------------------------------------------------
    > Es gibt nichts zu korrigieren. Windows defragmentiert auch SSDs, siehe
    > hier:
    >
    > www.hanselman.com
    >
    > Die Behauptung, dass SSDs von Fragmentierung nicht betroffen seien, stimmt
    > nicht. Sogar RAM ist von Fragmentierung betroffen.
    >
    > Was man jedoch nicht tun sollte, ist eine Defragmentierungsroutine, die für
    > Festplatten gedacht ist, auf eine SSD anzuwenden.

    Wieder was dazugelernt, danke!

    Tatsächlich wäre es wohl besser, wenn sie für diese Art der Defragmentierung einen anderen Begriff gewählt hätten.

    Ich weiß außerdem nicht, ob NTFS hier gegenüber Linux-Filesystemen besonders anfällig ist, denn daß diese hier etwas vergleichbare täten, wäre mir neu.

    Es ist jedenfalls nicht mehr jene festplattenorientierte Defragmentierung, wo möglichst große Blöcke einer (größeren) Datei möglichst auf sequentielle Blocknummern verschoben werden, um die Anzahl der Seeks beim sequentiellen Zugriff zu reduzieren. Auch eine SSD liest ggf. sequentiell etwas besser als völlig zufällig verteilt, gleichzeitig sollten aber für den maximalen Durchsatz alle Chipstacks bzw. Kanäle aktiv sein.

    Wie auch immer man diese Defragmentierung auch nennen mag, sie defragmentiert weniger die SSD, als besonders neuralgische Blöcke im Filesystem. Die Innereien der SSD sind dem OS zumindest bei SATA Schnittstelle völlig verborgen.

    FusionIO bot hier eine native-API und ich meine es gäbe inzwischen auch Erweiterungen für NVMe, um OS oder gar Anwendungen etwas mehr Information und Kontrolle
    über die Flash-Chips zu geben.

    Ich glaube nicht, daß Windows hier aktuell außer beim Power-Management mehr als SATA-Abstraktionen mit NVMe nutzt, aber bei Closed Source kann man eben auch nicht einfach nachschauen.

    Mit der neuen XBox soll sich das ja alles ändern und die Abstimmung zwischen OS und NVMe ist deutlich enger. Wann und wie das bei Windows 10 durchschlägt wird man sehen, aber dort kann man dann wohl auch mit Fug und Recht von einem echten "Streamlining" der Gamedaten sprechen.

  5. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: nirgendwer 16.06.20 - 20:53

    PS: Fragmentierung ist somit alles andere als irrelevant. (Falls das in dem anderen Beitrag nicht klar genug ersichtlich war.)

    Selbst im RAM nicht, der daher durchaus ebenfalls restrukturiert wird (aka defragmentiert). Auch dort geht es um die Verwaltungsmöglichkeiten, u.a. freier Blöcke. Ohne Reorganisation kann es passieren, dass dein OS eine Speicheranforderung einer Anwendung nicht erfüllen kann, obwohl weniger RAM aktiv genutzt wird als im Rechner verbaut ist -- es somit eigentlich noch genug freien Speicher gibt.

  6. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: abufrejoval 16.06.20 - 21:01

    Sharky444 schrieb:
    --------------------------------------------------------------------------------
    > Bei einer SSD müssen mit der Zeit Sektoren eingelesen und neu beschrieben
    > werden um die Ladung zu erneuern. Wenn man das nicht macht passiert sowas
    > wie bei der Samsung 840. Die Leserate ist mit der Zeit auf 50MB/sek
    > eingebrochen, weil mehrere Leseversuche nötig waren. Heutige SSDs erneuern
    > die Blöcke nach einigen Monaten.

    Wie genau das die SSDs machen, wissen wohl nur die Ingenieure.

    Zu einem gelungenen Wear-Levelling gehört sicher, daß man tatsächlich hin und wieder mal auch Blöcke neu schreibt, obwohl logisch immer nur gelesen wurde. Die Firmware der SSDs sollte ja merken, das beim Lesen Retrys erforderlich werden bzw. die Schwellwerte für die verschiedenen MLC/TLC/QLC Pegel angepaßt werden müssen (die werden meist für jeden Erase-Block verwaltet).

    Als Betriebssystem sollte man aber da nicht weiter gehen, als regelmäßige Patrol-Reads durchzuführen, damit die Firmware eben eingreifen kann, wenn sich da Korrekturen häufen. Aktiv die Daten neu zu schreiben um entweichende Elektronen wieder nachzufüllen, wäre zu weit gegriffen.

    Ob SSDs da eine Zeitheuristik führen und wie das dann funktioniert wenn SSDs stromlos gelagert werden, hätte ich auch schon immer gern mal gewußt. Aber noch lieber zahle ich dann etwas mehr für MLC und "Pro" und beschäftige mich mit dem Geldverdienen.

  7. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: nirgendwer 16.06.20 - 21:09

    Potrimpo schrieb:
    --------------------------------------------------------------------------------
    > Noch einmal für Dich: Es gibt keine Defragmentierung. Auch in dem von Dir
    > zitierten Artikel heißt es letztlich am Schluss "kind of defragmentation",
    > also eine "Art" der Defragmentierung, gemeint ist hier "Garbage
    > Collection", d.h. die Freigabe von gelöschten Speicherbereichen.

    Nope, es ist wohl tatsächlich eine Defragmentierung. Weil Dateien in NTFS insb. bei volsnap zu stark fragmentieren, so dass die Fragmentverwaltung an ihr Limit stößt.

    Daher heißt es weiter nach deinem Teil auch: "If you disable defragmentation completely, you are taking a risk that your filesystem metadata could reach maximum fragmentation and get you potentially in trouble."

    War mir selber noch nicht bekannt, dass es so etwas gibt, insb. weil ich unter meinen genutzten Systemen nicht einmal mit HDDs defragmentiere. Aber man lernt ja nie aus...

    > Bei SSDs sind die Mechaniken TRIM und Garbage Collection - und eben keine
    > Defragmentierung. Eine Defragmentierung wäre zwar begrifflich möglich, ist
    > bei SSDs aber unnötig, da es keine mechanischen Zugriffe gibt. Deshalb gibt
    > es unter Windows 10 für SSDs auch nicht den Begriff "Defragmentierung",
    > sondern "Optimierung".
    >
    > Es macht schlicht keinen Sinn irgendwelche Daten auf einer SSD
    > rumzuschieben und anzuordnen, da kein physischer Zugriff auf die SSD
    > erfolgt.

    Doch, selbst bei RAM kann das sinnvoll sein, der von einer Fragmentierung an sich noch viel weniger Nachteile hat.

    >
    > Lektüre für Dich: answers.microsoft.com

    dito

  8. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: gorsch 16.06.20 - 23:18

    > Noch einmal für Dich: Es gibt keine Defragmentierung. Auch in dem von Dir zitierten Artikel heißt es letztlich am Schluss "kind of defragmentation", also eine "Art" der Defragmentierung, gemeint ist hier "Garbage Collection", d.h. die Freigabe von gelöschten Speicherbereichen.

    Das Problem ist Fragmentierung. Die Lösung ist Defragmentierung. Der Service, der das macht, nennt sich "defragsvc", welcher auch Festplatten defragmentiert.

    Das Ziel ist es, durch die Defragmentierung weniger Metadatenblöcke zu verbrauchen, im Gegensatz zur normalen Festplatte, wo Dateien möglichst komplett sequentiell gespeichert werden sollen. Das ist der Unterschied. Trotzdem ist es Defragmentierung.

    Mit Garbage-Collection hat das absolut garnichts zu tun.

  9. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: wurstdings 17.06.20 - 09:30

    nirgendwer schrieb:
    --------------------------------------------------------------------------------
    > Nope, es ist wohl tatsächlich eine Defragmentierung. Weil Dateien in NTFS
    > insb. bei volsnap zu stark fragmentieren, so dass die Fragmentverwaltung an
    > ihr Limit stößt.
    Hat das schonmal jemand erlebt? Kann man das Provozieren?

    Ich hätte ja einfach vor jedes Dateifragment einen kleinen Header gesetzt, der sagt, wie lang dieses Fragment ist und wo das nächste zu finden ist. Oder um es performanter zu machen eine kleine Tabelle mit Verweisen auf die Dateifragmente und eventuell weitere Tabellen.
    Damit könnten Dateien unendlich fragmentieren, ohne das es Fehler gibt. Kann mir kaum vorstellen, das NTFS so buggy ist, das es vom Benutzen kaputt gehen kann.

    Ich habe teilweise ext3 Dateisysteme über mehrere Linuxgenerationen verwendet, dann auf ext4 upgegraded und wiederum mehrere OS-Versionen lang benutzt, da wurde nie defragmentiert und die Leistung ist zumindest nicht merkbar eingebrochen. Geschweige denn, dass da ein Fehler durch Fragmentierung entstanden wäre.
    > Doch, selbst bei RAM kann das sinnvoll sein, der von einer Fragmentierung
    > an sich noch viel weniger Nachteile hat.
    Da braucht man aber nur ne ordentliche Speicherverwaltung, die immer das kleinst mögliche freie Fragment bei Speicheranforderung ausgibt und die großen Fragmente für entsprechende Anfragen zurück hält. Der zusammenhängende Speicher ist ja auch nur für bestimmte Datenstrukturen nötig, nicht fürs ganze Programm.

  10. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: nirgendwer 17.06.20 - 09:55

    wurstdings schrieb:
    --------------------------------------------------------------------------------
    > nirgendwer schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Nope, es ist wohl tatsächlich eine Defragmentierung. Weil Dateien in
    > NTFS
    > > insb. bei volsnap zu stark fragmentieren, so dass die Fragmentverwaltung
    > an
    > > ihr Limit stößt.
    > Hat das schonmal jemand erlebt? Kann man das Provozieren?
    >
    > Ich hätte ja einfach vor jedes Dateifragment einen kleinen Header gesetzt,
    > der sagt, wie lang dieses Fragment ist und wo das nächste zu finden ist.

    Dann muss für wahlfreien Zugriff die komplette Kette der möglicherweise sehr vielen Fragmente abgearbeitet werden -> Performance=0

    > Oder um es performanter zu machen eine kleine Tabelle mit Verweisen auf die
    > Dateifragmente und eventuell weitere Tabellen.

    Das ist besagtes Metadatenproblem: Wenn für eine solche Tabelle nur ein Block vorgesehen ist, weitere Tabellen wiederum nicht, ist dieser Platz arg beschränkt. Weshalb das nun bei ntfs ein Problem ist und bei ext offensichtlich nicht, weiß ich nicht, dazu kenne ich die Interna der FSs zu wenig.

    > Damit könnten Dateien unendlich fragmentieren, ohne das es Fehler gibt.
    > Kann mir kaum vorstellen, das NTFS so buggy ist, das es vom Benutzen kaputt
    > gehen kann.

    Oh, vorstellen kann ich mir da vieles! Und ja, es gibt Dateisysteme, die einfach kaputt gehen, wenn man zu viel drauf schreibt, auch außerhalb von ntfs. Btrfs hatte z.B. anfangs eine solche Problematik und ich meine jffs könnte man damit gar sogar irreperabel zerstören!? (Ich weiß nicht mehr ob es jffs(2) war, aber es war ein typisches und weit verbreitetes Embedded fs, das hiervon betroffen ist/war)

    > Ich habe teilweise ext3 Dateisysteme über mehrere Linuxgenerationen
    > verwendet, dann auf ext4 upgegraded und wiederum mehrere OS-Versionen lang
    > benutzt, da wurde nie defragmentiert und die Leistung ist zumindest nicht
    > merkbar eingebrochen. Geschweige denn, dass da ein Fehler durch
    > Fragmentierung entstanden wäre.

    dito. Wie gesagt, verstehen tue ich es auch nicht, aber es ist wohl so.

    > > Doch, selbst bei RAM kann das sinnvoll sein, der von einer
    > Fragmentierung
    > > an sich noch viel weniger Nachteile hat.
    > Da braucht man aber nur ne ordentliche Speicherverwaltung, die immer das
    > kleinst mögliche freie Fragment bei Speicheranforderung ausgibt und die
    > großen Fragmente für entsprechende Anfragen zurück hält. Der
    > zusammenhängende Speicher ist ja auch nur für bestimmte Datenstrukturen
    > nötig, nicht fürs ganze Programm.

    Das wird gemacht. Aber an Limits kann man auch so stoßen. Es ist ja nicht so, dass alle nur anfordern und nie wieder was freigeben. Dann ist der Ram mal fast voll, dann werden 1 GB in verteilten 1 MB Häppchen von diversen Prozessen freigegeben und dann fordert ein Prozess 100 MB und kann sie (ohne Reorganisation, wie auch immer die aussieht) nicht kriegen, obwohl insgesamt 1 GB frei sind...

    (auch die MMU kann da wohl nicht endlos weiter helfen)

  11. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: wurstdings 17.06.20 - 11:39

    nirgendwer schrieb:
    --------------------------------------------------------------------------------
    > Das ist besagtes Metadatenproblem: Wenn für eine solche Tabelle nur ein
    > Block vorgesehen ist, weitere Tabellen wiederum nicht, ist dieser Platz arg
    > beschränkt.
    Aber an der Stelle müsste doch jedem Entwickler auffallen, dass das zu Problemen/Fehlern führt und die Lösung ist ja auch nicht schwer:

    Frag1 Adr1 Länge1
    Frag2 Adr2 Länge2
    ...
    NextTab AdrTab

    > Weshalb das nun bei ntfs ein Problem ist und bei ext
    > offensichtlich nicht, weiß ich nicht, dazu kenne ich die Interna der FSs zu
    > wenig.
    Auch ext kann Fragmentieren, sofern nichtmehr genug freier Speicher auf dem Datenträger existiert, solange aber genug freier Speicher da ist, kann man durch geschicktes Plazieren neuer Daten und kleiner Leerräume (macht der ext Treiber automatisch) die Fragmentierung weitestgehend verhindern.
    > > Damit könnten Dateien unendlich fragmentieren, ohne das es Fehler gibt.
    > > Kann mir kaum vorstellen, das NTFS so buggy ist, das es vom Benutzen
    > kaputt
    > > gehen kann.
    >
    > Oh, vorstellen kann ich mir da vieles!
    Ja ist immerhin Microsoft von denen wir da sprechen. ;)
    > Und ja, es gibt Dateisysteme, die
    > einfach kaputt gehen, wenn man zu viel drauf schreibt, auch außerhalb von
    > ntfs. Btrfs hatte z.B. anfangs eine solche Problematik
    Das waren aber eindeutig Fehler, die dann korrigiert wurden. BTRFS ist ja immernoch nicht stabil, zumindest gab es vor einiger Zeit noch Probleme mit den Raid-Leveln.
    > dito. Wie gesagt, verstehen tue ich es auch nicht, aber es ist wohl so.
    Hm, krass. Ich werd mal etwas recherchieren, ob das mal jemand getestet/reproduziert hat. Denn bisher sind das ja nur Behauptungen auf Webseiten ohne "Beweis".
    > Das wird gemacht. Aber an Limits kann man auch so stoßen. Es ist ja nicht
    > so, dass alle nur anfordern und nie wieder was freigeben. Dann ist der Ram
    > mal fast voll, dann werden 1 GB in verteilten 1 MB Häppchen von diversen
    > Prozessen freigegeben und dann fordert ein Prozess 100 MB und kann sie
    > (ohne Reorganisation, wie auch immer die aussieht) nicht kriegen, obwohl
    > insgesamt 1 GB frei sind...
    Normalerweise bekommt man ja keinen echten zusammenhängenden Speicher sondern sogenannte Pages, die im realen Speicher beliebig fragmentiert sein können aber im virtuellen Speicher wie ein zusammenhängender Speicherbereich adressiert werden.

    Edit:
    https://de.wikipedia.org/wiki/Virtuelle_Speicherverwaltung#Speicherfragmentierung

  12. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: FreiGeistler 22.06.20 - 07:38

    Potrimpo schrieb:
    --------------------------------------------------------------------------------
    > Noch einmal für Dich: Es gibt keine Defragmentierung. Auch in dem von Dir
    > zitierten Artikel heißt es letztlich am Schluss "kind of defragmentation",
    > also eine "Art" der Defragmentierung, gemeint ist hier "Garbage
    > Collection", d.h. die Freigabe von gelöschten Speicherbereichen.
    >
    > Bei SSDs sind die Mechaniken TRIM und Garbage Collection - und eben keine
    > Defragmentierung. Eine Defragmentierung wäre zwar begrifflich möglich, ist
    > bei SSDs aber unnötig, da es keine mechanischen Zugriffe gibt. Deshalb gibt
    > es unter Windows 10 für SSDs auch nicht den Begriff "Defragmentierung",
    > sondern "Optimierung".

    Macht das dann das selbe wie fstrim unter Linux?

  13. Re: Bitte den Artikel überarbeiten, der ist irreführend

    Autor: FreiGeistler 22.06.20 - 07:57

    wurstdings schrieb:
    --------------------------------------------------------------------------------
    > nirgendwer schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Nope, es ist wohl tatsächlich eine Defragmentierung. Weil Dateien in NTFS
    > > insb. bei volsnap zu stark fragmentieren, so dass die Fragmentverwaltung an ihr Limit stößt.
    > Hat das schonmal jemand erlebt? Kann man das Provozieren?

    Vermutlich liesst das niemand mehr, aber bei meinem Vater läuft seit ~5 Jahren eine SSD, defragsvc deaktiviert (weil MS) und die HDD periodisch mit Ultradefrag.
    Typische Officeverwendung, zahllose Dateien mit um die 2MB, soweit keine Probleme.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. über Hays AG, München
  2. Bihl+Wiedemann GmbH, Mannheim
  3. Hays AG, Thüringen
  4. Lidl Digital, Neckarsulm

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Planet Zoo - Deluxe Edition für 19,49€, SnowRunner - Epic Games Store Key für 26,99€)
  2. (u. a. LG OLED77CX6LA 77 Zoll OLED für 2.899€, LG 43UP75009LF 43 Zoll LCD für 399€)
  3. (u. a. Mad Games Tycoon für 6,50€, Transport Fever 2 für 21€, Shadow Tactics: Blades of the...
  4. 759€ (Bestpreis)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme