Abo
  1. Foren
  2. Kommentare
  3. OpenSource
  4. Alle Kommentare zum Artikel
  5. › WebGPU: Apple stellt moderne 3D…

Exploits endlich direkt und hardwarenah!

Anzeige
  1. Thema

Neues Thema Ansicht wechseln


  1. Exploits endlich direkt und hardwarenah!

    Autor: Bigfoo29 08.02.17 - 18:33

    Das wurde aber auch Zeit! Die Bytecode-Umsetzung, um C-like Code direkt im Browser laufen zu lassen, braucht einfach zu lange. Lasst uns doch deswegen mit DIESEM Ansatz die Implementierungsfehler der GPU-Software DIREKT im Zugriff haben.

    Geile Idee. Woher kommt die empfehlende Firma nochmal? Aus NSA-Land? - Oh...

    Regards.

  2. Re: Exploits endlich direkt und hardwarenah!

    Autor: _Pluto1010_ 08.02.17 - 18:41

    Ich hoffe du hast Zuhause genug Alufolie auf Lager ;-)

  3. Re: Exploits endlich direkt und hardwarenah!

    Autor: Llame 08.02.17 - 19:08

    Man sollte den PC deshalb besser DIREKT ausgeschaltet lassen.

    A STRANGE GAME. THE ONLY WINNING MOVE IS NOT TO PLAY.

  4. Re: Exploits endlich direkt und hardwarenah!

    Autor: /mecki78 08.02.17 - 19:23

    Bigfoo29 schrieb:
    ---------------------------------------------------------------------------
    > Lasst uns doch deswegen mit DIESEM Ansatz die Implementierungsfehler
    > der GPU-Software DIREKT im Zugriff haben.

    Du weißt schon, dass auch WebGL bereits Shader unterstützt oder? Und du weißt schon, dass Shader kleine, C-artige Programme sind, die direkt auf der GPU laufen, oder? Also Code von einer Webseite aus auf einer CPU laufen zu lassen, das geht seit 2011. Bisschen spät sich nach 6 Jahren darüber aufzuregen, findest du nicht?

    Und dann zeigst du mir bitte mal wie Code auf einer GPU irgend einen Zugriff auf das restliche System hat. Dieser Code liegt im Speicher der GPU und nicht einmal auf den hat es freien Zugriff. Alle Daten, die dieser Code verarbeiten soll, müssen auch zuerst einmal in den Speicher der GPU geladen werden (von extern, selber laden kann der Code nichts) und dann werden diese Daten in den Code hineingefüttert, d.h. die GPU bestimmt wann der Code welche Daten erhält und welche er dann als nächstes erhält. Den einzigen Exploit, den ich mir hier vorstellen kann, ist deine GPU konstant zu 100% aufzulasten um damit den Akku leer zu machen. Und gegen diesen Exploit können sich Betriebssysteme und Browser ganz leicht schützen (so wie das heute schon der Fall ist, wenn eine Seite mit JavaScript dein System lahm legen will) und der Nutzer muss einfach nur die Seite zu machen, weil dann ist auch alles weg, was diese Seite geladen hat.

    /Mecki

  5. Re: Exploits endlich direkt und hardwarenah!

    Autor: MadMonkey 08.02.17 - 21:55

    Dir ist aber schon bewusst, das alle Geräte bis auf Gamer PC's mit dedizierter Grafikkarte das gleiche Memory für CPU und GPU verwenden? Ich meinte das gab es sogar mal ein POC der eben zeigte, dass man so leicht auf Systemdaten zugreifen kann. Und da das ganze über die GPU und nicht über die CPU passiert greifen diverse Mechanismen vom OS und von der Hardware her nicht - nichts was man auf die leichte Schulter nehmen sollte.

    MS hat dies ja damals sogar als Argument gebraucht, warum der IE kein WebGL unterstützte. Ok, kann natürlich auch nur eine Ausrede gewesen sein.

    Natürlich hast du damit recht dass gpu computing auch nichts anderes sind als Shader die schon Heute verwendet werden, allerdings: die Haupteigenschaft von Vulkan, DX12 und Metal ist ja eben auf Abstraktion zu verzichten und noch mehr Hardwarenah zu werden - was die Problematik natürlich noch verschärft. Finde ich also durchaus eine Gefahr die man nicht ignorieren sollte!

  6. Re: Exploits endlich direkt und hardwarenah!

    Autor: Sammie 08.02.17 - 23:18

    /mecki78 schrieb:
    --------------------------------------------------------------------------------
    >> Bigfoo29 schrieb:
    >> ---------------------------------------------------------------------------
    >
    > > Das wurde aber auch Zeit! Die Bytecode-Umsetzung, um C-like Code direkt im
    >> Browser laufen zu lassen, braucht einfach zu lange.
    >
    > Du weißt schon, dass auch WebGL bereits Shader unterstützt oder? Und du
    > weißt schon, dass Shader kleine, C-artige Programme sind, die direkt auf
    > der GPU laufen, oder?

    Glaub der Thread-Ersteller spielte da mehr auf die kommenden WebAssemblys an.


    MadMonkey schrieb:
    --------------------------------------------------------------------------------
    > Dir ist aber schon bewusst, das alle Geräte bis auf Gamer PC's mit
    > dedizierter Grafikkarte das gleiche Memory für CPU und GPU verwenden?

    Ja, mobile Geräte nutzen den gleichen Speicher, ist aber wohl kein Sicherheitsrisiko (mehr), da nach anfänglichen Exploits der Speicherbereich in den nicht-experimentellen Versionen von WebGL vorher immer genullt wurde - auf leichte Kosten der Performance. Die früheren Exploits haben es erlaubt (teilweise) Fragmente von Screenshots auszulesen. Nach der finalen Version von WebGL war das aber durch das vorherige Überschreiben der Speicherbereiche nicht mehr möglich.

  7. Re: Exploits endlich direkt und hardwarenah!

    Autor: /mecki78 09.02.17 - 13:50

    Sammie schrieb:
    --------------------------------------------------------------------------------
    > Glaub der Thread-Ersteller spielte da mehr auf die kommenden
    > WebAssemblys an.

    Auch. Dieser Satz bezog sich auf WebAssembler:
    >>> Die Bytecode-Umsetzung, um C-like Code direkt im Browser
    >>> laufen zu lassen, braucht einfach zu lange.


    Aber dieser Satz bezog sich konkret auf WebGPU:
    >>> Lasst uns doch deswegen mit DIESEM Ansatz die
    >>> Implementierungsfehler der GPU-Software DIREKT im Zugriff haben.


    Und ich bezog mich wiederum auf diesen Satz, denn das was da steht, das geht heute schon mit WebGL.

    /Mecki

  8. Re: Exploits endlich direkt und hardwarenah!

    Autor: /mecki78 09.02.17 - 14:03

    MadMonkey schrieb:
    --------------------------------------------------------------------------------
    > Dir ist aber schon bewusst, das alle Geräte bis auf Gamer PC's mit
    > dedizierter Grafikkarte das gleiche Memory für CPU und GPU verwenden?

    Den Selben, nicht den Gleichen.
    Es sind die selben physikalischen Speicherchips, aber virtuell ist es nicht der "gleiche" Speicher. Deine Userspace Apps nutzten auch den selben Speicher wie dein Systemkern... und können sie deswegen die Werte deines Systemkerns auslesen? Ich hoffe mal nicht.

    Natürlich können Schutzmechanismen auch Löcher haben, aber das gilt genauso für jede JavaScript Implementierung im Browser und wenn die ein Loch hat, dann kann JavaScript so ziemlich alles machen (auf Dateien zugreifen, auf das Netzwerk zugreifen, usw.), sobald es sich aus der Sandbox befreit hat. GPU Code hat aber nach wie vor nur Zugriff auf GPU Speicher und kommt nach wie vor nicht an das restliche System. Wenn überhaupt, kann er also bei einem Fehler nur etwas aus dem GPU Speicher auslesen, aber er kann ja nicht bestimmen, was dort im Speicher liegen soll, er kann also höchstens das auslesen, was dort freundlicher Weise vom System für ihn abgelegt wurde und was das ist, das kontrolliert das System.

    Und über IOMMU, was z.B. Intel CPUs schon lange beherrschen, kann das System sogar genau steuern worauf eine GPU überhaupt Zugriff haben kann (auf Hardware-Level, da kann sich GPU Code nicht drum herum hacken). Das die IOMMU soweit ich weiß von keinem System derzeit verwendet wird (glaube weder Windows, noch macOS oder Linux nutzen die), das ist ein reines Versagen der Systemhersteller. Alle Exploits über Ports (USB, Thunderbolt, FireWire, usw.) wären nämlich gar nicht möglich, wenn die Systeme mal die IOMMU nutzen würden und genau deswegen gibt es die überhaupt in der CPU, um solche Exploits zu verhindern.

    /Mecki

  9. Re: Exploits endlich direkt und hardwarenah!

    Autor: Bigfoo29 10.02.17 - 17:26

    War und ist zugegeben bewusst etwas überspitzt formuliert, aber der Grundgedanke bleibt. Man holt sich damit einfach zusätzliche Sicherheitslücken ins Haus, die man vermeiden kann.

    Regards.

    PS: Aluhüte sind für DIE Strahlungswellenlängen, die für das Gehirn funktionieren würden, sogar besonders geeignet, diese um den Kopf herum zu verstärken... ]:>

  10. Re: Exploits endlich direkt und hardwarenah!

    Autor: Bigfoo29 10.02.17 - 17:32

    Ich antworte mal auf der Ebene...

    Ich stimme Deiner Argumentation durchaus zu. Besser macht es das, dass das seit Jahren ja schon so geht, allerdings auch nicht.

    Hinzu kommt, dass die Shader sowie GPGPU-Computing bei weitem nicht die gleichen Level an - theoretisch - extra gehärteter Software für Programmausführungen haben, als Betriebssystem-CPUs. Selbst Virtualisierung "kommt" jetzt erst so langsam.

    Letztlich muss ich allerdings zugeben, dass ich eher im CPU-Bereich unterwegs bin und für GPU-Themen leider etwas mehr das "Stammtisch-Niveau" heranziehen muss.

    Ich denke aber, wir können uns einigen, dass insbesondere eine neue, zusätzliche Schnittstelle, die nicht explizit dafür geschaffen wurde, eine SICHERE(re) Implementierung bestehender Lösungen zu sein, keinen sicherheitstechnischen Mehrwert liefert sondern das Risiko von Fehl-Implementierungen lediglich noch erhöht?

    Regards.

  11. Re: Exploits endlich direkt und hardwarenah!

    Autor: /mecki78 14.02.17 - 15:28

    Bigfoo29 schrieb:
    --------------------------------------------------------------------------------
    > Ich stimme Deiner Argumentation durchaus zu. Besser macht es das, dass das
    > seit Jahren ja schon so geht, allerdings auch nicht.

    Doch, da es zeigt: so gravierend kann das Problem nicht sein, weil sonst wären wir schon lange alle davon betroffen. Und es ist nicht davon auszugehen das eine neuere Implementierung weniger sicher sein wird als die bisherigen, es ist eher vom Gegenteil aus zugehen, da man heute Sicherheit immer auf Platz 1 setzt, während es früher nicht einmal Top 3 war, sofern man sich überhaupt Gedanken dazu gemacht hatte.

    > Hinzu kommt, dass die Shader sowie GPGPU-Computing bei weitem nicht die
    > gleichen Level an - theoretisch - extra gehärteter Software für
    > Programmausführungen haben, als Betriebssystem-CPUs.

    Brauchen sie auch nicht, da jeder Rechner heute über geeignete Hardware verfügt und Hardware hier immer besser ist als Software. Jede halbwegs aktuelle CPU hat eine IOMMU an Bord, mit der sie die GPU aber auch andere Chips, Karten, Schnittstellen, etc. komplett vom System abschirmen kann unter der vollen Kontrolle der Betriebssystems. AMD verbaut die bereits seit 2009 in ihren 64-bit CPUs, Intel in ersten CPUs seit 2010, seit 2014 auf so ziemlich allen CPUs außer auf einigen Atoms und manchen Celerons.

    Die große Frage ist, welches OS nutzt die IOMMU? Und die Antwort ist: AFAIK bis heute keines. Aber da können weder die CPU Hersteller was dafür, noch die GPU Hersteller. Beide können ja die Betriebssystemhersteller schlecht dazu zwingen das zu nutzen.

    Kein einziger Exploit bei dem Angreifer das System über einen Firewire oder Thunderbolt Port gehackt haben wäre z.B. möglich gewesen, wenn das System die IOMMU nutzen würde, weil die kannst du von dort aus nicht hacken, aber die bestimmt worauf Hardware, die man in diese Schnittstellen steckt, Zugriff im System hat.

    Das Problem ist lange bekannt und, besser noch, schon lange gelöst. Jetzt müsste man nur noch von der Lösung Gebrauch machen. Das Microsoft und Apple hier der Zeit hinterher hinken, naja, das überrascht jetzt gar nicht so sehr, aber das sogar Linux hier passen muss, das enttäuscht irgendwie.

    Ich will übrigens nicht sagen, dass niemand die IOMMU nutzt, das stimmt so nicht ganz. Diverse EFI BIOS Implementierung nutzten die sehr wohl während des Boots bzw. während das System aus dem Schlaf aufwacht (so hat Apple eines der Exploits ausgehebelt), aber sobald sie die Kontrolle quasi an das Betriebssystem übergeben, müssen sie natürlich wieder jeglichen Zugriff erlauben. Auch VM Software nutzt die manchmal um dem System in der VM quasi möglichst echten Zugriff auf Hardware zu geben (einfach aus Performancegründen) und dabei zu verhindern, dass sich Software dann über diesen Zugriff irgendwie aus der VM befreien kann.

    Aber rein theoretisch könnte das Betriebssystem die auch für sich selber nutzten. Alles was dazu nötig ist sind drei Dinge: Die IOMMU einschalten und erst einmal alle Zugriffe blockieren. Eine API anbieten über die Treiber bestimmte Zugriffe temporär erlauben können. Treiber, die diese API dann auch nutzen. Das würde die Sicherheit aktueller Systeme massiv steigern.

    Und bevor jemand fragt, natürlich, auch in der IOMMU kann es Fehler geben, keine Frage, aber genauso gut könnte es einen Fehler in der MMU geben und wenn es den gibt, dann ist alles verloren, weil mit einem Fehler in der MMU kann sich kein System mehr effektiv vor irgend etwas schützen. Das ist dann wie Tag der offenen Tür. Bis heute habe ich aber noch nie davon gehört, dass es mal eine CPU mit fehlerhafter MMU gab, was nicht heißt, dass es das noch nie gab.

    /Mecki

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Anzeige
Stellenmarkt
  1. Bechtle Clouds GmbH, Frankfurt am Main
  2. Melitta Professional Coffee Solutions GmbH & Co. KG, Minden-Dützen
  3. über Duerenhoff GmbH, Raum Braunschweig
  4. über Duerenhoff GmbH, Raum Offenbach

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. (-10%) 89,99€
  2. (-63%) 14,99€
  3. (-10%) 35,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Smartphoneversicherungen im Überblick: Teuer und meistens überflüssig
Smartphoneversicherungen im Überblick
Teuer und meistens überflüssig
  1. Winphone 5.0 Trekstor will es nochmal mit Windows 10 Mobile versuchen
  2. Librem 5 Das freie Linux-Smartphone ist finanziert
  3. Aquaris-V- und U2-Reihe BQ stellt neue Smartphones ab 180 Euro vor

Erneuerbare Energien: Siemens leitet die neue Steinzeit ein
Erneuerbare Energien
Siemens leitet die neue Steinzeit ein
  1. Siemens und Schunk Akkufahrzeuge werden mit 600 bis 1.000 Kilowatt aufgeladen
  2. Parkplatz-Erkennung Bosch und Siemens scheitern mit Pilotprojekten

Cubesats: Startup steuert riesigen Satellitenschwarm von Berlin aus
Cubesats
Startup steuert riesigen Satellitenschwarm von Berlin aus
  1. Arkyd-6 Planetary Resources startet bald ein neues Weltraumteleskop
  2. SAEx Internet-Seekabel für Südatlantikinsel St. Helena
  3. Sputnik Piep, piep, kleiner Satellit

  1. Smartphones: Huawei installiert ungefragt Zusatz-App
    Smartphones
    Huawei installiert ungefragt Zusatz-App

    Huawei hat ungefragt eine Zusatz-App auf eine Reihe von Smartphones installiert. Mit dabei waren verschiedene Huawei-Smartphones, aber auch einige Honor-Modelle. Die App-Installation soll auf einen internen Fehler bei Huawei zurückzuführen sein.

  2. Android 8.0: Oreo-Update für Oneplus Three und 3T ist da
    Android 8.0
    Oreo-Update für Oneplus Three und 3T ist da

    Oneplus hat Android 8.0 alias Oreo für das Three und das 3T veröffentlicht. Damit ist Oneplus ganz vorn mit dabei, wenn es um Updates auf Oreo geht. Weitere Oneplus-Smartphones sollen das Update im nächsten Jahr bekommen.

  3. Musikstreaming: Amazon Music für Android unterstützt Google Cast
    Musikstreaming
    Amazon Music für Android unterstützt Google Cast

    Google und Amazon nähern sich weiter an. Die Amazon-Music-App für Android unterstützt offiziell Googles Cast-Technik, um Musik vom Smartphone oder Tablet etwa auf einen Chromecast zu übertragen - allerdings nicht uneingeschränkt.


  1. 11:55

  2. 11:21

  3. 10:43

  4. 17:14

  5. 13:36

  6. 12:22

  7. 10:48

  8. 09:02