1. Foren
  2. Kommentare
  3. OpenSource
  4. Alle Kommentare zum Artikel
  5. › Docker auf dem Raspberry Pi mit…

Vorteile?

  1. Thema

Neues Thema Ansicht wechseln


  1. Vorteile?

    Autor: ManInTheMiddle 02.11.17 - 15:03

    "Webserver gehören traditionell zu jenen Applikationen, die Nutzer auf herkömmlichen Maschinen zunächst aufwendig installieren und konfigurieren müssen."

    In Rasbian oder arch arm genügt ein Befehl und ich habe einen apache (z.B.) , der in der Standardkonfiguration bestimmt mehr oder genauso viel kann, wie dieses busybox-httpd-Image. Falls ich ein komplizierteres Setup brauche, muss ich mich halt einarbeiten und "aufwendig" konfigurieren.

    Was mach ich, wenn es kein Docker-Image gibt, was meinem Setup entspricht? Mich einarbeiten, aufwendig" konfigurieren und ein eigenes Docker_image erstellen?

    Und das hier überzeugt mich auch nicht besonders :-) :

    docker run --rm --cap-add SYS_RAWIO --device /dev/mem hypriot/rpi-gpio readall

  2. Re: Vorteile?

    Autor: M.P. 02.11.17 - 15:28

    Naja, für EINEN Webserver mag das ja noch angehen, aber wenn es jetzt ein Apache, ein nginx und ein node.js Webserver sein soll, muss man bei einem regulären Installation schon bei Tests alternative Ports verwenden ...

    Ganz zu schweigen davon, dass man sich bei vielen Anwendungen auch wie im Artikel beschrieben einen Wolf konfiguriert, oder in eine Bibliotheks-Abhängigkeits-Hölle gerät ...

  3. Re: Vorteile?

    Autor: 0xDEADC0DE 02.11.17 - 16:22

    M.P. schrieb:
    --------------------------------------------------------------------------------
    > Ganz zu schweigen davon, dass man sich bei vielen Anwendungen auch wie im
    > Artikel beschrieben einen Wolf konfiguriert, oder in eine
    > Bibliotheks-Abhängigkeits-Hölle gerät ...

    Muss so was eigentlich noch bei modernen Betriebssystemen sein? Wenn ich mein NAS (Synology) erstmals in Betrieb nehme und einrichte ist das zwar auch ein klein wenig mühsam, aber dann doch ein Kinderspiel im Vergleich zu diesem Linux-Frickel-Shell-Sessions. Sind Linux-Admins so Tastatur-geil und Linux-SW-Entwickler so verblendet das nicht endlich mal zu verbessern?

  4. Re: Vorteile?

    Autor: sniner 02.11.17 - 16:28

    M.P. schrieb:
    --------------------------------------------------------------------------------
    > Ganz zu schweigen davon, dass man sich bei vielen Anwendungen auch wie im
    > Artikel beschrieben einen Wolf konfiguriert, oder in eine
    > Bibliotheks-Abhängigkeits-Hölle gerät ...

    Hm ... Abhängigkeitshölle? Kenne ich nur von RPM :-) Oder wenn man mit dem großen Hammer fremde Pakete reindengelt. Ehrlich, sowas ist mir seit SuSE 9.x nie mehr begegnet - damals bin ich dann allerdings auf Debian gewechselt :-P

    Und bitte quantifizieren Sie bitte "viele", wenn Sie schreiben, dass man sich bei der Installation einen Wolf konfiguriert. Manche Setups sind tatsächlich komplex, aber ein Docker-Image hilft hier nur sehr bedingt, denn das kommt zwar (oft) komplett vorkonfiguriert daher, aber man hat dann auch wenig Eingriffsmöglichkeiten - außer man baut sich das Dockerfile wieder selbst.

    Container im privaten Bereich - und darum geht es beim Raspi ja eher - sind imho deswegen interessant, weil man sich für ein Setup einmal Gedanken macht, das dann in ein Dockerfile einfließen lässt, und wenn die SD-Karte mal wieder den Bach runter ist, muß man nicht wieder bei Null anfangen, sondern baut den Container schnell neu. So jedenfalls setze ich Docker bei mir zuhause ein.

  5. Re: Vorteile?

    Autor: sniner 02.11.17 - 16:35

    0xDEADC0DE schrieb:
    --------------------------------------------------------------------------------
    > Sind Linux-Admins so Tastatur-geil und
    > Linux-SW-Entwickler so verblendet das nicht endlich mal zu verbessern?

    Ehrlich gesagt, ich würde den Scheiß in die Tonne treten, wenn es sich nur per Web-UI konfigurieren lässt. Das Mäuschchen-schieb-und-klick-Spiel ist für Anfänger prima, aber es läßt sich a) schlecht dokumentieren (außer in Form von x Screenshots), b) die Konfiguration lässt sich nicht versionieren (und diffen) und c) automatisieren schon gar nicht, außer neben der Web-UI gibts auch noch eine REST-API, aber dann ist man sowieso wieder abseits der Maus-Pfade.

    Interessant in diesem Zusammenhang ist, dass Microsoft sich seit einem Jahrzehnt abmüht, die GUI-Lastigkeit ihres Server-OS endlich abzubauen. Haben sie inzwischen ja recht gut geschafft und man kann inzwischen die GUI komplett weglassen.

  6. Re: Vorteile?

    Autor: 486dx4-160 02.11.17 - 17:15

    Docker/Snapper/...-Images haben dann einen Vorteil, wenn sich die gewünschte Anwendung aus vielen Programmen plus Konfiguration zusammensetzt. Z.B. Apache, Tomcat, PHP, MariaDB und OpenLDAP. Natürlich könnte die Anwendung die entsprechenden Konfigurationsdateien mitbringen, die erforderlich sind um den ganzen Krempel zu verzahnen, aber das knirscht häufig (Distribution aktualisiert schneller als die Softwarefirma) und ist mühsam.

    Problem an der Sache ist, dass diese Container eigentlich immer veraltete Software mitbringen, Anpassungen grausam sind und man immer hoffen muss, dass der Containerbauer auf dem Laufenden ist, nie Urlaub macht und nichts übersieht. Wenn man die Sache ernst nimmt ist man am laufenden Band am Container-Analysieren und Selberbauen. Da ist die Vorgendsweise von ganz oben entspannter.
    Wenn einem Sicherheit eher egal ist, man keine Einwände gegen Black Boxes hat und auch nichts anpassen will, dann sind Container super.

    Wenn ich eine Softwarefirma hätte würde ich meine Software nur noch als Container ausliefern. Spart eine Menge Support, weil man eine definierte und selbsterstellte Umgebung hat und nicht das übliche Kundenchaos aus alter Software, bizarrer Systemstruktur und dubiosen Konfigurationen, weil der Admin beim Kunden das eigentlich nur widerwillig nebenher macht und sonst mehr auf Windows steht, unter dem die Software dann irgendwie zum Laufen gebracht werden soll.

  7. Re: Vorteile?

    Autor: M.P. 02.11.17 - 17:16

    sniner schrieb:
    > und wenn die SD-Karte
    > mal wieder den Bach runter ist, muß man nicht wieder bei Null anfangen,
    > sondern baut den Container schnell neu. So jedenfalls setze ich Docker bei
    > mir zuhause ein.

    Das schwebt mir auch vor, und ist der Grund, über Docker nachzudenken. Meine Bedenken sind aber, ob man sein Schäflein = Docker-Container auch schnell und ohne Datenverlust wieder ans Laufen bekommt, wenn man den Unterbau - sprich Hypriot OS updatet.

    Ich habe zu Hause eine Dockstar mit altem Debian-Linux Samba-Share und Owncloud-Server für Kalender. Alles ziemlich veraltet. Ich würde ja gerne ein Update machen, aber wenn die Kalendereinträge meiner Frau danach weg sind, hängt der Haussegen gehörig schief ... und ich weiß noch, wie mühselig die erste Owncloud-Installation war ...

    Wenn ich durch Verwendung von Docker-Containern nicht alles einfacher auf einen aktuellen Release-Stand mit allen Sicherheitspatches halten kann, als bei einer normalen Installation der Anwendungen auf einem Linux Server, kann ich das mit den Docker-Containern auch eigentlich lassen...

  8. Re: Vorteile?

    Autor: SchrubbelDrubbel 02.11.17 - 17:24

    Docker ist nur eine Hype. Die Technik dazu ist schon seit 10 Jahren im Linux-Kernel.
    Dass das jetzt so in den Markt gedrückt wird, hat keine technischen Gründe. Hier gehts nur ums schnelle Geld. Das ist die jährliche Sau, die durch die IT-Landschaft getrieben wird. Die Branche braucht das...

  9. Re: Vorteile?

    Autor: Geistesgegenwart 02.11.17 - 17:48

    M.P. schrieb:
    --------------------------------------------------------------------------------
    > Wenn ich durch Verwendung von Docker-Containern nicht alles einfacher auf
    > einen aktuellen Release-Stand mit allen Sicherheitspatches halten kann, als
    > bei einer normalen Installation der Anwendungen auf einem Linux Server,
    > kann ich das mit den Docker-Containern auch eigentlich lassen...

    Kannst du doch, wenn du ein Image z.B. auf Ubuntu basierst schreibst du ganz oben einfach ein "RUN apt-get update && apt-get upgrade -y" in dein Dockerfile und jedesmal wenn du das image neu baust hast du ein aktuelles system. Und wenn du apt-get update && apt-get upgrade über einen cron-service periodisch im container hast, ist das auch immer auf dem aktuellen stand.

    Im prinzip kannst du, basierend auf dem Dockerfile mit 2 befehlen ein Image neu bauen (mit allen updates) und dann starten:

    # In Arbeitsverzeichnis wechseln
    cd path-to-my-directory-with-dockerfile

    # Image neu bauen
    docker build -t my-image-name ./

    # Image starten (=container erzeugen)
    docker run my-image-name

    Wenn ich an den Aufwand denke den ich betreiben muss um aus einem Ubuntu ein Image für Virtualbox oder VMWare zu erzeugen ist die Docker Lösung zig mal einfacher.

  10. Re: Vorteile?

    Autor: M.P. 02.11.17 - 18:20

    Szenario: Der Owncloud/NextCloud Container und die von NextCloud genutzte Datenbank in einem weiteren Container bekommen ein Update.

    Sind danach die Daten und Einstellungen noch vorhanden, oder bekommt man eine leere Datenbank präsentiert?

    Das Mühsame ist ja häufig nicht, ein Update durchzuführen, das nachher funktioniert.
    Das Mühsame ist es, den Datenbestand der alten Version in der neuen Version zugreifbar zu machen....

  11. Re: Vorteile?

    Autor: dschu 02.11.17 - 18:24

    Container sind non-persistent. Heisst du solltest ein Volume an den Container hängen in das du schreibst.

  12. Re: Vorteile?

    Autor: Geistesgegenwart 02.11.17 - 18:39

    M.P. schrieb:
    --------------------------------------------------------------------------------
    > Szenario: Der Owncloud/NextCloud Container und die von NextCloud genutzte
    > Datenbank in einem weiteren Container bekommen ein Update.
    >
    > Sind danach die Daten und Einstellungen noch vorhanden, oder bekommt man
    > eine leere Datenbank präsentiert?
    >
    > Das Mühsame ist ja häufig nicht, ein Update durchzuführen, das nachher
    > funktioniert.
    > Das Mühsame ist es, den Datenbestand der alten Version in der neuen Version
    > zugreifbar zu machen....

    Das hat aber nicht mit Docker oder allgemein virtuellen Maschinen zu tun; wenn das DB Update einer Anwendung nicht rückkompatibel bzw. es dafür keine Migration gibt, fängst du mit einer leeren DB an.

    Wenn ein Programm A über eine API mit Programm B spricht, und B aber durch ein Versionsupdate nicht mehr kompatibel zu A ist, hilft dir dabei weder Docker noch Xen noch VirtualBox.

    Virtualisierungslösungen können nicht Programmkompatibiltät zwischen Versionen einer Anwendung garantieren.

  13. Re: Vorteile?

    Autor: 486dx4-160 02.11.17 - 19:32

    Geistesgegenwart schrieb:
    --------------------------------------------------------------------------------
    > M.P. schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Wenn ich durch Verwendung von Docker-Containern nicht alles einfacher
    > auf
    > > einen aktuellen Release-Stand mit allen Sicherheitspatches halten kann,
    > als
    > > bei einer normalen Installation der Anwendungen auf einem Linux Server,
    > > kann ich das mit den Docker-Containern auch eigentlich lassen...
    >
    > Kannst du doch, wenn du ein Image z.B. auf Ubuntu basierst schreibst du
    > ganz oben einfach ein "RUN apt-get update && apt-get upgrade -y" in dein
    > Dockerfile und jedesmal wenn du das image neu baust hast du ein aktuelles
    > system. Und wenn du apt-get update && apt-get upgrade über einen
    > cron-service periodisch im container hast, ist das auch immer auf dem
    > aktuellen stand.
    >
    > Im prinzip kannst du, basierend auf dem Dockerfile mit 2 befehlen ein Image
    > neu bauen (mit allen updates) und dann starten:
    >
    > # In Arbeitsverzeichnis wechseln
    > cd path-to-my-directory-with-dockerfile
    >
    > # Image neu bauen
    > docker build -t my-image-name ./
    >
    > # Image starten (=container erzeugen)
    > docker run my-image-name
    >
    > Wenn ich an den Aufwand denke den ich betreiben muss um aus einem Ubuntu
    > ein Image für Virtualbox oder VMWare zu erzeugen ist die Docker Lösung zig
    > mal einfacher.

    Ich hoffe du arbeitest nicht wirklich so und ich will auch nicht wissen warum du es nicht schaffst, ein Linux-Image zu kopieren, aber komm bitte nie auf die "gute" Idee, cron-apt im Autopilot-Modus zu betreiben. In deiner Aufzählung wäre das nämlich der nächste Schritt :(

  14. Re: Vorteile?

    Autor: Geistesgegenwart 02.11.17 - 20:38

    486dx4-160 schrieb:
    --------------------------------------------------------------------------------
    > Ich hoffe du arbeitest nicht wirklich so und ich will auch nicht wissen
    > warum du es nicht schaffst, ein Linux-Image zu kopieren, aber komm bitte
    > nie auf die "gute" Idee, cron-apt im Autopilot-Modus zu betreiben. In
    > deiner Aufzählung wäre das nämlich der nächste Schritt :(

    Das kommt immer drauf an für was du die Images einsetzt. Ich betreibe damit hauptsächlich Devops, und ein Container ist nur eine kurzlebige Instanz eines "jungfäulichen" Ubuntu, welches beim Start diverse git repos auscheckt (verschiedene Softwaremodule), alles kompiliert, sich gegenseitig untereinander verlinkt um zu checken das alles zu einem großen Ganzen übersetzt, die Tests ausführt und dann wieder stirbt. Da Docker mit Snapshots arbeitet ist das aufsetzen des nackten Linux mit den aktuellen Sourcen und anschliessenden ausführen des Testskripts in wenigen Minuten passiert.

    Und da wie gesagt das eigentliche Linuxsystem ein Snapshot-point ist, kannst du verschiedene Images (!= Container) erzeugen die alle auf dem gleichen System basieren, aber sich nur in ein paar unterschiedlichen Config Dateien unterscheiden. So hast du mal eben 10-20 Images die du alle einzeln ausführen kannst, aber jedes Images ist nur ein paar Megabyte groß, da es nur ein FS Overlay von dem Basissystem ist.

    Und wenn ein Kollege das gleiche bei sich ausführen will, kopier ich keine Gigabyte großen Images sondern das 2kb große Dockerfile und das ebenfalls 2kb große Shellskript (eigentlich kopieren wir gar nix weil das Dockerfile+Skript in einem git repo liegt). Das ist genug um auf einem anderen Rechner das gleiche Setup durchlaufen zu lassen.

  15. Re: Vorteile?

    Autor: cnMeier 03.11.17 - 10:52

    Ja, die Technik hinter Docker ist nicht neu, die Tools die es jetzt dafür gibt jedoch schon.

    Jeder der früher, oder sogar noch vor Kurzem Server händisch aufgesetzt hat, weiß dass man einen Webserver eben nicht mit einem 'apt install apache2' erledigt hat, sondern dass man im Anschluss alles konfigurieren und zusätzliche Module und Apps installieren muss, um glücklich zu werden.

    Man muss meist eine DB aufsetzen, User einrichten, Berechtigungen ändern, Ports schließen und weiterleiten usw.....

    Für eine Doku + Versionierung ist IMHO sowas wie Ansible weitaus geeigneter, aber auch hiermit kann man Docker Container starten, was sich in Fällen anbietet wo man im laufenden Betrieb einzelne "Module" austauschen möchte.

    Das manuelle Gefrickel ist endlich vorbei und jeder Admin der das ignoriert, ist hoffentlich bald arbeitslos.

  16. Re: Vorteile?

    Autor: 0xDEADC0DE 03.11.17 - 10:58

    sniner schrieb:
    --------------------------------------------------------------------------------
    > Ehrlich gesagt, ich würde den Scheiß in die Tonne treten, wenn es sich nur
    > per Web-UI konfigurieren lässt. Das Mäuschchen-schieb-und-klick-Spiel ist
    > für Anfänger prima, aber es läßt sich a) schlecht dokumentieren (außer in
    > Form von x Screenshots), b) die Konfiguration lässt sich nicht versionieren
    > (und diffen) und c) automatisieren schon gar nicht, außer neben der Web-UI
    > gibts auch noch eine REST-API, aber dann ist man sowieso wieder abseits der
    > Maus-Pfade.

    Du scheinst davon keine Ahnung zu haben. Settings kann man selbstverständlich sichern und dann auch gesondert ablegen. Diffs und Versionierung bekommt man dann auch hin.

    Zumal Vertipper in Shell auch katastrophale Folgen haben können.

  17. Re: Vorteile?

    Autor: FreiGeistler 03.11.17 - 17:52

    ManInTheMiddle schrieb:
    --------------------------------------------------------------------------------
    > "Webserver gehören traditionell zu jenen Applikationen, die Nutzer auf
    > herkömmlichen Maschinen zunächst aufwendig installieren und konfigurieren
    > müssen."
    >
    > In Rasbian oder arch arm genügt ein Befehl und ich habe einen apache (z.B.)
    > , der in der Standardkonfiguration bestimmt mehr oder genauso viel kann,
    > wie dieses busybox-httpd-Image. Falls ich ein komplizierteres Setup
    > brauche, muss ich mich halt einarbeiten und "aufwendig" konfigurieren.
    >
    Du hast auf so ziemlich jeder Linux Distro Python, awk oder Busybox vorinstalliert. Sogar cat kann man als Webserver nutzen.

    Und nginx und lighttpd sind anspruchsloser an Ressourcen, Konfiguration und Wartung als Apache.

  18. Re: Vorteile?

    Autor: FreiGeistler 03.11.17 - 18:12

    0xDEADC0DE schrieb:
    --------------------------------------------------------------------------------
    > M.P. schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Ganz zu schweigen davon, dass man sich bei vielen Anwendungen auch wie im Artikel beschrieben einen Wolf konfiguriert, oder in eine Bibliotheks-Abhängigkeits-Hölle gerät ...
    >
    > Muss so was eigentlich noch bei modernen Betriebssystemen sein? Wenn ich
    > mein NAS (Synology) erstmals in Betrieb nehme und einrichte ist das zwar
    > auch ein klein wenig mühsam, aber dann doch ein Kinderspiel im Vergleich zu
    > diesem Linux-Frickel-Shell-Sessions. Sind Linux-Admins so Tastatur-geil und
    > Linux-SW-Entwickler so verblendet das nicht endlich mal zu verbessern?

    Lieber aufwendig eine GUI für jede Option programmieren (wird unübersichtlich oder beschränkt, eines von beiden immer) und diese bei jedem Update anpassen/erweitern oder schnell in einer Textdatei ein-zwei Optionen anpassen...
    Was meinst du ist einfacher für Entwickler und User? Einlesen musst du dich bei beidem.

    Synology NAS sind günstig und auf einfache Bedienung ausgelegt und dementsprechend beschränkt in ihren Möglichkeiten. Sind schlecht geeignet als Referenz für gute Server-Produkte.

  19. Re: Vorteile?

    Autor: peddy_hh 04.11.17 - 09:46

    sniner schrieb:
    --------------------------------------------------------------------------------
    > 0xDEADC0DE schrieb:
    > [...]
    > per Web-UI konfigurieren lässt. Das Mäuschchen-schieb-und-klick-Spiel ist
    > für Anfänger prima, aber es läßt sich a) schlecht dokumentieren (außer in
    > Form von x Screenshots), b) die Konfiguration lässt sich nicht versionieren
    > (und diffen) und c) automatisieren schon gar nicht, außer neben der Web-UI
    > gibts auch noch eine REST-API, aber dann ist man sowieso wieder abseits der
    > Maus-Pfade.
    Moin,

    soweit ich Docker und das Ökosystem wo es eingesetzt wird kennengelernt habe, ist Docker nicht zwangsweise "GUI" und beschränkt sich keinesfalls nur auf Laufzeitumgebungen. Vielmehr ist man mit Docker, allgemein Containerlösungen, in der Lage folgenden Workflow wunderbar abzubilden:

    1.) Entwickler (Anwendungsprogrammier, Admin, Webdesigner, ...) entwickelt lokal
    2.) lokal erstellte Sourcen werden ins zentrale SCM (z.B. Bitbucket/GITHUB/Gitlab) eingecheckt
    3.) CI - Pipelines werden nach dem Checkin automatisch getriggert und die Laufzeitumgebung basierend auf Docker gebaut und bestückt
    4.) automatische Tests finden in CI statt, bei Erfolg, werden Dockercontainer in eine zentrale Containerregistry geladen und Konfigs in ein Konfigrepro gepackt
    5.) CD - Pipelines werden getriggert und die Anwendungen in den Dockercontainern werden in den Laufzeitumgebungen mit den passenden und parametrisierten Konfigs angestartet
    6.) ggf. finden hier noch weitere automatische Tests statt oder der CD - Schritt wird als Teil von CI angesehen

    Wenn jetzt das ganze noch in einer der bekannten Cloud-Umgebungen mit Kubernetes laufen lassen willst, kannst Du auch diese via Skript komplett einrichten und hochfahren.

    Was wird durch so ein Vorgehen abgedeckt:
    a) die Parametrisierung der Laufzeitumgebungen liegt vollständig parametrisiert und versioniert vor
    b) die Parametrisierung der einzelnen Programme liegt vollständig parametrisiert und versioniert vor
    c) alle durchgelaufenen Arbeitschritte nach der Entwicklung liegen dokumentiert und nachvollziehbar vor
    d) das Einrichten im Prinzip beliebig vieler gleichartiger Umgebungen ist möglich (hängt im wesentlichen am Geldbeutel)
    e) mithilfe von Docker (und ggf. Kubernetes) lassen sich geeignete Programme/Container mehrfach starten und Lastverteilung und Ausfallsicherheit erreichen

    Ein mir bekanntes Setup verwendet:
    i) Brainpower + Editor + Docker
    ii) SCM: Bitbucket
    iii) CI/CD: Jenkins + Docker
    iv) Google-Cloud + Kubernetes + Docker

    Es gibt z.B. Gitlab in der freien Variante, womit man ii+iii im kleinen aber strukturell identisch, auf einer lokalen Maschine fahren kann.
    Wenn man dann statt kubernetes noch docker-compose verwendet kriegste das komplette Setting lokal hin.

    Aus meiner Sicht ist Dein Wunsch nach "diff"barkeit damit erreicht und deckt noch mehr ab, als Du Dir gewünscht hast.


    Gruß,
    Peddy




    ps: aus meiner Sicht verlassen wir mit diesen Techniken und Vorgehensmodellen das Manufakturzeitalter in der IT und kommen in der Industralisierung der IT an.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Porsche Deutschland GmbH, Bietigheim-Bissingen
  2. Schaeffler Technologies AG & Co. KG, Herzogenaurach
  3. Bayerisches Landesamt für Steuern, Nürnberg
  4. BARMER, Wuppertal

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Elektroschrott: Kauft keine kleinen Konsolen!
Elektroschrott
Kauft keine kleinen Konsolen!

Ich bin ein Fan von Retro. Und ein Fan von Games. Und ich habe den kleinen Plastikschachteln mit ihrer schlechten Umweltbilanz wirklich eine Chance gegeben. Aber es hilft alles nichts.
Ein IMHO von Martin Wolf

  1. IMHO Porsche prescht beim Preis übers Ziel hinaus
  2. Gaming Konsolenkrieg statt Spielestreaming

Sendmail: Software aus der digitalen Steinzeit
Sendmail
Software aus der digitalen Steinzeit

Ein nichtöffentliches CVS-Repository, FTP-Downloads, defekte Links, Diskussionen übers Usenet: Der Mailserver Sendmail zeigt alle Anzeichen eines problematischen und in der Vergangenheit stehengebliebenen Softwareprojekts.
Eine Analyse von Hanno Böck

  1. Überwachung Tutanota musste E-Mails vor der Verschlüsselung ausleiten
  2. Buffer Overflow Exim-Sicherheitslücke beim Verarbeiten von TLS-Namen
  3. Sicherheitslücke Buffer Overflow in Dovecot-Mailserver

Videoüberwachung: Kameras sind überall, aber nicht überall erlaubt
Videoüberwachung
Kameras sind überall, aber nicht überall erlaubt

Dass Überwachungskameras nicht legal eingesetzt werden, ist keine Seltenheit. Ob aus Nichtwissen oder mit Absicht: Werden Privatsphäre oder Datenschutz verletzt, gehören die Kameras weg. Doch dazu müssen sie erst mal entdeckt, als legal oder illegal ausgemacht und gemeldet werden.
Von Harald Büring

  1. Nach Attentat Datenschutzbeauftragter kritisiert Hintertüren in Messengern
  2. Australien IT-Sicherheitskonferenz Cybercon lädt Sprecher aus
  3. Spionagesoftware Staatsanwaltschaft ermittelt nach Anzeige gegen Finfisher

  1. Internetdienste: Ermittler sollen leichter an Passwörter kommen
    Internetdienste
    Ermittler sollen leichter an Passwörter kommen

    Die Bundesregierung will Ermittlern den Zugriff auf Nutzerdaten bei Internetdiensten wie Mail-Anbieter, Foren oder sozialen Medien erleichtern. Die IT-Branche und die Opposition sehen einen "Albtraum für die IT-Sicherheit".

  2. Netflix und Youtube: EU-Kommissarin warnt vor hohem Energiebedarf des Internets
    Netflix und Youtube
    EU-Kommissarin warnt vor hohem Energiebedarf des Internets

    Youtube, Netflix und Prime Video sind die Dienste, die besonders viel Internetverkehr generieren und damit auch einen besonders hohen Energiebedarf nach sich ziehen. Das sieht die Vizepräsidentin der EU-Kommission kritisch.

  3. Galaxy Fold: Samsung dementiert eigene Verkaufszahlen
    Galaxy Fold
    Samsung dementiert eigene Verkaufszahlen

    Samsung widerspricht sich selbst. Das Unternehmen bestreitet die Angabe eines ranghohen Samsung-Managers, der verkündet hatte, weltweit seien bereits eine Million Galaxy Fold verkauft worden. Vieles bleibt ungeklärt.


  1. 12:25

  2. 12:10

  3. 11:43

  4. 11:15

  5. 10:45

  6. 14:08

  7. 13:22

  8. 12:39