Abo
  1. Foren
  2. Kommentare
  3. Politik/Recht
  4. Alle Kommentare zum Artikel
  5. › Leistungsschutzrecht…

"...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: DebugErr 21.07.16 - 14:38

    Bitte?

    Kann man nicht mit Wildcards mehrere oder gleich alle erschlagen?
    Wenn die so unfähig sind, so eine Liste zu führen, haben sie auch nichts zu erklagen! Wer im Internet eine Präsenz hat, ist auch für deren Inhalte genau wie deren Konfiguration zuständig, sonst kann er sich verp*ssen.

    Lächerlich.

  2. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: Muhaha 21.07.16 - 14:52

    DebugErr schrieb:
    --------------------------------------------------------------------------------
    > Wer im Internet eine Präsenz hat, ist auch für deren Inhalte
    > genau wie deren Konfiguration zuständig, sonst kann er sich verp*ssen.

    Das klingt zwar sinnvoll, diese Eigenverantwortung ist aber nicht Teil eines Gesetzes. Deswegen kann der Anwalt der DIZ auch mit vollem Recht so einen debilen Dreck verzapfen.

  3. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: the_wayne 21.07.16 - 14:57

    Und warum sollten die Verlage das tun?
    Die wollen doch überall auftauchen und sperren es deshalb nicht per Meta-Tag oder robots.txt.
    Und wenn sie irgendwo auftauchen haben sie das Recht den Anbieter zu verklagen, wenn er keine Lizenz kauft.
    Also ist jeder den Verlagen ausgeliefert. Das einzige was die Verlage stört, ist der Aufwand den sie betreiben müssen um Anbieter zu zwingen. Aber das ist noch lange kein Grund nicht die Hand auf zu halten.

  4. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: nicoledos 21.07.16 - 14:57

    Du weißt wie viel Suchmaschinen und crawlerdienste es gibt ? Und jeden Tag taucht ein neuer auf, ein anderer verschwindet.

    Viel Spass mit der 25 MB Robots.txt

  5. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: the_wayne 21.07.16 - 14:59

    nicoledos schrieb:
    --------------------------------------------------------------------------------
    > Du weißt wie viel Suchmaschinen und crawlerdienste es gibt ? Und jeden Tag
    > taucht ein neuer auf, ein anderer verschwindet.
    >
    > Viel Spass mit der 25 MB Robots.txt

    Na dann bleibt in Summe die Anzahl der Crawler ja gleich und die Verwaltung der robots.txt schafft auch noch einen Arbeitsplatz ;-D

  6. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: nicoledos 21.07.16 - 15:04

    Es ist schon ein Unterschied, ob du nur eine Headline ausgibst oder einen Textauszug erstellst und so selbst zum Contentanbieter wirst.

    Vor einiger Zeit haben auch crawler gut besuchte Foren und Wikis erfasst, und automatisch übersetzt. Bei bestimmten suchen ist man ständig auf diesen Archiv-Seiten gelandet. Nervig.

  7. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: Moe479 21.07.16 - 15:12

    das ist wie schon öfters gesagt ein diskrepanz zwischen recht und technischer umsetzung.

    wenn du etwas veröffentlichst, zeitung, flugblatt, buch, magazin, blog ... etc. muss jeder der das weiterverwursten möchte, dich innerhalb der gesetzlichen fristen dafür um erlaubnis fragen, du musst dafür nichts dazu sagen bzw. schreiben/erklären, das gilt automatisch für alles, es sei denn es ist anders erklärt, damit auch ohne robots.txt oder weiteres. es ist grundsätzlich davon auszugehen dass es urheberechts- bzw. verwertungsansprüche seitens des urhebers bzw. herrausgebers gibt, weil das gesetz ihnen ebend diese zugesteht.

    es ist einfach dumm gelaufen, dass das im www, auch historisch bedingt, umgedreht behandelt wurde, aber muss sich deswegen das recht ändern, oder muss sich das www ändern?

    suchmaschienen und andere aggregationsdienste können auch dahingegend verändert werden, dass sie ohne eine explizite erlaubnis zur aufnahme in den oder die dienste inhalte einfach übergehen, so verhielten sie sich zumindest rechtskonform, würden nicht pauschal gesetzlich verbrieftes recht missachten.



    1 mal bearbeitet, zuletzt am 21.07.16 15:14 durch Moe479.

  8. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: windermeer 21.07.16 - 15:41

    Darf man denn nach aktueller Gesetzeslage nicht Flugblätter sammeln und die öffentlich zugänglich ein einem Raum auslegen? Oder fällt das unter Urheberrechtsverletzung?

  9. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: Komischer_Phreak 21.07.16 - 15:42

    nicoledos schrieb:
    --------------------------------------------------------------------------------
    > Du weißt wie viel Suchmaschinen und crawlerdienste es gibt ? Und jeden Tag
    > taucht ein neuer auf, ein anderer verschwindet.
    >
    > Viel Spass mit der 25 MB Robots.txt

    Das ist einfach: Whitelisting. Nur wer zahlt, kommt rein. Wem das zu schwer ist, kann sicher erklären, warum es einfacher ist, Leute zu verklagen.

    Darüberhinaus verstehe ich den Dienst nicht ganz. Ich würde so etwas nie in Deutschland machen. Es gibt gute Gründe, das deutsche Startups häufig in den USA ansässig sind.

  10. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: tezmanian 21.07.16 - 15:52

    Du weißt wie viel Verlage es gibt? Also wieso haben die ein Recht auf ein Geschäftsmodell und die Crawler nicht?

  11. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: Moe479 21.07.16 - 15:58

    gute frage, solange du diese nicht weiter vervielfältigst/verwurstest und keinen eintritt verlangst ... obwohl ... mit alten zeitungen bei renovierungsarbeiten scheiben abkleben war auch schon ein problem ...

    ich würde im zweifel nein sagen, kommt darauf an was dazu drauf steht, bei z.b. unter cc gestelltem material wäre das unproblematisch solange du dich an die weiteren regeln der cc lizenz hältst ... z.b. namensnennung des autors oder/und nur für nicht kommerzielle zwecke ... etc.

    wie gesagt der wille autors/herrausgebers dazu muss beachtet werden, ist dieser nicht ausreichend erkennbar geht man vom gesetz dazu aus, eigentlich ganz einfach geregelt.

    dass es aggregationsdiensten nicht passt ggf. aufwänding danach fragen zu müssen kann ich mir gut vorstellen, aber deswegen meine rechte als urheber aufzugeben sähe ich nicht ein.

    wenn ich mein material verwurstet sehen möchte, werde ich mich darum kümmern (z.b. eine mir passende robots.txt schreiben/schreiben lassen), wenn andere mein material verwursten möchten können sich mich danach fragen, nur so wird ein einvernehmlicher schuh daraus.



    2 mal bearbeitet, zuletzt am 21.07.16 16:14 durch Moe479.

  12. Das ist schlicht falsch

    Autor: mnementh 21.07.16 - 16:21

    Moe479 schrieb:
    --------------------------------------------------------------------------------
    > das ist wie schon öfters gesagt ein diskrepanz zwischen recht und
    > technischer umsetzung.
    >
    > wenn du etwas veröffentlichst, zeitung, flugblatt, buch, magazin, blog ...
    > etc. muss jeder der das weiterverwursten möchte, dich innerhalb der
    > gesetzlichen fristen dafür um erlaubnis fragen, du musst dafür nichts dazu
    > sagen bzw. schreiben/erklären, das gilt automatisch für alles, es sei denn
    > es ist anders erklärt, damit auch ohne robots.txt oder weiteres. es ist
    > grundsätzlich davon auszugehen dass es urheberechts- bzw.
    > verwertungsansprüche seitens des urhebers bzw. herrausgebers gibt, weil das
    > gesetz ihnen ebend diese zugesteht.
    >
    > es ist einfach dumm gelaufen, dass das im www, auch historisch bedingt,
    > umgedreht behandelt wurde, aber muss sich deswegen das recht ändern, oder
    > muss sich das www ändern?
    >
    Zeitungen, Bücher, Magazine wurden schon immer zitiert ohne zu fragen. Es musste ja ein neues Gesetz her, weil das bisherige Zitatrecht das Verhalten von Google eben nicht einschränkt. Mit anderen Worten Deine Grundannahme im WWW wurde Recht missachtet dass IRL gilt stimmt schlicht nicht.



    1 mal bearbeitet, zuletzt am 21.07.16 16:22 durch mnementh.

  13. Re: Das ist schlicht falsch

    Autor: Moe479 21.07.16 - 17:04

    es ging mir eigentlich schon allein um das crawlen einer site, und wie auch immer geartete einbindung in irgend einen index, das habe ich ggf. suchmaschienenbetreibern nie ausdrücklich erlaubt sich an meinen inhalten derart zu bereichern.

    eine einsortierung/verschlagwortung geht zudem weit über das reine zitieren hinaus, das dokument wird hierfür in der regel z.b. nach häufigkeiten durchsucht und darüber informationen abgetragen, dafür wurde es ggf. nie bereitgestellt. ich würde zumindest davon ausgehen, es sei denn ich finde eine gegenteilige erklärung des herrausgebers dazu.

    im weiteren ging es darum ob ich der aufnahme und verarbeitung in index-dienste aktiv widersprechen muss, um nicht aufgenommen zu werden, oder ob das meiner aktiven zustimmung bedarf, um aufgenommen werden zu dürfen, ich sehe letzteres für rechtlich gegeben, bzw. ersteres nicht aus dem zitatrecht erwachsen.

  14. Re: Das ist schlicht falsch

    Autor: NaruHina 21.07.16 - 17:29

    Ich glaube es hackt,...
    Indexdienste gab es schon immer...

    Büchereien nutzen das schon lange vor dem www. Und haben dutzende Klappentext und Kurzzusammenfassung in ihren Beständen, zwar mussten die damals noch manuell eingeben geben werden mittlerweile ist das aber auch automatisiert, auch zeitungsarchive sind mithilfe eines Indexes durchsuchbares,
    In beiden Fällen wurden und werden weder Autor noch Schriftsteller noch eine Redaktion gefragt....


    Nicht anderes machen Suchmaschinen im www. Sie erstellen einen Index und stellen diesen durchsuchbares zur Verfügung. Und das ist auch durch das geowhnlcihe urherbrechtsgesetzt gedeckt gewesen bis die Lobby ein sinnloses Leistungsschalter Gesetz durchgesetzt haben...

  15. Re: Das ist schlicht falsch

    Autor: Moe479 21.07.16 - 18:14

    es geht wie gesagt nicht um unter das zitatrecht fallende auschnittsweisen abtextung/rückseiten und klapptexte, welche ja vom herrausgeber für die einordnung/indexierung bestimmt worden sind, sondern um das crawlen/sichten/bewerten/verwerten der gesamten site (nicht nur von ausschnitten) für dritte. dazu sollte man eine lizenz/einverständnis für diese zwecke erworben haben ... finde ich, denn man rekapituliert, rearangiert, verechnet und verwertet damit ja die site in ihrer gänze, oder nicht?

    und das etwas länger irgendwie gemacht wurde, bedeutet nicht automatisch, dass es tatsächlich recht so ist ... bzw. wo genau steht oder stand konkret, dass das gesamte werk für eine indexbildung freie verwendung finden kann/konnte?



    3 mal bearbeitet, zuletzt am 21.07.16 18:27 durch Moe479.

  16. Re: Das ist schlicht falsch

    Autor: Moe479 21.07.16 - 18:42

    insbesondere erstreckt sich frage noch auf informationen aus weiteren quellen die in werken verwendung fanden, dürfen diese in eine weiterverarbeitung einfließen oder müssen diese dafür ggf. erneut lizensiert werden.

    z.b. ich habe eine grafik auf meiner seite für die nur ich das einverständnis des urhebers zur verwendung auf meiner seite habe, darf dieses werk auch von dritten zu indexierungszwecken verarbeitet werden?

  17. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: Sammie 21.07.16 - 19:19

    nicoledos schrieb:
    --------------------------------------------------------------------------------
    > Du weißt wie viel Suchmaschinen und crawlerdienste es gibt ? Und jeden Tag
    > taucht ein neuer auf, ein anderer verschwindet.
    >
    > Viel Spass mit der 25 MB Robots.txt

    Wenn sie eh ihre zahlende Kundschaft an einer Hand abzählen können, können sie auch Whitelistening machen.. 5 Einträge, gut ist. Zudem ist die robots.txt eher als eine Art Wunsch zu verstehen. Ein Crawler kann sich daran halten, muss es aber nicht. Aber der Verlag kann dadurch durchaus für alle sagen, dass nicht gecrawled werden soll. Kunden mit Lizenz können diesen Wunsch aber getrost ignorieren.

    Die robots.txt ist eh nur für allow/disallow Regeln da und im Prinzip relativ veraltet. Breiteres Listening was gecrawled werden darf und soll, läuft heutzutage viel mehr über (oft gepackte) sitemap.xmls (zB http://www.welt.de/sitemap/sitemap.xml.gz). Da es ein XML-Format ist, könnten auch hier problemlos Snippet-Längen definiert werden, entweder global oder für jeden einzelnen Artikel. Crawled man dann die direkten Artikel-Übersichten (zB http://www.welt.de/sitemap/today.xml.gz) könnte der Verlag hier auch einfach selbst Snippets vorgeben. Entspricht zwar nicht der Sitemap-Spec, aber optionale Nodes sind auch nicht verboten.

    Und optional zu den Meta-Tags kann man auch robots-Header (https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag?hl=de) verwenden. Da wärs auch kein Problem für den Verlag, einen Tag wie "X-Robots-Tag: max_snippet_length: 140" einzuführen. Dann wüsste jeder Crawler bescheid, wie viel der Verlag erlaubt. Aber scheinbar ist es unzumutbar eine Zeile Code einzufügen, um Rechtssicherheit herzustellen...



    1 mal bearbeitet, zuletzt am 21.07.16 19:28 durch Sammie.

  18. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: Trockenobst 21.07.16 - 20:06

    the_wayne schrieb:
    --------------------------------------------------------------------------------
    > Also ist jeder den Verlagen ausgeliefert. Das einzige was die Verlage
    > stört, ist der Aufwand den sie betreiben müssen um Anbieter zu zwingen.
    > Aber das ist noch lange kein Grund nicht die Hand auf zu halten.

    Exakt. Hier geht es nicht darum "kostenlose" Snippets verfügbar zu machen, sondern die sterbende Branche irgendwie am Leben zu halten. Wenn du in deinem Geschäftsmodell Zugang brauchst, sollst du in diese dünne Gasse rein, wo der Hinterhalt schon wartet. Und dann wird reagiert, wenn es nicht passt und das entsprechende Gesetz hat man durch die Lobby durchgedrückt.

    Ubermetrics hat auch einen falschen Weg für die Klage gewählt. Der Weg der Snippetgröße ist lobbyistisch verbaut. Der richtige Weg wäre, alle Verlage num einen login/marker/server zu bitten um dann die dann die vom Gesetz erlaubten kostenlosen Snippets Abfragen zu dürfen. Diesen Brief mit Einschreiben vom Anwalt.

    Bis dahin einfach 100 Wörter oder so abfragen und wenn sie klagen, dann sagen: ich hab es ja versucht, aber die wollen mir nach dem Gesetz(!) den kostenlosen Zugang gar nicht geben, die verhindern eine korrekte Lösung! Alternativ eben Paywall.

    Man muss bei diesen Dingen inzwischen von Google und Facebook lernen. Die finden immer eine neue "Sichtweise" auf ein Problem, prügeln sich dann 10 Jahre vor Gericht und dann setzt sich ihre Sicht doch durch. Man darf sich von anderen Leuten nicht die Arena aufzwingen lassen, in der man dann kämpfen soll.

  19. Re: "...einem Verlag nicht zuzumuten sei, Vorgaben für jeden Crawler zu machen. "

    Autor: divStar 21.07.16 - 22:32

    Keine Ahnung aber ich genieße es förmlich, dass das Anti-Google-Gesetz, welches die Verlage quasi erfunden haben (bzw. ihre schmierigen und grenzdebilen Politikfreunde), genau gegen Google nicht greift. Ich finde es wunderbar, dass Google am längeren Hebel sitzt und jeden Verlag in die Knie zwingen kann (und hoffentlich auch wird).

    Warum? Wer so einen echt bekloppten Bockmist wie das Leistungsschutzrecht, welches im Grunde nicht einmal echte Leistung schützt, verzapft, der sollte ohne Ende und bis zum bitteren Bankrott zahlen müssen. Auch die EU-weite Einführung des Gesetzes wird daran gar nichts ändern. Wäre ich Google, würde ich den Verlagen klar machen, dass man nicht nur Verlage drin behalten oder entfernen, sondern auch noch extremst ungünstig und damit irrelevant "positionieren" könnte - übrigens inklusive der Nicht-Snippets. Wenn die Verlage mehr Kontrolle wollen, sollen sie halt ihre eigene "Suchmaschine" aufziehen - viel Erfolg.

    Zu bemitleiden sind hier höchstens die Blogger und kleinere Unternehmen, die keinerlei Rechtssicherheit haben und nach belieben gegängelt und weitergereicht werden. Dass das den Verlagen gegen Google auch passiert, geht daher runter wie Öl, denn ich gönne den Verlagen nicht nur nicht die Butter aufs Brot, sondern nicht einmal das Brot selbst.

    P.s.: ich meine mit "die Verlage" natürlich nur jene Verlage, die aktiv versuchen Unternehmen zu erpressen, indem sie Geld für ein paar lausige Wörter sehen wollen. Gerade weil das nicht fair ist, die Politik aber sich von Fairness schon vor langer Zeit verabschiedet hat, finde ich es gut, dass die natürliche Auslese nachhilft. Wer nicht hören will und andere schikaniert, muss eben fühlen - bis dieser jemand dann endlich aufwacht und seine Handlungen eingesteht und aufhört als "großer" die "kleinen" zu schikanieren. Es ist wirklich Spitze, dass die "großen" allerdings noch "größere" über ihnen haben, die mit ihnen dasselbe tun. Verdient haben sie es absolut.

  20. Re: Das ist schlicht falsch

    Autor: mnementh 22.07.16 - 10:34

    Moe479 schrieb:
    --------------------------------------------------------------------------------
    > es ging mir eigentlich schon allein um das crawlen einer site, und wie auch
    > immer geartete einbindung in irgend einen index, das habe ich ggf.
    > suchmaschienenbetreibern nie ausdrücklich erlaubt sich an meinen inhalten
    > derart zu bereichern.
    >
    Nein, Du schriebst:
    > wenn du etwas veröffentlichst, zeitung, flugblatt, buch, magazin, blog ... etc. muss jeder der das weiterverwursten möchte, dich innerhalb der gesetzlichen fristen dafür um erlaubnis fragen, du musst dafür nichts dazu sagen bzw. schreiben/erklären, das gilt automatisch für alles, es sei denn es ist anders erklärt, damit auch ohne robots.txt oder weiteres.
    Und:
    > es ist einfach dumm gelaufen, dass das im www, auch historisch bedingt, umgedreht behandelt wurde, aber muss sich deswegen das recht ändern, oder muss sich das www ändern?
    Und diese Aussagen sind einfach so falsch, da Suchmaschinen und andere Aggregatoren sich auf bestehendes Recht gestützt haben. Die Verlage wollten das Recht ändern (deshalb das Leistungsschutzrecht) um damit ihre Ziele zu erreichen, aber historisch gesehen hat dass das WWW genauso gemacht wie es immer üblich war.

    > eine einsortierung/verschlagwortung geht zudem weit über das reine zitieren
    > hinaus, das dokument wird hierfür in der regel z.b. nach häufigkeiten
    > durchsucht und darüber informationen abgetragen, dafür wurde es ggf. nie
    > bereitgestellt. ich würde zumindest davon ausgehen, es sei denn ich finde
    > eine gegenteilige erklärung des herrausgebers dazu.
    >
    Nein, das ist rechtlich nichts anderes. Gerichte haben nicht in dieser von Dir erfundenen Art geurteilt.

    > im weiteren ging es darum ob ich der aufnahme und verarbeitung in
    > index-dienste aktiv widersprechen muss, um nicht aufgenommen zu werden,
    > oder ob das meiner aktiven zustimmung bedarf, um aufgenommen werden zu
    > dürfen, ich sehe letzteres für rechtlich gegeben, bzw. ersteres nicht aus
    > dem zitatrecht erwachsen.
    Auch das haben Gerichte nie so gesehen. Das erfindest Du. Rechtlich war der Erstellung eines solchen Indexes schon immer legal, nur technisch halt schwierig.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Technische Universität Berlin, Berlin
  2. LORENZ Life Sciences Group, Frankfurt am Main
  3. Oberfinanzdirektion Karlsruhe, Karlsruhe
  4. UmweltBank AG, Nürnberg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. 4,99€
  2. 3,49€
  3. 4,99€
  4. (-25%) 44,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Arbeit: Hilfe für frustrierte ITler
Arbeit
Hilfe für frustrierte ITler

Viele ITler sind frustriert, weil ihre Führungskraft nichts vom Fach versteht und sie mit Ideen gegen Wände laufen. Doch nicht immer ist an der Situation nur die Führungskraft schuld. Denn oft verkaufen die ITler ihre Ideen einfach nicht gut genug.
Von Robert Meyer

  1. IT-Fachkräftemangel Freie sind gefragt
  2. Sysadmin "Man kommt erst ins Spiel, wenn es brennt"
  3. Verdeckte Leiharbeit Wenn die Firma IT-Spezialisten als Fremdpersonal einsetzt

Noise Cancelling Headphones 700 im Test: Boses bester ANC-Kopfhörer sticht Sony vielfach aus
Noise Cancelling Headphones 700 im Test
Boses bester ANC-Kopfhörer sticht Sony vielfach aus

Bose schafft mit seinen neuen Noise Cancelling Headphones 700 eine fast so gute Geräuschreduzierung wie Sony und ist in manchen Punkten sogar besser. Die Kopfhörer haben uns beim Testen aber auch mal genervt.
Ein Test von Ingo Pakalski

  1. Bose Frames im Test Sonnenbrille mit Musik
  2. Noise Cancelling Headphones 700 ANC-Kopfhörer von Bose versprechen tollen Klang
  3. Frames Boses Audio-Sonnenbrille kommt für 230 Euro nach Deutschland

Nachhaltigkeit: Bauen fürs Klima
Nachhaltigkeit
Bauen fürs Klima

In Städten sind Gebäude für gut die Hälfte der Emissionen von Treibhausgasen verantwortlich, in Metropolen wie London, Los Angeles oder Paris sogar für 70 Prozent. Klimafreundliche Bauten spielen daher eine wichtige Rolle, um die Klimaziele in einer zunehmend urbanisierten Welt zu erreichen.
Ein Bericht von Jan Oliver Löfken

  1. Klimaschutz Großbritannien probt für den Kohleausstieg
  2. Energie Warum Japan auf Wasserstoff setzt

  1. Verfassungsschutz: Einbruch für den Staatstrojaner
    Verfassungsschutz
    Einbruch für den Staatstrojaner

    Der Verfassungsschutz soll künftig auch Computer und Smartphones von Verdächtigen durchsuchen dürfen. Um Staatstrojaner zu installieren, sollen Wohnungseinbrüche erlaubt sein.

  2. Be emobil: Berliner Ladesäulen auf Verbrauchsabrechnung umgestellt
    Be emobil
    Berliner Ladesäulen auf Verbrauchsabrechnung umgestellt

    Der Ladenetzbetreiber Allego hat die Abrechnung der öffentlichen Ladestationen in Berlin umgestellt. Statt eines Pauschalpreises für den Ladevorgang zahlen Elektroautomobilisten in Zukunft nach geladener Strommenge.

  3. Segway-Ninebot: E-Scooter sollen autonom zur Ladestation fahren
    Segway-Ninebot
    E-Scooter sollen autonom zur Ladestation fahren

    Das Aufladen von E-Scootern ist für die Verleihdienste aufwendig und kostspielig. Daher könnten künftig Geister-Scooter durch die Städte rollen. Beim Kauf "normaler" E-Scooter gibt es derweil Verzögerungen.


  1. 14:28

  2. 13:20

  3. 12:29

  4. 11:36

  5. 09:15

  6. 17:43

  7. 16:16

  8. 15:55