Abo
  1. Foren
  2. Kommentare
  3. Politik/Recht
  4. Alle Kommentare zum Artikel
  5. › Leistungsschutzrecht: VG Media…

Ein ganz anderer Ansatz...

  1. Thema

Neues Thema Ansicht wechseln


  1. Ein ganz anderer Ansatz...

    Autor: commander1975 18.02.14 - 15:31

    Ich dachte eigentlich, dass man beim Thea LSR als häufiger Internetnutzer nur einer Meinung sein kann, aber so kann man sich irren.

    Habe mich gerade mit einem Kollegen unterhalten seine Meinung dazu:
    Wer hat es der Suchmaschine eigentlich erlaubt, dass sie meine Webseite durchsuchen darf?
    Es könne ja nicht angehen, dass man erst etwas konfigurieren müsse, damit andere (die Suchmaschinen) nicht mit dem eigenen Content Geld verdienen könnten.

    Meine Meinung, man wolle ja schliesslich "gefunden" werden, wenn man eine Webseite ins Internet stelle und der administrative Mehraufwand duch das konfigurieren der robots.txt sei ja vergleichweise lächerlich (verglichen mit dem Aufbau einer Webseite), ließ er dabei nicht gelten, ebensowenig wie meine Ansicht, das ja die Suchmaschine auch nicht den Content selbst verwertet, schliesslich erstellt ja Google kein eigenes "journalistisches Werk" und verkauft dieses.

    Wie seht ihr das ?
    Somit müssten ja alle Webseiten explizit erlauben ob Sie indiziert werden dürften oder nicht, meiner Meinung nach schliesst das dann allerdings auch eine Bezahlung für den indizierten Content aus.

  2. Re: Ein ganz anderer Ansatz...

    Autor: Anonymer Nutzer 18.02.14 - 15:39

    Dein kollege hat den schlag net gehört. Der aufwand die robots.txt entsprechend zu konfigurieren geht gegen null.
    Wer das als zuviel arbeit ansieht sollte den off schalter drücken. ..wenn das nicht zuviel Arbeit ist.

  3. Re: Ein ganz anderer Ansatz...

    Autor: gehtDichNichtsAn 18.02.14 - 15:47

    commander1975 schrieb:
    --------------------------------------------------------------------------------
    > Ich dachte eigentlich, dass man beim Thea LSR als häufiger Internetnutzer
    > nur einer Meinung sein kann, aber so kann man sich irren.
    >
    > Habe mich gerade mit einem Kollegen unterhalten seine Meinung dazu:
    > Wer hat es der Suchmaschine eigentlich erlaubt, dass sie meine Webseite
    > durchsuchen darf?
    > Es könne ja nicht angehen, dass man erst etwas konfigurieren müsse, damit
    > andere (die Suchmaschinen) nicht mit dem eigenen Content Geld verdienen
    > könnten.

    die meisten suchmaschinen verdienen mit dem content anderer gar kein geld.
    das wollen viele nicht verstehen. google und bing verdienen geld mit werbung, die zu den suchbegriffen passt.

    Genau so gut kann man fragen: Wer erlaubt es anderen Webseiten Links zu meinem Content einzustellen?

    > Meine Meinung, man wolle ja schliesslich "gefunden" werden, wenn man eine
    > Webseite ins Internet stelle und der administrative Mehraufwand duch das
    > konfigurieren der robots.txt sei ja vergleichweise lächerlich (verglichen
    > mit dem Aufbau einer Webseite), ließ er dabei nicht gelten, ebensowenig wie
    > meine Ansicht, das ja die Suchmaschine auch nicht den Content selbst
    > verwertet, schliesslich erstellt ja Google kein eigenes "journalistisches
    > Werk" und verkauft dieses.

    ich glaube der kollege hat das web noch nicht ganz verstanden.
    content, der nirgendwo verlinkt ist, ist toter content, der geht in der masse einfach unter.

    würde sich der kollege dann auch ärgern, wenn er für wichtige begriffe auf platz 1 stehen würde und täglich 1 million besucher durch google auf seine seite kommen würden?

  4. Re: Ein ganz anderer Ansatz...

    Autor: Anonymer Nutzer 18.02.14 - 15:50

    Google News ist Opt-In, bzw. die Verlage bzw. Seiten müssen erstmal um Aufnahme in den Index von News bitten.

    Entsprechend: Verlage gehen zu Google "bitte führt uns in Google News" (weshalb die das wollen dürfte jedem klar sein) dann macht Google dann wollen die Verlage Kohle von Google, dafür, dass sie geführt werden.

    Ob ich das mal bei meinem Telefonanbieter probieren sollte? "Hey, rückt Kohle raus, dafür, dass ich eure Leitung nutze!"

    Und wenn es um die normale Suche geht, da würde ich mir dann die Frage stellen, wozu betreiben die Seiten SEO wenn sie nicht gefunden werden wollen?

    Es ist also nicht nur so, dass die Verlage/Seiten nicht nur nicht die robots.txt anpassen, sie betreiben auch noch Aufwand, damit sie gefunden werden.

    Ist dein Kollege Bild-Leser? Das könnte einiges erklären.

    Es gälte dann nur zu klären, lesen nur blöde die Bild oder verblödet das Lesen der Bild?
    Oder muss man eine gewisse Grundblödheit mitbringen um die Bild zu lesen und die Bild verstärkt dann dieses Ursprungsattribut nocht weiter?

  5. Re: Ein ganz anderer Ansatz...

    Autor: Kaworu 18.02.14 - 16:16

    Warum ließ er deine Ansichten nicht gelten? Ich finde, die beiden Argumente sind in sich schlüssig und um Arbeit an einer Webseite kann man sich nicht drücken, es gibt doch ab einer gewissen Webseitenkomplexität auch Sicherheitsaspekte, die ständiger Wartung bedürfen (selbst wenn es nur ein Klick auf "Update" in WordPress etc. ist)
    Warum eine Webseite, wenn man den Inhalt nicht publik machen möchte?

  6. Re: Ein ganz anderer Ansatz...

    Autor: violator 18.02.14 - 16:33

    commander1975 schrieb:
    --------------------------------------------------------------------------------
    > Wer hat es der Suchmaschine eigentlich erlaubt, dass sie meine Webseite
    > durchsuchen darf?

    Fragt sich dein Kollege auch, wer es den Besuchern eigentlich erlaubt hat, dass die seine Website durchsuchen dürfen?



    1 mal bearbeitet, zuletzt am 18.02.14 16:35 durch violator.

  7. Re: Ein ganz anderer Ansatz...

    Autor: tingelchen 18.02.14 - 17:02

    Die Argumentation des Kollegen ist nicht schlüssig. In keinerlei Hinsicht. Der Grund dafür ist recht einfach. Das Internet ist öffentlicher Raum und kein Privatraum für jeden einzelnen. Alles was man öffentlich rein stellt, bedeutet auch das es von jedem gesehen werden kann. Das ganze ist etwa vergleichbar als würde man sich auf die Straße stellen und den Inhalt öffentlich vortragen.
    Wer dies macht, der will gehört werden. Er will das die Leute dies weiter kommunizieren. In Schrift heißt dies, das man davon eine Kopie macht und diese weiter verteilt.
    Das einzige was man hier einem zugestehen kann ist, das man dies nicht als eigenes Werk publiziert, sondern einen Verweis auf das Original stets mit angegeben werden muss. Was in diesem Fall auch stets passiert. Denn Google News präsentiert die Werke nicht als die eigenen und verweist immer auf den jeweils gefundenen Artikel.

    Wenn man dies nicht will, dann trägt man den Inhalt auch nicht öffentlich vor bzw. stellt seinen Inhalt nicht frei zugänglich für alle ins Netz. Wer nicht gesehen werden will, geht auch nicht raus in die Öffentlichkeit. Ob es dann allerdings Sinn macht eine Internetseite zu betreiben, ist ein anderes Thema.
    Aber es ist ja nun nicht so, als wenn es keine Möglichkeiten gäbe seinen Inhalt im Internet vor der Öffentlichkeit zu verbergen. Man muss halt nur, wie im realen Leben auch, dafür etwas Aufwand betreiben. Das fängt bei einem einfachen Login an und hört bei einem eignen VPN auf.

    Eine Suchmaschine (ob nun spezialisiert oder nicht, spielt keine Rolle) dient ja nur dazu um es einem Benutzer zu erlauben Seiten zu finden. Es ist wie eine Straßenkarte. Was bringt mir ein Laden in einer Straße wenn ihn niemand finden kann? Es ist schon merkwürdig. Ladenbesitzer müssen dafür Zahlen um in Branchenbüchern auf zu tauchen. Sie wären froh, wenn irgendwer kostenlos zum eigenen Laden fahren würde, dort kurz das Sortiment ablichtet und dann kostenlos Werbung schaltet: Sie suchen X hier können sie es kaufen.

    Zumal es erst einmal ja nicht um die Google Suche geht, sondern um Google News. Wo man sich explizit eintragen muss, bevor man dort gelistet wird. Insofern wird die ganze Argumentationskette deines Kollegen ad absurdum geführt, weil man hier Aufwand betreibt um gerade gefunden zu werden.

    Aber hey... wenn ein Verlag nicht gelistet werden will, dann steht es diesem frei sich, zumindest bei Google, aus dem Index austragen zu lassen. Man taucht dann auch zukünftig nicht mehr auf.

  8. Re: Ein ganz anderer Ansatz...

    Autor: commander1975 18.02.14 - 18:54

    Danke für eure Antworten, ich sehe es grundsätzlich auch wie ihr.

    So wie es ist, würde ic h von einer win-win-Situation sprechen:
    -Die Verlage bekommen Kunden durch die Indizierung und Auflistung ihrer Inhalte, in Form von "Textschnippseln".
    -Die Suchmaschinenanbieter verdienen Geld mit Werbung, um so mehr je besser ihre Suchmaschinen arbeiten.
    -Die Verlage brauchen sich nicht um die IT und das Know How zu kümmern (und unter uns, ich glaube nicht das ein Jointventure aller (deutschen) Verlage in der Lage wäre eine so effiziente Suchmaschine zu bieten, wie es die etablierten Spezialisten bereits tun)
    -Die Suchmaschinen sind umso beliebter je unabhängiger sie funktionieren, zumindest theoretisch ist eine Suchmaschine erfolgreicher die keinen bestimmten Content bevorzugt.
    -Wer seine Webseite nicht durch Suchmaschinen indizieren lassen will kann dies bereits heute tun, auch wenn dadurch der Zweck einer Webseite ad absurdum geführt wird.

    Ich finde die Verlage täten gut daran diese symbiotische Beziehung nicht zu zerstören, denn sonst wurde ich, anstelle der Suchmaschinenbetreiber, jeden Service extrem teuer bezahlen lassen.

  9. Re: Ein ganz anderer Ansatz...

    Autor: hyperlord 18.02.14 - 19:20

    gehtDichNichtsAn schrieb:
    --------------------------------------------------------------------------------
    > die meisten suchmaschinen verdienen mit dem content anderer gar kein geld.
    > das wollen viele nicht verstehen. google und bing verdienen geld mit
    > werbung, die zu den suchbegriffen passt.

    Na ja, das haut so ja auch nicht ganz hin - die Leute suchen bei Google, weil sie dort in erster Linie die entsprechenden Inhalte finden können. Insofern steht und fällt die Attraktivität einer Suchmaschine selbstverständlich mit den dort indizierten Inhalten.
    Google verdient mit den eingeblendeten Anzeigen, aber niemand würde bei Google vorbeischauen, wenn man dort nur in den Werbeanzeigen suchen könnte.
    Insofern ist Google auf die Inhalte der verschiedenen Webseiten angewiesen und profitiert somit auch davon.

    Auf der anderen Seite profitieren natürlich auch die Webseitenbetreiber, wenn sie über eine Suchmaschine Besucher/Traffic bekommen - insofern ist das eigentlich ein "Geben und Nehmen" und mit dem LSR beißen die Verlage die Hand, die sie mit Traffic füttert.

    Das Problem ist schlicht, dass die Verlage es bis heute nicht geschafft haben, den reinkommenden Traffic zu Geld zu machen - und da entsteht dann natürlich Neid, wenn man sieht, dass Google glänzend an den Werbeanzeigen verdient.
    Versteht mich nicht falsch: ich finde das LSR auch absurd, aber wenn man es aus der Sicht der Verlage betrachtet, dann kann man zumindest verstehen, wo die Idee herkommt.

    > > Meine Meinung, man wolle ja schliesslich "gefunden" werden, wenn man
    > eine
    > > Webseite ins Internet stelle und der administrative Mehraufwand duch das
    > > konfigurieren der robots.txt sei ja vergleichweise lächerlich
    > (verglichen
    > > mit dem Aufbau einer Webseite), ließ er dabei nicht gelten, ebensowenig
    > wie
    > > meine Ansicht, das ja die Suchmaschine auch nicht den Content selbst
    > > verwertet, schliesslich erstellt ja Google kein eigenes
    > "journalistisches
    > > Werk" und verkauft dieses.

    Ja, der Aufwand für eine robots.txt ist gering, aber auch da muss ich mal den Advokat des Teufels spielen: warum sollte ich als Webseitenbetreiber mehr Aufwand -egal wie gering- haben, um ein Opt-Out zu machen? Im Grunde genommen sollte man sich auf diese Argumentationsebene nicht begeben, weil es um das Prinzip geht, ob Google oder Suchmaschine X Inhalte indizieren darf, solange das nicht explizit untersagt wird oder ob das so eben nicht geht. Zu sagen, ein Opt-Out sei ja technisch einfach zu machen, zieht an der Stelle nicht.

    Und was die Verwertung betrifft: da kann man eben durchaus argumentieren, dass Google von den Inhalten profitiert, da diese das Google-Angebot überhaupt erst interessant machen.

  10. Re: Ein ganz anderer Ansatz...

    Autor: GodsBoss 18.02.14 - 19:40

    > Ich dachte eigentlich, dass man beim Thea LSR als häufiger Internetnutzer
    > nur einer Meinung sein kann, aber so kann man sich irren.

    Ja, es gibt durchaus verquere Gestalten. Mein ehemaliger Nachbar, der aus dem Printbereich kam und später in den Webbereich wechselte, war richtig wütend, als er herausbekam, dass die Schriftgröße in den Browsern vom Nutzer eingestellt werden kann, auch gegen die Einstellungen des Webseitengestalters und wollte das unbedingt unterbinden. Der hätte lieber gehabt, dass Leute die Seite dann eben nicht nutzen können, statt dass sie nicht so aussieht, wie er das möchte.

    > Habe mich gerade mit einem Kollegen unterhalten seine Meinung dazu:
    > Wer hat es der Suchmaschine eigentlich erlaubt, dass sie meine Webseite
    > durchsuchen darf?

    Dazu ist mir direkt eingefallen, was violator schon geschrieben hat: Wer hat es den Besuchern erlaubt, die Seite zu besuchen? Eine Webseite ist einfach öffentliche Information. Wenn das nicht eingeschränkt ist, darf die jeder besuchen.

    Wer Informationen nicht öffentlich sehen will, darf sie nicht veröffentlichen. Wer sie öffentlich machen will, kann eine Webseite ohne Zugriffsbeschränkungen erstellen. Wer was dazwischen haben will, muss sich eben Arbeit machen.

    > Es könne ja nicht angehen, dass man erst etwas konfigurieren müsse, damit
    > andere (die Suchmaschinen) nicht mit dem eigenen Content Geld verdienen
    > könnten.

    Das ist eine merkwürdige Darstellung des Sachverhalts. Eine Suchmaschine ist eine wichtige Schnittstelle zwischen den Nutzern und den Webseiten. Im Fall Google wird diese Dienstleistung eben damit "bezahlt", dass sich Nutzer neben den Suchergebnissen noch Werbung anschauen.

    > Meine Meinung, man wolle ja schliesslich "gefunden" werden, wenn man eine
    > Webseite ins Internet stelle und der administrative Mehraufwand duch das
    > konfigurieren der robots.txt sei ja vergleichweise lächerlich (verglichen
    > mit dem Aufbau einer Webseite), ließ er dabei nicht gelten, ebensowenig wie
    > meine Ansicht, das ja die Suchmaschine auch nicht den Content selbst
    > verwertet, schliesslich erstellt ja Google kein eigenes "journalistisches
    > Werk" und verkauft dieses.

    Nun, wenn das so einfach ist, dann lass' seine Argumente eben auch einfach nicht gelten.

    > Wie seht ihr das ?
    > Somit müssten ja alle Webseiten explizit erlauben ob Sie indiziert werden
    > dürften oder nicht, meiner Meinung nach schliesst das dann allerdings auch
    > eine Bezahlung für den indizierten Content aus.

    Ich halte das für grob unsinnig. Das würde ja lediglich zwei Möglichkeiten der Webseiten-Nutzung beinhalten - nehmen wir an, eine Dritte käme dazu, soll die explizit erlaubt werden müssen oder implizit erlaubt sein?
    Außerdem ist es vollkommen willkürlich, das bloße Anschauen implizit zu erlauben und für das Indizieren ein explizites Nachfragen zu verlangen. Warum nicht umgekehrt?

    Letztlich halte ich ohnehin ein Web, in dem jeder sehr leicht Inhalte veröffentlichen kann, ohne sich große Gedanken drum zu machen, wie man dann an seine Seiten kommt, für wertvoller für die Menschheit als eines mit restriktivem Rechte-System.

    Reden ist Silber, Schweigen ist Gold, meine Ausführungen sind Platin.

  11. Re: Ein ganz anderer Ansatz...

    Autor: Anonymer Nutzer 18.02.14 - 19:51

    hyperlord schrieb:
    --------------------------------------------------------------------------------
    >> Ja, der Aufwand für eine robots.txt ist gering, aber auch da muss ich mal
    > den Advokat des Teufels spielen: warum sollte ich als Webseitenbetreiber
    > mehr Aufwand -egal wie gering- haben, um ein Opt-Out zu machen? Im Grunde
    > genommen sollte man sich auf diese Argumentationsebene nicht begeben, weil
    > es um das Prinzip geht, ob Google oder Suchmaschine X Inhalte indizieren
    > darf, solange das nicht explizit untersagt wird oder ob das so eben nicht
    > geht. Zu sagen, ein Opt-Out sei ja technisch einfach zu machen, zieht an
    > der Stelle nicht.

    Das Argument könnte man gelten lassen, wenn die Verlage auf der anderen Seite nicht SEO betreiben würden.
    Und übrigens, sowas wie die robots.txt lässt sich bei ordentlichen CMS generell für die Seite machen.
    Im Zweifel müssten die Seitenbetreiber nur einmal die robots.txt anpassen und dann für Inhalte, die sie findbar haben wollen, einfach eine gegenteilige Robots.txt erstellen.

    Übrigens, die Zeitungen die da gerade einen auf Stunk machen, sind eigentlich nur die, die DPA-Meldungen umformulieren (gerne auch mal falsch), Clickbaiting betreiben und auch sonst gerne mal "bezahlte" Inhalte haben und auch sonst eher durch schlechte Recherche auffallen.

    Mit anderen Worten, all diejenigen, denen niemand nachtrauern würde, wenn sie verschwinden würden und wahrscheinlich auch schon deshalb Probleme haben, weil immer weniger Leute auf ihre Seiten kommen. (Clickbaiting funktioniert auch nur eine Zeit lang, irgendwann klicken die meisten Leute gar nicht mehr).

    Gut, von daher, diesen Newssites dürfte Google nur noch bedingt helfen.
    Weil die meisten Leuten, von vornherein nicht auf die entsprechenden Links klicken.

  12. Re: Ein ganz anderer Ansatz...

    Autor: Trockenobst 18.02.14 - 23:22

    hyperlord schrieb:
    --------------------------------------------------------------------------------
    > es um das Prinzip geht, ob Google oder Suchmaschine X Inhalte indizieren
    > darf, solange das nicht explizit untersagt wird oder ob das so eben nicht
    > geht. Zu sagen, ein Opt-Out sei ja technisch einfach zu machen, zieht an
    > der Stelle nicht.

    Das Internet ist beim Port 80 offen. Das schaltest Du frei wenn Du einen Server mietest und bereit bist den Traffic zu zahlen. Somit möchtest Du am Netz teilnehmen.
    Willst Du das nicht, machst Du eine Paywall hin. Dann ist der Port 80 beschränkt. Oder man nutzt die Robot.txt. Das sind die globalen Regeln des Netzes.

    Natürlich kann man ganz Deutsch irgendein Landgericht dazu bringen, diese globale Regeln wegzuwischen und zu sagen "Wenn Du auf meinen Port 80 gehst ohne einen dreiseitigen Vertrag sonst kostet das Pro kb 1000¤" kann man das gerne machen und dann ist das Internet in Deutschland ab Zeitpunkt der Gültigkeit des Urteils tot - bis der Staat oder der BGH eine Gegenposition veröffentlicht.

    Ich meine wirklich tot. Kein Mensch wird sich dieser Unsicherheit beugen. Web.de Yahoo.de, alles was Content produziert ist raus. Das wird der totale GAU für diese Verlage. IP-Hotlisten für NoScript und Adblocker. Firmennetze werden für Verlage gesperrt, die nicht auf der Liste sind.

    Genau das versuchen die Verlage: sie versuchen Regeln die bisher zu dem immensen Wachstum und gesellschaftlichen Verbindungen geführt haben für die arroganten Position zu opfern, das sie Pferdekutscher eine Sonderrolle haben, die angemessen finanziert gehört. Niemand will zahlen. Also soll irgendwer zahlen.

    Die Zündeln mit dem Feuer und am Ende wird das EGH sagen: wenn Du nicht mitspielen willst bei Port 80: Paywall und Robot.txt. Wenn nicht: schalte die Server ab, dein Recht. Und genau so soll das Netz funktionieren. Nicht anders. Nicht T-lekom und B*ld.de Sonderwege.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. akf bank GmbH & Co KG, Wuppertal
  2. TenneT TSO GmbH, Bayreuth
  3. Haufe Group, Leipzig
  4. VDE Verband der Elektrotechnik Elektronik Informationstechnik e. V., Frankfurt am Main

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. 529,00€ (zzgl. Versand)
  2. 344,00€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Indiegames-Rundschau: Epische ASCII-Abenteuer und erlebnishungrige Astronauten
Indiegames-Rundschau
Epische ASCII-Abenteuer und erlebnishungrige Astronauten

In Stone Story RPG erwacht ASCII-Art zum Leben, die Astronauten in Oxygen Not Included erleben tragikomische Slapstick-Abenteuer, dazu kommen Aufbaustrategie plus Action und Sammelkartenspiele: Golem.de stellt neue Indiegames vor.
Von Rainer Sigl

  1. Indiegames-Rundschau Von Bananen und Astronauten
  2. Indiegames-Rundschau Verloren im Sonnensystem und im Mittelalter
  3. Indiegames-Rundschau Drogen, Schwerter, Roboter-Ritter

Zephyrus G GA502 im Test: Das Gaming-Notebook, das auch zum Arbeiten taugt
Zephyrus G GA502 im Test
Das Gaming-Notebook, das auch zum Arbeiten taugt

Mit AMDs Ryzen 7 und Nvidia-GPU ist das Zephyrus G GA502 ein klares Gaming-Gerät. Überraschenderweise eignet es sich aber auch als mobiles Office-Notebook. Das liegt an der beeindruckenden Akkulaufzeit.
Ein Test von Oliver Nickel

  1. Vivobook (X403) Asus packt 72-Wh-Akku in günstigen 14-Zöller
  2. ROG Swift PG35VQ Asus' 35-Zoll-Display nutzt 200 Hz, HDR und G-Sync
  3. ROG Gaming Phone II Asus plant neue Version seines Gaming-Smartphones

Arbeit: Hilfe für frustrierte ITler
Arbeit
Hilfe für frustrierte ITler

Viele ITler sind frustriert, weil ihre Führungskraft nichts vom Fach versteht und sie mit Ideen gegen Wände laufen. Doch nicht immer ist an der Situation nur die Führungskraft schuld. Denn oft verkaufen die ITler ihre Ideen einfach nicht gut genug.
Von Robert Meyer

  1. IT-Forensikerin Beweise sichern im Faradayschen Käfig
  2. Homeoffice Wenn der Arbeitsplatz so anonym ist wie das Internet selbst
  3. Bundesagentur für Arbeit Informatikjobs bleiben 132 Tage unbesetzt

  1. Telekom: 30 Millionen Haushalte mit Vectoring und FTTH erreicht
    Telekom
    30 Millionen Haushalte mit Vectoring und FTTH erreicht

    30 Millionen Haushalte können von der Telekom schnelles Internet bekommen. 1,1 Millionen davon sind für den Anschluss an das Glasfaser-Netz der Telekom vorbereitet.

  2. Google: Android Q heißt einfach Android 10
    Google
    Android Q heißt einfach Android 10

    Schluss mit den Süßigkeiten: Google bricht mit der zehn Jahre alten Tradition, seine Android-Versionen nach Naschwaren zu benennen. Aus Android Q wird dementsprechend einfach Android 10, dessen finaler Release in den kommenden Wochen erscheinen soll.

  3. Keine Gigafactory: Tesla will offenbar Autos in Niedersachsen bauen
    Keine Gigafactory
    Tesla will offenbar Autos in Niedersachsen bauen

    Der Elektroautohersteller Tesla erwägt den Bau einer Fabrik in Niedersachsen. Eine Giga-Fabrik für Akkuzellen und Batterien ist allerdings nicht geplant.


  1. 17:32

  2. 17:10

  3. 16:32

  4. 15:47

  5. 15:23

  6. 14:39

  7. 14:12

  8. 13:45