1. Foren
  2. Kommentare
  3. Politik/Recht
  4. Alle Kommentare zum Artikel
  5. › 20 Jahre Schutzfrist: EU…

Gerne. Tschüß. Aber zwingend per robots.txt opt-out.

  1. Thema

Neues Thema Ansicht wechseln


  1. Gerne. Tschüß. Aber zwingend per robots.txt opt-out.

    Autor: lear 31.08.16 - 20:14

    Wer die Aggregatoren nicht ausdrücklich blockt, hat keinen Anspruch seinen verdeckten Willen (den er oder auch nicht evtl. mal irgendwo oder wo anders notariell oder formlos hinter- oder überlegt hat) durchzusetzen.

    Falls die Richtlinie oder die Umsetzungen solches doch hergäben, stünden wir vor dem Bankrott des Rechtsstaates um die Technologie der Gegenwart den Idioten von gestern zu opfern.

    Und dann schauen wir mal, was passiert, wenn die Typen, die Euch eure technologische Zivilisation realisieren und unterhalten, so richtig angepißt sind.
    Ein paar Kindergärten, Waisenhäuer, Krankenhäuser, Tierheime, ... dürften sich schon mal über gewaltige Finanzspritzen freuen. Ein hoch auf Western Union und die "Sicherheits"architektur des Finanzwesens.

    >-)

  2. Re: Gerne. Tschüß. Aber zwingend per robots.txt opt-out.

    Autor: Trockenobst 01.09.16 - 01:35

    lear schrieb:
    --------------------------------------------------------------------------------
    > Falls die Richtlinie oder die Umsetzungen solches doch hergäben, stünden
    > wir vor dem Bankrott des Rechtsstaates um die Technologie der Gegenwart den
    > Idioten von gestern zu opfern.

    Es gibt keinen Kontrahierungszwang in der Rechtsprechung der EU, jedenfalls nicht zwischen nicht-staatlichen Firmen untereinander und nicht bei einer Dienstleistung (Suche) nicht nicht staatlich relevant ist.

    Microsoft musste nicht Netscape helfen oder bezahlen, sondern "nur" Zugang geben.
    Sie mussten ihre Schnittstellen offenlegen, nicht die Samba Entwicklung finanzieren.

    Somit ist es absurd zu glauben man könnte über diesen Weg eine kostenpflichtige Vertragsverpflichtung herbei phantasieren.

    Google und Co kennen 100% aller Verlagsserveradressen. Google sagt, sie brauchen ein Keyword im robot.txt das zeigt dass die Snippets URL+10 Wörter frei sind.

    Die großen Zocker warten darauf das Google sie nicht mehr indext. Das geht dann hoch bis zum EGH. Google sitzt das aus. Einige Verlage sind bis dahin Pleite.

    Die es dann bis zum EGH schaffen, müssen dann erklären wie sie auf das Konzept eines Kontrahierungszwanges kommen, dass es in der EU nicht gibt. Auch nicht für angebliche Monopole. Google bietet ihnen schon kostenlosen Zugang. Mehr ist in der EU nicht drin, weil es gegen das Recht verstößt, freie Verträge auszuhandeln.



    1 mal bearbeitet, zuletzt am 01.09.16 01:40 durch Trockenobst.

  3. Re: Gerne. Tschüß. Aber zwingend per robots.txt opt-out.

    Autor: AllDayPiano 01.09.16 - 06:45

    lear schrieb:
    --------------------------------------------------------------------------------
    > Wer die Aggregatoren nicht ausdrücklich blockt, hat keinen Anspruch seinen
    > verdeckten Willen (den er oder auch nicht evtl. mal irgendwo oder wo anders
    > notariell oder formlos hinter- oder überlegt hat) durchzusetzen.

    Es gibt hier aber keine Konkludenz, die Deine Argumentation voraussetzt.

    Die Rechtslage ist eindeutig: Wenn das LSR gilt, dann darf Google nicht mehr aggregieren. Tun sie es trotzdem, gibt's jede Menge Ärger. Selbst wenn das hoch bis vor den BGH gefochten wird, so wird es vorinstanzlich genug Gerichte geben (AG, LG, OLG), die die in deutsches recht überführte europäische Gesetzgebung dahingehend interpretieren, dass Google eine Erlaubnis braucht. Hat Google diese nicht, wird es zur Not per einstweiliger Anordnung durchgesetzt. Hier drohen dann sehr hohe Zwangsgelder, die auch Google weh tun!

    Es wird schlichtweg so kommen, wie es kommen muss: Ohne Identifikator (z.B. robots keyword) darf Google und Co. zukünftig nicht mehr aggregieren. Dafür muss dann wiederum kein Verlag mehr ein Nutzungsrecht einräumen, weil durch diese Option der Verlag seine Willenserklärung abgegeben hat.

    Unterm Strich ändert sich also gar nichts, außer das Springer merkt, dass es doch scheiße ist, nicht mehr gelistet zu werden, und jeder seine robots.txt aufpoliert, um wieder gefunden zu werden.

  4. Re: Gerne. Tschüß. Aber zwingend per robots.txt opt-out.

    Autor: lear 01.09.16 - 08:01

    Das ist doch Schwachsinn.
    Bislang hat die gewaltige Mehrheit der Webseiten keine Kontrolle durch eine robots.txt, dh. alle Welt - und zwar international, weil Springer ja auch Zeitung.co.uk besitzen könnte - soll sich plötzlich explizit im Internet finden lassen, weil die EU ein komisches Gesetz erläßt?
    Grotesk und unrealistisch.

  5. Re: Gerne. Tschüß. Aber zwingend per robots.txt opt-out.

    Autor: lear 01.09.16 - 08:06

    Trockenobst schrieb:
    --------------------------------------------------------------------------------

    > Google und Co kennen 100% aller Verlagsserveradressen.
    Das Leistungsschutzrecht betrifft aber *jeden*.
    *Jeder* müßte sich per robots.txt einbuchen.
    Du siehst mein Problem?

    Und ganz ehrlich: Was die Aufrechterhaltung allgemeiner Rechtsgrundsätze und der Bestimmungen von Maastricht angeht - darauf würde ich mich nicht mehr verlassen.

    Insofern, auch wenn es mir bislang noch nichtmal um den (bislang nicht geforderten) Kontrahierungszwang sondern schlicht die grundlegene Funktionalität des Internets geht, abwarten ....

  6. Keine Kontrolle durch robots.txt?

    Autor: SJ 01.09.16 - 08:22

    [quote]
    Bislang hat die gewaltige Mehrheit der Webseiten keine Kontrolle durch eine robots.txt,
    [/quote]

    Versteh nicht recht was du meinst. Eigentlich hat jeder Kontrolle durch robots.txt

    --
    Wer all meine Fehler findet und die richtig zusammensetzt, erhält die geheime Formel wie man Eisen in Gold umwandeln kann.

  7. Re: Keine Kontrolle durch robots.txt?

    Autor: Avarion 01.09.16 - 08:27

    Er will darauf hinaus das die wenigsten Seiten eine robots.txt aktuell vorhalten.

    D.h. Jeder inhaber einer Internetseite der möchte das sein Content gelistet wird (also die Mehrheit) muss jetzt eine Datei anlegen. Da ist das Problem das ein großer Teil der Leute die sich irgendwo eine Seite billig zusammengeklickt haben vermutlich nicht einmal wissen was eine robot.txt ist und wie man sie erstellt.

  8. Re: Keine Kontrolle durch robots.txt?

    Autor: AllDayPiano 01.09.16 - 08:32

    Avarion schrieb:
    --------------------------------------------------------------------------------
    > Er will darauf hinaus das die wenigsten Seiten eine robots.txt aktuell
    > vorhalten.
    >
    > D.h. Jeder inhaber einer Internetseite der möchte das sein Content gelistet
    > wird (also die Mehrheit) muss jetzt eine Datei anlegen. Da ist das Problem
    > das ein großer Teil der Leute die sich irgendwo eine Seite billig
    > zusammengeklickt haben vermutlich nicht einmal wissen was eine robot.txt
    > ist und wie man sie erstellt.

    Das ist dann aber schlichtweg pech und ein ganz normaler Effekt bei der Neueinführung solcher Dinge. Dann wird es halt mal ne Zeit lang ziemlich leer - die Leute werden dann schon lernen, dass man das braucht.

    Insgesamt stimme ich aber zu: Eigentlich bräuchte es ein explizites opt-out statt eines opt-in.

  9. Re: Keine Kontrolle durch robots.txt?

    Autor: ibsi 01.09.16 - 08:55

    Das Internet funktioniert so aber nicht. Deshalb muss es genau anders herum sein. Wer NICHT gefunden werden will, der muss Crawler ausschließen.

  10. Re: Keine Kontrolle durch robots.txt?

    Autor: AllDayPiano 01.09.16 - 09:17

    ibsi schrieb:
    --------------------------------------------------------------------------------
    > Das Internet funktioniert so aber nicht. Deshalb muss es genau anders herum
    > sein. Wer NICHT gefunden werden will, der muss Crawler ausschließen.

    Dann macht man halt, dass es in Zukunft so funktioniert. Wo ist das Problem?

  11. Re: Keine Kontrolle durch robots.txt?

    Autor: ibsi 01.09.16 - 09:29

    Wo das Problem ist? Die Mehrheit MÖCHTE gefunden werden. Nur ein paar wollen es nicht. Also opt-out. Nicht opt-in.
    Es ist dämlich und es zwingt nicht nur die zu einer Änderung ihrer Seite, die dieses dumme Gesetzt wollen, sondern besonders ALLE ANDEREN. Wie gesagt, es ist ein richtig dämliches Gesetz.

  12. Re: Keine Kontrolle durch robots.txt?

    Autor: lear 01.09.16 - 14:07

    Informationen ausdrücklich öffentlich zugänglich zu machen impliziert den Willen rezipiert zu werden. Das ist nicht konkludent, daß ist gesunder Menschenverstand. Ansonsten haue ich demnächst jedem eine rein, der das nicht explizit ausschließt. Er hat's ja so gewollt.

    Eine Regelung, die dem zuwiderläuft, erhebt den geheimen Vorbehalt zur Willenserklärung. Damit ist das Recht am Ende. Wenn Du das nicht kapierst, tut es mir leid. Allerdings gewinne ich zunehmend den Eindruck, daß Du keineswegs so dämlich bist, sondern einfach nur rumtrollen willst.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. ip&more GmbH, München, Ismaning
  2. OEDIV KG, Bielefeld
  3. INEOS Manufacturing Deutschland GmbH, Köln
  4. Staatliche Lotterieverwaltung, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. This War of Mine für 6,99€, Mount & Blade 2: Bannerlord für 42,49€, Tales of Vesperia...
  2. (u. a. Backen zu Ostern, Frühjahrsangebote mit reduzierter Hardware, PC-Zubehör und mehr)
  3. 33€ (Bestpreis!)
  4. (u. a. Fortnite - Legendary Rogue Spider Knight Outfit + 2000 V-Bucks Bundle (DLC) - Xbox One...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Homeschooling-Report: Wie Schulen mit der Coronakrise klarkommen
Homeschooling-Report
Wie Schulen mit der Coronakrise klarkommen

Lösungen von Open Source bis kommerzielle Lernsoftware, HPI-Cloud und Lernraum setzen Schulen derzeit um, um ihre Schüler mit Aufgaben zu versorgen - und das praktisch aus dem Stand. Wie läuft's?
Ein Bericht von Stefan Krempl

  1. Kinder und Technik Elfjährige CEO will eine Milliarde Kinder das Coden lehren
  2. IT an Schulen Intelligenter Stift zeichnet Handschrift von Schülern auf
  3. Mädchen und IT Fehler im System

Coronakrise: IT-Freelancer müssen als Erste gehen
Coronakrise
IT-Freelancer müssen als Erste gehen

Die Pandemie schlägt bei vielen IT-Freiberuflern schneller zu als bei Festangestellten. Schon die Hälfte aller Projekte sind gecancelt. Ãœberraschung: Bei der anderen Hälfte läuft es weiter wie bisher. Wie das?
Ein Bericht von Peter Ilg

  1. Coronakrise SPD-Chefin warnt vor Panik durch ungenaues Handytracking
  2. Buglas Corona-Pandemie zeigt Notwendigkeit der Glasfaser
  3. Coronavirus Media Markt und Saturn stoppen Mietzahlungen

Next-Gen: Welche neue Konsole darf's denn sein?
Next-Gen
Welche neue Konsole darf's denn sein?

Playstation 5 oder Xbox Series X: Welche Konsole besser wird, wissen wir auch noch nicht. Grundüberlegungen zur Hardware und den Ökosystemen.
Ein IMHO von Peter Steinlechner

  1. Elektroschrott Kauft keine kleinen Konsolen!
  2. IMHO Porsche prescht beim Preis übers Ziel hinaus