1. Foren
  2. Kommentare
  3. Politik/Recht
  4. Alle Kommentare zum Artikel
  5. › Urheberrecht: Uploadfilter und…
  6. Thema

"Uploadfilter" - Titel

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. Re: "Uploadfilter" - Titel

    Autor: teenriot* 15.04.19 - 18:00

    > Wo wird oder wurde denn bitte impliziert, dass Uploadfilter die einzige
    > und letztmögliche Entscheidungsgewalt sein werden oder müssen.

    Really? Das ist doch albern.

    Erklär mal wie die ganze Argumentation betreffs der technischen Unzulänglichkeit der Algorithmen und fehlerhafter Blockade von Uploads funktionieren soll, wenn Uploadfilter nicht als finale maschinelle Entscheidungsinstanz von der Allgemeinheit verstanden und dahingehend in der Bedeutung geprägt wurde. Viel Spaß, es wird dir schlicht unmöglich sein.

  2. Re: "Uploadfilter" - Titel

    Autor: Anonymer Nutzer 15.04.19 - 18:17

    Klar, alle die anderer Meinung sind als ich müssen automatisch Idioten sein...

    Kann es sein, dass Du Dir hier etwas schönredest?

    Du nimmst einfach an, dass die meisten Fälle ganz einfach zu prüfen sein werden. Ist das nicht etwas naiv? Bei jedem gemeldeten Fall muss die Platform doch als allererstes mal die Rechtmässigkeit der Meldung prüfen, sprich, ist der Melder überhaupt der eigentliche Urheber. Und wie will die Platform - kann auch ein nicht gewinnorientiertes, privates Forum sein - prüfen ob die Melder wirklich auch die Urheber des Materials sind?

    Du stellt Dir das Ganze viel zu einfach vor, fürchte ich. Es wird alles einfach durch Zauberei gleich richtig entscheiden, oder wie?

    PS: Auch ein menschlicher Entscheider/Freigeber ist nichts anderes als ein Uploadfilter. Ich verstehe nicht, warum Du Dich an diesem Wort derart aufgeilst.

  3. Re: "Uploadfilter" - Titel

    Autor: teenriot* 15.04.19 - 18:39

    azeu schrieb:
    --------------------------------------------------------------------------------
    > Klar, alle die anderer Meinung sind als ich müssen automatisch Idioten
    > sein...

    Sagt wer, du?

    > Kann es sein, dass Du Dir hier etwas schönredest?

    Kann es sein, dass Du Dir hier etwas schlechtredest?
    Du schmeißt einfach mal so in den Raum, dass JEDER Content global manuell zu prüfen sei. Das ist offensichtlich Quatsch und ich behaupte mal, dass dir das auch selbst bewusst ist/war.

    > Du nimmst einfach an, dass die meisten Fälle ganz einfach zu prüfen sein
    > werden.
    > Ist das nicht etwas naiv?

    Ja wird es auch sein. Der Algorithmus liefert den Ausschnitt der verdächtig ist, und das vermeintliche Original. In den allermeisten wird man einfach sagen können, ja das ist definitiv eine Kopie oder nein das ist definitiv keine Kopie. Bei Mashups, Weiterverarbeitung und so weiter kann es sicherlich durchaus schwieriger sein, dass wird naturgemäß nur ein kleiner Teil sein. Das Verhältnis aus Weiterverarbeitung und stumpfer Kopie liegt bei 1 : X

    Dazu muss man nur die Videos betrachten bei denen der filter anschlägt, dort nur die beanstandeten Stellen, die meistens auch nicht komplett. Da bleibt von deinem " jeden Content der irgendwo auf der Welt" nicht mehr viel übrig.

    > Bei jedem gemeldeten Fall muss die
    > Platform doch als allererstes mal die Rechtmässigkeit der Meldung prüfen,
    > sprich, ist der Melder überhaupt der eigentliche Urheber. Und wie will die
    > Platform - kann auch ein nicht gewinnorientiertes, privates Forum sein -
    > prüfen ob die Melder wirklich auch die Urheber des Materials sind?

    Hä? Wir reden von das was ihr als Uploadfilter bezeichnet plus eine zusätzlichen manuelle Endprüfung und nicht von einem Beschwere-/Einspruch- oder Meldesystem.

    > Du stellt Dir das Ganze viel zu einfach vor, fürchte ich. Es wird alles
    > einfach durch Zauberei gleich richtig entscheiden, oder wie?

    Nein durch Menschen, die bei so etwas eine bessere Hardware haben als Maschinen wenn es um Mustererkennung geht. Da braucht's keine Zauberei.

    > PS: Auch ein menschlicher Entscheider/Freigeber ist nichts anderes als ein
    > Uploadfilter. Ich verstehe nicht, warum Du Dich an diesem Wort derart
    > aufgeilst.

    Ich "geile" mich an falschen Aussagen auf, die in einer Tour unters Volk gebracht werden, was daran liegt das man Wörtern bestimmte Bedeutungen gegeben hat.

    Wenn ich und mit mir viele andere in einer Tour dem dem Wort 'Forist', die Bedeutung 'Bezahlschreiber' geben und ich dich 'Forist' nenne, wobei dir bewusst ist, dass ich damit 'Bezahlschreiber' meine, dann wäre das eine unzulässige falsche Behauptung und ich könnte mich nicht damit rausreden, dass 'Forist' nur 'Forist' meint.
    (Überspitzes Beispiel, ich bezeichne dich nicht als Bezahlschreiber, möchte das in keiner Form auch nur andeuten und denke auch nichts in die Richtung)

  4. Re: "Uploadfilter" - Titel

    Autor: Sybok 15.04.19 - 18:42

    Pixxel schrieb:
    --------------------------------------------------------------------------------
    > Du glaubst dass Uploadfilter nicht automatisch als Programm eingesetzt
    > werden? Denkst du da sitzen dann ein paar Menschen mit einem Ordner vor
    > sich liegen und blättern dann dadrin rum ob da irgendwo das drin ist das
    > sie gerade kontrollieren müssen?

    Ja, glaubt er. Er hat sich schon mehrfach dazu geäußert, und sieht auch kein Problem darin, dass allein Youtube die Zahl seiner Mitarbeiter vervielfachen müsste, um diese Aufgabe zu bewältigen - sogar mit den Filtern.

    > Aber klar bei einem Telefonat werden ja in dee Zentrale noch die beiden
    > Leitungen händisch zusammengesteckt und Emails werden von der Post nach
    > Empfänger sortiert

    Alles machbar, wenn man nur teenriot* fragt, wie!

  5. Re: "Uploadfilter" - Titel

    Autor: Sybok 15.04.19 - 18:45

    teenriot* schrieb:
    --------------------------------------------------------------------------------
    > Mensch, man hat ja so viel Ahnung vom Thema, kennt sich voll aus und die
    > Politiker haben ja alle keinen Plan und dann fällt einem nicht mehr ein als
    > das...
    >
    > Es ist auch denkbar, dass nicht jeder Content von Menschen untersucht wird,
    > sondern das eine Algorithmus entsprechendes Material markiert, welches
    > einem Menschen daraufhin zur finalen Entscheidung vorgelegt wird. Da ist
    > man dann im Promillebereich des Contents der zu prüfen ist, wobei davon
    > wiederum der allergrößte Teil als eindeutige Ja/Nein-fälle sind die nicht
    > aufwendig geprüft werden müssen. Die tatsächlichen aufwendigen Prüfungen
    > die entsprechend Expertise vorrausetzen dürftest du wohl irgend in der
    > zweiten oder dritten Kommastelle suchen.

    Auweia, da hat aber jemand so gar keine Ahnung von der Komplexität von Copyright-Ansprüchen. Aber passt zu dem, was ich bisher so lesen durfte.

  6. Re: "Uploadfilter" - Titel

    Autor: Anonymer Nutzer 15.04.19 - 18:57

    > Du schmeißt einfach mal so in den Raum, dass JEDER Content global manuell zu prüfen sei.

    Nein, ich schmeiße nur in den Raum, dass es bei JEDEN Content, der global irgendwo hochgeladen wird - nicht nur bei YouTube - passieren kann, dass er geprüft werden muss.

    > Der Algorithmus liefert den Ausschnitt der verdächtig ist, und das vermeintliche Original. In den allermeisten wird man einfach sagen können, ja das ist definitiv eine Kopie oder nein das ist definitiv keine Kopie.

    Unter der Voraussetzung, dass die Plattform den Originalcontent kennt. Was ist aber, wenn der Originalcontent eben nicht bekannt ist? Wie will die Maschine/der Mensch die Rechtmässigkeit des Urheberanspruchs prüfen? Hat jede Platform eine Horde von Juristen die das professionell abwickeln können?

  7. Re: "Uploadfilter" - Titel

    Autor: waldschote 15.04.19 - 19:46

    > Kann es sein, dass Du Dir hier etwas schlechtredest?
    > Du schmeißt einfach mal so in den Raum, dass JEDER Content global manuell
    > zu prüfen sei. Das ist offensichtlich Quatsch und ich behaupte mal, dass
    > dir das auch selbst bewusst ist/war.
    >
    Ja, jedes Video, jeder Text, jeder Ton und jedes Bild muss geprüft werden, das in der EU abgerufen werden kann. Denn nur wenn man es prüft kann man entscheiden ob es Schutzgegenstände enthält oder nicht. Wenn es nicht geprüft wird, kann man die Entscheidung auch nicht treffen.

    Und ja. Die 3 Ausschlusskriterien helfen hier nicht. Da diese explizit eine UND-Verknüpfung sind und eine der 3 ein Ablaufdatum haben. Nämlich 3 Jahre. Danach sind alle 3 Kriterien wirkungslos. D.h. jede Plattform, egal ob groß oder klein, die älter ist als 3 Jahre muss jeden User Generated Content prüfen.

    Tut sie es nicht, haftet sie im vollen Umfang!

    > > Du nimmst einfach an, dass die meisten Fälle ganz einfach zu prüfen sein
    > > werden.
    > > Ist das nicht etwas naiv?
    >
    > Ja wird es auch sein. Der Algorithmus liefert den Ausschnitt der verdächtig
    > ist, und das vermeintliche Original. In den allermeisten wird man einfach
    > sagen können, ja das ist definitiv eine Kopie oder nein das ist definitiv
    > keine Kopie. Bei Mashups, Weiterverarbeitung und so weiter kann es
    > sicherlich durchaus schwieriger sein, dass wird naturgemäß nur ein kleiner
    > Teil sein. Das Verhältnis aus Weiterverarbeitung und stumpfer Kopie liegt
    > bei 1 : X
    >
    Wenn die Entscheidung leicht zu treffen ist, wird der Algorithmus gar nichts liefern. Wobei es für einen Algorithmus kein "leicht" oder "schwer" gibt. Ein bekannter Michael Jackson Song ist für diesen nämlich das gleiche wie der persönliche Track aus dem Hobby Keller. Für den Algorithmus gibt es nur einen Schwellwert. Der angibt ob die Erkennung ausreichend gut ist oder nicht. Im Zweifel wird immer gefiltert solange nicht zweifelsfrei feststeht das nichts enthalten ist. Rein aus rechtlicher Sicherheit. Denn eine Klage wegen Verletzung durch einen Medienkonzern ist teurer als eine eMail mit Beschwerde von Tante Emma.

    Darüber hinaus hast du glaub ich nicht verstanden, oder nicht im Blick was Täglich passiert. Alleine bei Youtube.. wirklich nur dort, werden 300 Stunden pro MINUTE hochgeladen. D.h. wenn ein Mitarbeiter 1 Video bearbeitet, sind bereits über 300h weiteres Material eingetrudelt. Selbst wenn nur 1% davon per Mensch geprüft werden muss, brauchst du eine Arbeiterschaft die unbezahlbar ist.

    Kannst du vergessen das die Firmen da Menschen einstellen die das machen.

    > Dazu muss man nur die Videos betrachten bei denen der filter anschlägt,
    > dort nur die beanstandeten Stellen, die meistens auch nicht komplett. Da
    > bleibt von deinem " jeden Content der irgendwo auf der Welt" nicht mehr
    > viel übrig.
    >
    Ja, selbst wenn man nur diesen kleinen Ausschnitt betrachtet, dauert die Prüfung lange. Wenn der Mitarbeiter nicht rein zufällig den jeweiligen Schutzgegenstand kennt, wird es eine schöne Aufgabe heraus zu finden was überhaupt in diesem Ausschnitt als Schutzgegenstand beanstandet wurde und wer die Rechte daran hält. Eines ist mal sicher. In unter einer Minute ist das nicht erledigt.

    > Hä? Wir reden von das was ihr als Uploadfilter bezeichnet plus eine
    > zusätzlichen manuelle Endprüfung und nicht von einem Beschwere-/Einspruch-
    > oder Meldesystem.
    >
    > > Du stellt Dir das Ganze viel zu einfach vor, fürchte ich. Es wird alles
    > > einfach durch Zauberei gleich richtig entscheiden, oder wie?
    >
    > Nein durch Menschen, die bei so etwas eine bessere Hardware haben als
    > Maschinen wenn es um Mustererkennung geht. Da braucht's keine Zauberei.
    >
    Der Mensch ist derzeit noch besser in der Mustererkennung als die Maschine. Allerdings kann er auch nur jene Muster erkennen die er kennt. Und selbst da wird mehr gut geraten als tatsächlich erkannt.
    Das Problem ist dabei, wie oben schon geschrieben, nicht das ein Mensch die Aufgabe nicht erfüllen könnte.

    Aber so oder so. Ob nun Mensch oder Maschine. Es ist und bleibt ein Upload Filter. Dieser (egal ob nun eine natürliche Person (um Geschlechtsneutral zu bleiben), oder eine Maschine aka. Software) muss jegliche eingehenden Inhalte prüfen und entscheiden ob veröffentlicht werden darf oder nicht. Das ist und bleibt die Beschreibung eines Filters. Da dies bereits beim Upload geschehen soll ist es eben ein Upload-Filter.

  8. Re: "Uploadfilter" - Titel

    Autor: teenriot* 15.04.19 - 20:03

    azeu schrieb:
    --------------------------------------------------------------------------------
    > > Du schmeißt einfach mal so in den Raum, dass JEDER Content global manuell
    > zu prüfen sei.
    >
    > Nein, ich schmeiße nur in den Raum, dass es bei JEDEN Content, der global
    > irgendwo hochgeladen wird - nicht nur bei YouTube - passieren kann, dass er
    > geprüft werden muss.

    Logisch, Ein 'kann' hast du ursprünglich nicht formuliert.

    > Unter der Voraussetzung, dass die Plattform den Originalcontent kennt. Was
    > ist aber, wenn der Originalcontent eben nicht bekannt ist? Wie will die
    > Maschine/der Mensch die Rechtmässigkeit des Urheberanspruchs prüfen? Hat
    > jede Platform eine Horde von Juristen die das professionell abwickeln
    > können?

    Was nicht bekannt ist, muss auch nicht geprüft werden.

  9. Re: "Uploadfilter" - Titel

    Autor: waldschote 15.04.19 - 20:05

    Ja, es gibt schon Möglichkeiten.

    1) Man könnte sich mit jedem Urheber einigen. Das sind auf der Welt weit über 7 Mrd. rechtliche Personen. Egal wie man es dreht oder wendet... es ist unmöglich sich mit allen zu einigen.

    2) Man könnte auf die Prüfung jeglichen Inhaltes welche außerhalb der EU hochgeladen werden verzichten. Allerdings darf man dies dann innerhalb der EU trotzdem nicht zeigen. Was passiert? Richtig. Es wird gefiltert. Gut, ist dann kein Upload-Filter, sondern nennt sich Geo Blocking.

    3) Man verhindert das EU Bürger etwas hochladen können. Dann brauch man keinen Upload-Filter mehr. Allerdings wäre das Internet aus Sicht der EU dann praktisch tot ;) Und... wieder Filter -> Geo Blocking.

    Ich kann dir aber eines sagen was definitiv nicht passieren wird. Kein WB Studio oder sonst einer wird dir als Rechteinhaber eine weltweite Lizenz für die Wiedergabe auf all ihrer Werke ausstellen. Selbst wenn man sich als Betreiber mit einigen hat einigen können, wird man dennoch einen Filter Einsetzen müssen. Denn Fakt ist, es wird niemals der Zustand erreicht werden in dem sich jeder Betreiber mit jedem Rechteinhaber eine Lizenz über jegliche Schutzgegenstände vereinbart haben. Wer das glaubt, der glaubt auch an Rosa Einhörner im Schwarzwald.
    D.h., egal mit wie vielen man sich nun geeinigt hat, man muss dennoch jegliche Inhalte prüfen. Um sicher zu stellen das man jenes Material raus wirft für das man keine Lizenz hat. Das zu prüfende Material wird durch diesen Umstand jedoch nicht weniger.

    Und nur so am Rande. Für die Urheber wird die Kiste auch nicht besser. Denn egal ob nun eine Lizenzvereinbarung getroffen wurde oder nicht, sie müssen ihren kompletten Content bei jedem Betreiber hochladen. Denn nur so kann der Filter auch entscheiden ob es sich bei einem Schutzgegenstand um einen Lizenzierten handelt. Um die zu Prüfende Menge aktiv zu reduzieren führt daher nur ein Weg. Nämlich obigen Punkt 2.

  10. Re: "Uploadfilter" - Titel

    Autor: waldschote 15.04.19 - 20:23

    Ich hab echt keinen Plan was du gegen die Nutzung des Wortes "Uploadfilter" hast.

    Die Richtlinie ist hier eindeutig. Ja, das Wort "Filter" im Allgemeinen wird nicht explizit erwähnt. Wurde absichtlich raus geworfen. Aber am Ende ist das ganze so formuliert das es einen geben muss. Voss selbst spricht gern von "Erkennungsmaßnahmen". Aber was ist das denn groß? Richtig ein Filter. Ein Filter prüft etwas und entscheidet dann Ja/Nein. Der Akt der Prüfung ist die Erkennung.

    Und ja. der maschinelle Filter wird gerade bei den großen Plattformen die finale Entscheidungsgewalt haben. Da die zu prüfende Menge an Daten zu groß wird als das man es mit Menschen machen könnte. Es sei denn du hast vor halb China ein zu stellen ;)

    Es wird zwar eine menschliche Prüfung explizit vorgesehen. Steht so in der Richtlinie. Aber die wird sich darauf beschränken nur jenes Material zu prüfen für die eine Beschwerde eingegangen ist. Nicht jedoch wenn der Algorithmus sich nicht "sicher" ist. Denn aus rein Marktwirschaftlichen Gründen (kannst du drehen und wenden wie du willst) ist alles andere zu teuer.

    Das Wort "Uploadfilter" ist so wie es ist, genau richtig. Denn es beschreibt genau jenes was am Ende passieren muss. Aus rein rechtlichen Gründen.

  11. Re: "Uploadfilter" - Titel

    Autor: teenriot* 15.04.19 - 20:29

    waldschote schrieb:
    --------------------------------------------------------------------------------
    > > Kann es sein, dass Du Dir hier etwas schlechtredest?
    > > Du schmeißt einfach mal so in den Raum, dass JEDER Content global
    > manuell
    > > zu prüfen sei. Das ist offensichtlich Quatsch und ich behaupte mal, dass
    > > dir das auch selbst bewusst ist/war.
    > >
    > Ja, jedes Video, jeder Text, jeder Ton und jedes Bild muss geprüft werden,
    > das in der EU abgerufen werden kann. Denn nur wenn man es prüft kann man
    > entscheiden ob es Schutzgegenstände enthält oder nicht. Wenn es nicht
    > geprüft wird, kann man die Entscheidung auch nicht treffen.

    Die Verordnung besagt lediglich das man ausreichende Maßnahmen treffen muss. Allgemein wird angenommen, dass algorithmenbasierte Erkennungssystem diese Eigenschaft erfüllen. Genau darüber reden wir, mit dem Unterschied zu der eindimensionalen Darstellung, dass die finale Entscheidung nicht zwangsläufig von einer Maschine getroffen werden muss. Wir reden nicht davon, das Menschen alles prüfen, sondern nur darüber, dass da wo ein Algorithmus anschlägt ein Mensch ein Auge drauf wird.

    > Wenn die Entscheidung leicht zu treffen ist, wird der Algorithmus gar
    > nichts liefern.

    Hä? Weil?

    > Wobei es für einen Algorithmus kein "leicht" oder "schwer"
    > gibt.

    Das leicht oder schwer bezog sich auch auf den Menschen.

    > Ein bekannter Michael Jackson Song ist für diesen nämlich das gleiche
    > wie der persönliche Track aus dem Hobby Keller. Für den Algorithmus gibt es
    > nur einen Schwellwert. Der angibt ob die Erkennung ausreichend gut ist oder
    > nicht. Im Zweifel wird immer gefiltert solange nicht zweifelsfrei feststeht
    > das nichts enthalten ist. Rein aus rechtlicher Sicherheit. Denn eine Klage
    > wegen Verletzung durch einen Medienkonzern ist teurer als eine eMail mit
    > Beschwerde von Tante Emma.

    Und deswegen könnte man einen Menschen zwischen anschlagen und Entscheidung setzen...

    > Darüber hinaus hast du glaub ich nicht verstanden, oder nicht im Blick was
    > Täglich passiert. Alleine bei Youtube.. wirklich nur dort, werden 300
    > Stunden pro MINUTE hochgeladen. D.h. wenn ein Mitarbeiter 1 Video
    > bearbeitet, sind bereits über 300h weiteres Material eingetrudelt. Selbst
    > wenn nur 1% davon per Mensch geprüft werden muss, brauchst du eine
    > Arbeiterschaft die unbezahlbar ist.

    Stimmt nicht. Mach doch mal eine Rechnung auf, statt ins Blaue hinein zu spekulieren.

    > Ja, selbst wenn man nur diesen kleinen Ausschnitt betrachtet, dauert die
    > Prüfung lange. Wenn der Mitarbeiter nicht rein zufällig den jeweiligen
    > Schutzgegenstand kennt,

    Deswegen wird der betroffene Schutzgegenstand von Algorithmus auch gleich mitgeliefert, dann ist es in den meisten Fällen einfach und schnell erledigt.

    > wird es eine schöne Aufgabe heraus zu finden was
    > überhaupt in diesem Ausschnitt als Schutzgegenstand beanstandet wurde

    Nö, Algorithmus liefert Original und vermeintliche Kopie.

    > und
    > wer die Rechte daran hält. Eines ist mal sicher. In unter einer Minute ist
    > das nicht erledigt.

    Sicher ist, dass es in den meisten Fällen genau das ist. Wenn man eine Minute Material sieht, das eine eindeutige Kopie des Schutzgegenstandes ist, dann ist der Fall erledigt. Gleiches wenn es eindeutig false positiv war.

    > Der Mensch ist derzeit noch besser in der Mustererkennung als die Maschine.
    > Allerdings kann er auch nur jene Muster erkennen die er kennt. Und selbst
    > da wird mehr gut geraten als tatsächlich erkannt.
    > Das Problem ist dabei, wie oben schon geschrieben, nicht das ein Mensch die
    > Aufgabe nicht erfüllen könnte.

    Nee, das einzige Problem, dass er euch dumm stellt wenn es darum geht mal in die andere Richtung zu denken. Erstaunlich wenn man umgekehrt doch im Detail vorgibt zu wissen worum es geht und was für Auswirkungen das hat. Letztlich hast du drei mal das gleiche gesagt is jetzt, ein Mensch kann ja nicht alles kennen... Ja muss er ja auch nicht...

    > Aber so oder so. Ob nun Mensch oder Maschine. Es ist und bleibt ein Upload
    > Filter.

    Ja, aber nicht mit der Bedeutung in der dieses Wort geprägt, verbreitet, kritisiert und verstanden wurde.

    > Dieser (egal ob nun eine natürliche Person (um Geschlechtsneutral
    > zu bleiben), oder eine Maschine aka. Software) muss jegliche eingehenden
    > Inhalte prüfen

    NEIN, verdammt noch mal. Wie oft soll ich das denn noch schreiben? Wenn ein vollautomatischer Uploadfilter als ausreichend angesehen wird, laut Verordnung, was überall so gesehen wird, dann ist auch ein Uploadfilter ausreichend bei dem ganz am Ende noch ein Mensch "eingebaut" wird, der nur das behandelt, bei dem der Algorithmus anschlägt und das ist zum Teufel noch mal nicht alles.

    Das ist eine ganz simple Logik und habe ich mehrfach erklärt und wieder werden in einer Tour Kommentare geschrieben, die das ignorieren, sich dumm stellen, über etwas ganz anderes reden als ich es tue und dann so tun als wäre es das was ich gesagt habe.

    > und entscheiden ob veröffentlicht werden darf oder nicht.
    > Das ist und bleibt die Beschreibung eines Filters. Da dies bereits beim
    > Upload geschehen soll ist es eben ein Upload-Filter.

    Ja und immer noch was anderes, als das was mit dem Wort gemeint ist, von denjenigen die das in einer Tour verwenden und ihre Kritik darauf aufbauen, dass es eine vollautomatisch finale Entscheidungsinstanz ist und vor allem angeblich sein muss.

  12. Re: "Uploadfilter" - Titel

    Autor: teenriot* 15.04.19 - 20:29

    Aha, danke für deine sachlichen Argumente.

  13. Re: "Uploadfilter" - Titel

    Autor: teenriot* 15.04.19 - 20:33

    Sybok schrieb:
    --------------------------------------------------------------------------------
    > Pixxel schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Du glaubst dass Uploadfilter nicht automatisch als Programm eingesetzt
    > > werden? Denkst du da sitzen dann ein paar Menschen mit einem Ordner vor
    > > sich liegen und blättern dann dadrin rum ob da irgendwo das drin ist das
    > > sie gerade kontrollieren müssen?
    >
    > Ja, glaubt er.

    Nein glaube ich nicht. Eben noch den arrogant von oben herab den Oberschlauen mimen ohne ein Argument vorzubringen und jetzt mal zeigen, dass du nicht verstanden hast, was ich schreibe. Ich sage nicht was zur Anwendung kommt oder nicht, ich sage das es mehr die Möglichkeit gibt, dass Maschinen eine finale Entscheidung treffen müssen.

    Und nein, da müssen Menschen nicht alles Material im Kopf haben. Tut mir einen gefallen, lernt bitte lesen.

    > Er hat sich schon mehrfach dazu geäußert, und sieht auch
    > kein Problem darin, dass allein Youtube die Zahl seiner Mitarbeiter
    > vervielfachen müsste, um diese Aufgabe zu bewältigen - sogar mit den
    > Filtern.

    Ist das möglich oder nicht? Es ist definitiv möglich oder welches Naturgesetz macht das unmöglich? Um nichts anderes geht es, ist es denkbar.

    > Alles machbar, wenn man nur teenriot* fragt, wie!

    Für's erste würde es reichen wenn du einfach mal liest was ich schreibe und nicht irgendwelche Dinge erfindest und mir in den Mund legst um darauf aufbauend polemisch zu werden.

  14. Re: "Uploadfilter" - Titel

    Autor: gott_vom_see 15.04.19 - 20:48

    teenriot* schrieb:
    --------------------------------------------------------------------------------

    > Sry, soll ich das ernst nehmen? Im Promille-Bereich Content zu überprüfen
    > ist so kompliziert und unmöglich wie ein fehlerfreier Filter?

    Ein Filter, der zu über 99% korrekt arbeitet (also ohne eventuelle false positives oder false negatives) und nur bei unter 1% aller Fälle "nachfragen" muss, kommt für mich ziemlich nah an unfehlbar ran und ist in meinen Augen somit utopisch.

    > Letzteres ist
    > eine technische Frage, ersteres nur eine Frage des Aufwandes.

    Eine Frage des Aufwandes? Die Parameter gegen welche geprüft werden sollen, sind weder existent noch können diese adäquat lesbar (egal ob maschinell oder für den Menschen) formuliert werden. Und nein "urheberrechtlich geschütztes Material" ist kein valider Parameter.

    Btw: Wie viel Zeit würdest du einem Menschen zugestehen einzuschätzen, ob ein Stück, welches vom einem zu über 99% korrekt arbeitenden automatischen Filter als Prüffall vorgelegt wurde, ein Verstoß gegen das Urheberrecht vorliegt oder nicht?

    Es ist ja nicht so, dass da nur ein paar Mustererkennungen in Stand oder Bewegtbild (Film, TV, Videospiele, Theater etc), kurze Musiksequenzen wie bei Shazam oder reine Texterkennung (die wäre ja fast schon trivial) herangezogen werden müssten. Wie "gut" diese "einfachen" Filter funktionieren, konnte man in der jüngeren Vergangenheit oft genug verfolgen.

    Man müsste für jegliches urheberrechtlich geschütztes Material, mindestens jedoch für jegliches Material für welches dieses Recht in Europa geltend gemacht wird, zur Gegenprüfung für den Filter und/oder Mitarbeiter eine vollständige, aktuelle und permanent gepflegte Datenbank vorhalten (keine Hashes, keine Ausschnitte, sondern komplett). Das Ganze muss zusätzlich zuverlässig bei jeglichen Mischformen funktionieren, um false positives/negatives auszuschließen. Sonst erreichst du deine > 99% nie.

    Natürlich wird das aber so niemals umgesetzt werden, da bin auch ich mir sicher. Es war und ist ja auch nie Ziel gewesen, dass es korrekt und zuverlässig funktioniert. Die Kollateralschäden in alle Richtungen sind nebensächlich oder gar gewollt.

    > du setzt da
    > vollkommen unterschiedliche Dinge gleich. Letzteres ist möglich. Warum der
    > Aufwand "utopisch" sein soll, müsste du dann mal ausführen.

    Habe ich eben getan. Letzteres wäre möglich, wenn deine in meinen Augen völlig utopische Annahme, der Filter hätte eine absolute Fehlerquote von nicht mehr als einem Prozent, zutreffen würde.

    Es wird einfach alles rausgefiltert werden, was vom Filter aussortiert wird. Bei Einspruch des Geschädigten wird jedes mal händisch geprüft werden. Da dies für einen Großteil der Geschädigten spätestens nach dem fünften mal zu nervig wird, hören sie einfach auf. Die Vielfalt wird sinken, die Konzerne noch stärker. In 20 Jahren erinnert man sich dann noch verschwommen an die Vielfalt im damaligen Netz. Einsehbar ist es ja nicht mehr, da alles entfernt wurde.



    1 mal bearbeitet, zuletzt am 15.04.19 20:56 durch gott_vom_see.

  15. Re: "Uploadfilter" - Titel

    Autor: gott_vom_see 15.04.19 - 21:07

    teenriot* schrieb:
    --------------------------------------------------------------------------------
    >
    > Was nicht bekannt ist, muss auch nicht geprüft werden.

    Definiere, "was nicht bekannt ist".
    Hält dann jede Bude nen eigenen Filter vor der erst mal gefüttert werden will und wenn der Urheber den übersieht hat er Pech gehabt? Oder kommt dann der Inhaber irgendwann mal ums Eck, sieht seit Material und die Plattform sagt "kennen wir nicht, ist nicht in unserm Filter, ätsch"?

    Wenn das so aufgebaut werden sollte, dann ist es ja noch hirnverbrannter, als ich es ohnehin schon finde.

  16. Re: "Uploadfilter" - Titel

    Autor: sfe (Golem.de) 15.04.19 - 21:11

    Der Thread ist ein Fall für den Bolzplatz.

    Sebastian Fels (golem.de)

  17. Re: "Uploadfilter" - Titel

    Autor: teenriot* 15.04.19 - 21:11

    gott_vom_see schrieb:
    --------------------------------------------------------------------------------
    > teenriot* schrieb:
    > ---------------------------------------------------------------------------
    > -----
    >
    > > Sry, soll ich das ernst nehmen? Im Promille-Bereich Content zu
    > überprüfen
    > > ist so kompliziert und unmöglich wie ein fehlerfreier Filter?
    >
    > Ein Filter, der zu über 99% korrekt arbeitet (also ohne eventuelle false
    > positives oder false negatives) und nur bei unter 1% aller Fälle
    > "nachfragen" muss, kommt für mich ziemlich nah an unfehlbar ran und ist in
    > meinen Augen somit utopisch.

    Ich fass es nicht, was gibt es an der Sache nicht zu verstehen?

    Es ist ganz einfach statt: Algorithmus erkennt Verstoß -> Sperrung
    einfach: Algorithmus erkennt Verstoß -> Mensch prüft -> Sperrung

    Der Mensch muss nur da checken wo der Algorithmus anschlägt. Wenn der Algorithmus bei 1% anschlägt, muss ein Mensch bei 1% eine Entscheidung treffen, vollkommen unabhängig davon wie hoch die Fehlerquote des Algorithmus ist.

    > > Letzteres ist
    > > eine technische Frage, ersteres nur eine Frage des Aufwandes.
    >
    > Eine Frage des Aufwandes? Die Parameter gegen welche geprüft werden sollen,
    > sind weder existent noch können diese adäquat lesbar (egal ob maschinell
    > oder für den Menschen) formuliert werden. Und nein "urheberrechtlich
    > geschütztes Material" ist kein valider Parameter.

    Wenn du glaubst, das solche Algorithmen grundsätzlich unmöglich sind, von mir aus, hat aber nichts damit zu tun worum es in diesem Thread geht.

    > Btw: Wie viel Zeit würdest du einem Menschen zugestehen einzuschätzen, ob
    > ein Stück, welches vom einem zu über 99% korrekt arbeitenden automatischen
    > Filter als Prüffall vorgelegt wurde, urheberrechtlich geschützt ist oder
    > nicht?

    So viel wie nötig ist.

    > Man müsste für jegliches urheberrechtlich geschütztes Material, mindestens
    > jedoch für jegliches Material für welches dieses Recht in Europa geltend
    > gemacht wird, zur Gegenprüfung für den Filter und/oder Mitarbeiter eine
    > vollständige, aktuelle und permanent gepflegte Datenbank vorhalten (keine
    > Hashes, keine Ausschnitte, sondern komplett).

    Ja, und?

    > Das Ganze muss zusätzlich
    > zuverlässig bei jeglichen Mischformen funktionieren, um false
    > positives/negatives auszuschließen. Sonst erreichst du deine > 99% nie.

    Du kapierst es nicht. Wie gut der Filter ist oder nicht, ist vollkommen zweitrangig und nicht das worum es in diesem Thread geht. Es geht darum ob ein Algorithmus selbst entscheiden muss und ob das die einzige Möglichkeit ist.

    Die 1% Material bei denen so ein Algorithmus anschlägt, kommt auch nicht von mir, das habe ich irgendwo gelesen, finde es aber nicht mehr. Von mir aus kannst du auch 2% ansetzen. Das spielt keine Rolle.

    > Habe ich eben getan. Letzteres wäre möglich, wenn deine in meinen Augen
    > völlig utopische Annahme, der Filter hätte eine absolute Fehlerquote von
    > nicht mehr als einem Prozent, zutreffen würde.

    Habe ich nirgends geschrieben. Du kapierst nicht in Ansätzen was ich schreibe. Tu mir einen gefallen und lese mehrfach bevor du Kommentare dazu postet. Das 1% ist eine Annahme über den Anteil des Gesamtmaterials, bei denen ein Algorithmus anschlägt und die eine manuelle Prüfung stattfinden muss. Es geht da NICHT um die Fehlerquote eines Algorithmus.

    > Es wird einfach alles rausgefiltert werden, was vom Filter aussortiert
    > wird. Bei Einspruch des Geschädigten wird jedes mal händisch geprüft
    > werden.

    Nein und immer noch geht es um keine Einsprüche von Geschädigten...

    > Da dies für einen Großteil der Geschädigten spätestens nach dem
    > fünften mal zu nervig wird, hören sie einfach auf. Die Vielfalt wird
    > sinken, die Konzerne noch stärker. In 20 Jahren erinnert man sich dann noch
    > verschwommen an die Vielfalt im damaligen Netz. Einsehbar ist es ja nicht
    > mehr, da alles entfernt wurde.

    Es ist ganz einfach statt: Algorithmus erkennt Verstoß -> Sperrung
    einfach: Algorithmus erkennt Verstoß -> Mensch prüft -> Sperrung

    Worüber auch immer du schreibst, es hat nichts mit dem zu tun was ich schreibe.

  18. Re: "Uploadfilter" - Titel

    Autor: teenriot* 15.04.19 - 21:13

    gott_vom_see schrieb:
    --------------------------------------------------------------------------------
    > teenriot* schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > >
    > > Was nicht bekannt ist, muss auch nicht geprüft werden.
    >
    > Definiere, "was nicht bekannt ist".

    Das was nicht in die Datenbanken eingepflegt wurde, worum sich die zu kümmern haben, die ihr Material geschützt haben wollen.

    > Hält dann jede Bude nen eigenen Filter vor der erst mal gefüttert werden
    > will und wenn der Urheber den übersieht hat er Pech gehabt? Oder kommt dann
    > der Inhaber irgendwann mal ums Eck, sieht seit Material und die Plattform
    > sagt "kennen wir nicht, ist nicht in unserm Filter, ätsch"?

    Wenn du allgemeine Probleme mit dem Verständnis der Verordnung hast, dann werde ich dir nicht weiter helfen können.

  19. Re: "Uploadfilter" - Titel

    Autor: waldschote 15.04.19 - 21:30

    > Die Verordnung besagt lediglich das man ausreichende Maßnahmen treffen
    > muss. Allgemein wird angenommen, dass algorithmenbasierte Erkennungssystem
    > diese Eigenschaft erfüllen. Genau darüber reden wir, mit dem Unterschied zu
    > der eindimensionalen Darstellung, dass die finale Entscheidung nicht
    > zwangsläufig von einer Maschine getroffen werden muss. Wir reden nicht
    > davon, das Menschen alles prüfen, sondern nur darüber, dass da wo ein
    > Algorithmus anschlägt ein Mensch ein Auge drauf wird.
    >
    Und dieses Erkennungssystem ist ein Filter. Es spielt keine Rolle wie man es umschreibt. Du brauchst ein System das am Ende filtert. Dabei spielt es auch keine Rolle ob es ein Mensch macht oder ein Stück Software. Beide werden am Ende genau dass machen... Filtern.

    > > Ein bekannter Michael Jackson Song ist für diesen nämlich das gleiche
    > > wie der persönliche Track aus dem Hobby Keller. Für den Algorithmus gibt
    > es
    > > nur einen Schwellwert. Der angibt ob die Erkennung ausreichend gut ist
    > oder
    > > nicht. Im Zweifel wird immer gefiltert solange nicht zweifelsfrei
    > feststeht
    > > das nichts enthalten ist. Rein aus rechtlicher Sicherheit. Denn eine
    > Klage
    > > wegen Verletzung durch einen Medienkonzern ist teurer als eine eMail mit
    > > Beschwerde von Tante Emma.
    >
    > Und deswegen könnte man einen Menschen zwischen anschlagen und Entscheidung
    > setzen...
    >
    Problem der Menge bleibt dabei bestehen. Wie gesagt. Es ist nicht das Problem generell einen Menschen das Material sichten zu lassen.

    > > Darüber hinaus hast du glaub ich nicht verstanden, oder nicht im Blick
    > was
    > > Täglich passiert. Alleine bei Youtube.. wirklich nur dort, werden 300
    > > Stunden pro MINUTE hochgeladen. D.h. wenn ein Mitarbeiter 1 Video
    > > bearbeitet, sind bereits über 300h weiteres Material eingetrudelt.
    > Selbst
    > > wenn nur 1% davon per Mensch geprüft werden muss, brauchst du eine
    > > Arbeiterschaft die unbezahlbar ist.
    >
    > Stimmt nicht. Mach doch mal eine Rechnung auf, statt ins Blaue hinein zu
    > spekulieren.
    >
    Ja, Rechne mal ;) Berücksichtige dabei aber auch die Zeit die der Algorithmus benötigt hat das Material zu sichten, den Menschen der das ausstehende Material abruft, selbst sichtet, Dokumente durchliest und Recherchiert. Lokale Gesetze und Sprachen erschweren das ganze dann noch einmal.

    > > Ja, selbst wenn man nur diesen kleinen Ausschnitt betrachtet, dauert die
    > > Prüfung lange. Wenn der Mitarbeiter nicht rein zufällig den jeweiligen
    > > Schutzgegenstand kennt,
    >
    > Deswegen wird der betroffene Schutzgegenstand von Algorithmus auch gleich
    > mitgeliefert, dann ist es in den meisten Fällen einfach und schnell
    > erledigt.
    >
    Das Problem ist, wenn der Algorithmus einen zu geringen Erkennungsgrad hat (er ist sich nicht sicher genug), dann kann er weder die exakte Stelle liefern noch sonst irgendwas. Er kann dir nur sagen, dieses Material kann ich nicht zweifelsfrei von Schutzgegenständen frei sprechen.

    > > wird es eine schöne Aufgabe heraus zu finden was
    > > überhaupt in diesem Ausschnitt als Schutzgegenstand beanstandet wurde
    >
    > Nö, Algorithmus liefert Original und vermeintliche Kopie.
    >
    Wenn der Algorithmus ein Original liefern kann, hat er Meta Daten und kann eine Erkennung vornehmen wo der Grad der Erkennung recht sicher ist. In genau diesem Fall brauch man genau keinen Menschen ;)
    Das Problem ist aber immer genau dann, wenn der Grad der Erkennung zu niedrig ist. Widersprüchlich oder Mehrdeutig. D.h. der Algorithmus wird dir wenn er Meta Daten liefert nicht exakt eines liefern sondern einen Stapel an möglichen Kandidaten ;)

    Ich lass den Rest mal weg. Ich glaube dein Problem dabei ist, das du zu menschlich an die Sache herangehst und fehlinterpretierst wie die Algorithmen arbeiten. Die Algorithmen arbeiten nicht wie das menschliche Gehirn. Hier wird stumpf ein Abgleich vorgenommen. Dabei spuckt das System dir am Ende eine Zahl aus, die einen Bewertungsgrad darstellt. Anhand diesem kann der Entwickler festlegen ob die Bewertung "sicher genug" war oder "nicht sicher genug".

    Ob das vor Gericht reicht zu sagen der Algorithmus war sich fast sicher nichts erkannt zu haben, ist fraglich. Aber selbst wenn der Algorithmus dir möglichst wenig zu sichtende Daten liefert. Bleibt es dabei das auch der Mensch nicht alle Schutzgegenstände kennt. Es bleiben also immer die Fragen im Raum. Egal ob Mensch oder Maschine. Ist das ein Schutzgegenstand? Ist die Verwendung in der Form legal? Wer ist der Rechteinhaber des möglichen Schutzgegenstandes?

    Du darfst nicht davon ausgehen das es sich hierbei nur um bekannte Größen handelt. Jeder kann eine Coca Cola Flasche sofort erkennen. Selbst wenn der Aufkleber nicht mehr da ist. Aber nicht alle Schutzgegenstände sind so einfach klassifizierbar. Je geringer der Bekanntheitsgrad ist, desto schwerer wird es den Rechteinhaber ausfindig zu machen. Zu unterstellen das ein Mensch die Nachbearbeitung innerhalb einer Minute vornehmen kann, ist sehr naiv :)

  20. Re: "Uploadfilter" - Titel

    Autor: gott_vom_see 15.04.19 - 21:38

    teenriot* schrieb:
    --------------------------------------------------------------------------------

    > Die Verordnung besagt lediglich das man ausreichende Maßnahmen treffen
    > muss. Allgemein wird angenommen, dass algorithmenbasierte Erkennungssystem
    > diese Eigenschaft erfüllen.

    Also ist der Anspruch an die Umsetzung völlig willkürlich und Wischiwaschi. Gut das wir darüber geredet haben. Weder die Plattform noch der Urheber haben irgendeine Rechtssicherheit? Der Upload wird vorsichtshalber einmal öfter als nötig gefiltert?

    Edit: Aufgrund von Missverständnis gekürzt



    2 mal bearbeitet, zuletzt am 15.04.19 21:54 durch gott_vom_see.

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. AKDB Anstalt für kommunale Datenverarbeitung in Bayern, Regensburg
  2. bib International College, Paderborn
  3. Bundeskriminalamt, Wiesbaden, Berlin, Meckenheim
  4. ING Deutschland, Nürnberg

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Samsung-SSDs, Monitore, Laptops, Saugroboter und vieles mehr zu Bestpreisen)
  2. (u. a. G.Skill 16GB DDR4-3200 Kit für 54,90€, AMD Ryzen 9 3900XT für 419€, MSI B450 Tomahawk...
  3. mit 222,22€ neuer Bestpreis auf Geizhals
  4. (u. a. Samsung GQ55Q70TGTXZG QLED TV 55 Zoll für 777€, Samsung Galaxy A20e 32GB 5,8 Zoll für...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Next-Gen: Tolle Indiegames für PS5 und Xbox Series X/S
Next-Gen
Tolle Indiegames für PS5 und Xbox Series X/S

Kaum ein unabhängiger Entwickler hat Dev-Kits für PS5 und Xbox Series X/S - aber The Pathinder und Falconeer sind tolle Next-Gen-Indiegames!
Von Rainer Sigl

  1. Indiegames-Rundschau Raumschiffknacker im Orbit
  2. Rollenspiel Fans übersetzen Disco Elysium ins Deutsche
  3. Indiegames-Rundschau Einmal durchspielen in 400 Tagen

AVM Fritzdect Smarthome im Test: Nicht smart kann auch smarter sein
AVM Fritzdect Smarthome im Test
Nicht smart kann auch smarter sein

AVMs Fritz Smarthome nutzt den Dect-Standard, um Lampen und Schalter miteinander zu verbinden. Das geht auch offline im eigenen LAN.
Ein Test von Oliver Nickel

  1. Konkurrenz zu Philips Hue Signify bringt WLAN-Lampen von Wiz auf den Markt
  2. Smarte Kühlschränke Hersteller verschweigen Kundschaft Support-Dauer
  3. Magenta Smart Home Telekom bietet mehr für das kostenlose Angebot

iPhone 12 Pro Max im Test: Das Display macht den Hauptunterschied
iPhone 12 Pro Max im Test
Das Display macht den Hauptunterschied

Das iPhone 12 Pro Max ist größer als das 12 Pro und hat eine etwas bessere Kamera - grundsätzlich liegen die beiden Topmodelle von Apple aber nah beieinander, wie unser Test zeigt. Käufer des iPhone 12 Pro müssen keine Angst haben, etwas zu verpassen.
Ein Test von Tobias Költzsch

  1. Apple Bauteile des iPhone 12 kosten 313 Euro
  2. Touchscreen und Hörgeräte iOS 14.2.1 beseitigt iPhone-12-Fehler
  3. iPhone Magsafe ist nicht gleich Magsafe

  1. Made in USA: Deutsche Huawei-Gegner schweigen zu Juniper-Hintertüren
    Made in USA
    Deutsche Huawei-Gegner schweigen zu Juniper-Hintertüren

    Zu unbequemen Fragen schweigen die Transatlantiker Manuel Höferlin, Falko Mohrs, Metin Hakverdi, Norbert Röttgen und Friedrich Merz. Das wirkt unredlich.

  2. Huawei-Chef: Die USA "wollen uns umbringen"
    Huawei-Chef
    Die USA "wollen uns umbringen"

    Huawei-Chef Ren Zhengfei betont nach dem Verkauf von Honor die Unabhängigkeit der Smartphone-Marke unter den neuen Besitzern. Die USA wollten sein Unternehmen vernichten.

  3. Digital Imaging: Koelnmesse beendet Photokina
    Digital Imaging
    Koelnmesse beendet Photokina

    War es das mit der Photokina? Oder gibt es einen Neustart für die Fotoleitmesse?


  1. 19:14

  2. 18:07

  3. 17:35

  4. 16:50

  5. 16:26

  6. 15:29

  7. 15:02

  8. 13:42