1. Foren
  2. Kommentare
  3. Handy
  4. Alle Kommentare zum Artikel
  5. › Tone e20: Smartphone verhindert…

Und zur Erkennung wartet eine KI in der Cloud, ...

  1. Thema

Neues Thema Ansicht wechseln


  1. Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Kirschkuchen 19.02.20 - 15:02

    ... die die Bilder gerne entgegennimmt!

  2. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Seega 19.02.20 - 15:14

    Das war auch meine erste Vermutung

  3. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: chefin 19.02.20 - 15:24

    Und wie lange würde dann die Datenmenge reichen? Am Zweiten Tag wäre das Volumen überschritten. Jede Bildänderung muss schliesslich neu analysiert werden.

    Bei manchen Sachen würde es völlig reichen mal nachzudenken und Paranoia mit der Realität zu vergleichen. Auch in japan gibts keine echten Flatrates mit unbegrenzten Daten. Und wenn es welche haben, bringt ein Handy das zwingend drauf angewiesen wäre garnichts nur auf echte Flatratetarifem zu laufen. Den die haben Menschen die eben keinen solchen Schutz brauchen.

    Ansonsten würde man sich den Markt auf wenige Tausend potentielle Kunden reduzieren. Dafür entwickelt man kein Handy!

  4. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: TrollNo1 19.02.20 - 15:26

    Die Frage ist doch, mit welchen Daten wurde die KI trainiert? Die müssen ja Millionen von Nacktbildern von Kindern und Jugendlichen haben

    Menschen, die mich im Internet siezen, sind mir suspekt.

  5. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Oktavian 19.02.20 - 15:28

    > ... die die Bilder gerne entgegennimmt!

    Na komm, so aufwendig ist KI auch nicht. So ein Modell zu trainieren mit zehntausenden Bilder bekleideter und unbekleideter Personen, das ist heftig und auf einem Handy in endlicher Zeit auch nicht machbar.

    Aber ein vortrainiertes Modell ist durchaus recht problemlos auf einem Handy ausführbar. Zumal die Erkennung ja auch nicht 100% korrekt sein muss, gelegentliche False-Positives sind schon okay. Wenn die fotografierte Person eben statt nackt in sehr knapper hautfarbener Unterwäsche zurückgewiesen wird, wird das die Eltern kaum stören.

  6. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Kondratieff 19.02.20 - 15:32

    TrollNo1 schrieb:
    --------------------------------------------------------------------------------
    > Die Frage ist doch, mit welchen Daten wurde die KI trainiert? Die müssen ja
    > Millionen von Nacktbildern von Kindern und Jugendlichen haben

    Ähm... wieso sollte die KI mit Nacktbildern von Kindern und Jugendlichen trainiert werden?

  7. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Oktavian 19.02.20 - 15:38

    > Ähm... wieso sollte die KI mit Nacktbildern von Kindern und Jugendlichen
    > trainiert werden?

    Weil sie genau diese Aufnahmen verhindern soll. Würde man die KI ausschließlich mit Bildern nackter bzw. angezogener Männer bzw. Frauen trainieren, wäre die Wahrscheinlichkeit, dass sie nackte Kinder oder Jugendliche erkennt, eher gering. Die unterscheiden sich halt ziemlich von Erwachsenen. Und bei Bilderkennungsalgorithmen ist es recht wahrscheinlich, dass genau diese kleinen und größeren Unterschiede signifikant hoch bewertet werden.

    Das ist so etwa, als würdes du versuchen, die KI mit Bildern von Tischen mit Tischdecke und ohne zu trainieren, damit sie danach Cabrios von Autos mit Dach unterscheiden kann. Irgendwie ähnlich ist das schon, aber nicht so richtig zielführend.



    1 mal bearbeitet, zuletzt am 19.02.20 15:40 durch Oktavian.

  8. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Kondratieff 19.02.20 - 15:54

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > > Ähm... wieso sollte die KI mit Nacktbildern von Kindern und Jugendlichen
    > > trainiert werden?
    >
    > Weil sie genau diese Aufnahmen verhindern soll. Würde man die KI
    > ausschließlich mit Bildern nackter bzw. angezogener Männer bzw. Frauen
    > trainieren, wäre die Wahrscheinlichkeit, dass sie nackte Kinder oder
    > Jugendliche erkennt, eher gering. Die unterscheiden sich halt ziemlich.
    >
    > Das ist so etwa, als würdes du versuchen, die KI mit Bildern von Tischen
    > mit Tischdecke und ohne zu trainieren, damit sie danach Cabrios von Autos
    > mit Dach unterscheiden kann. Irgendwie ähnlich ist das schon, aber nicht so
    > richtig zielführend.

    Ich verstehe ja im Grunde das Prinzip, genau deswegen finde ich den Vergleich zwischen Tischen und Cabrios (bzw. Tischdecken und Cabriodächern) etwas arg daneben, zumal es ja einige Cabrios mit Stahldach gibt. Auch allein prototypentheoretisch haben die Körper von Heranwachsenden und Erwachsenen ja wohl mehr Gemeinsamkeiten als Tische und Cabrios.

    Genau deshalb denke ich, dass es ausreicht, Fotos von Erwachsenen bzw. - genauer - von Volljährigen für's Trainieren zu nehmen. Denn die Unterscheidung zwischen Kind, Jugendlicher und Volljähriger (bzw. Erwachsener) ist ja eine willkürlich-normative (Rechts-)Setzung. Die Willkürlichkeit wird spätestens dann offensichtlich, wenn die individuelle körperliche und geistige Entwicklung von Menschen mit einbezogen wird. So gibt es sicherlich 16-jährige Menschen (= Jugendliche), deren Körper eher unserer Idealvorstellung eines "Erwachsenenkörpers" entsprechen als die so mancher 18-Jährigen (= Volljährige).

    Anders gewendet: Wieso sollte das Nacktfoto eines 22-Jährigen nicht als Vergleichsobjekt für die Erkennung des Nacktbilds eines 17-Jährigen taugen?

    Und auch für jüngere Menschen sollten die erkannten "Nacktheitsattribute" - ich denke, dass bspw. das erkannte Verhältnis von Haut zu Kleidung ausschlaggebend sein wird - passen. Zur Not muss mit Unschärfen gearbeitet werden, sodass eben mehr false positives erkannt werden.

  9. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Kakiss 19.02.20 - 16:03

    Kirschkuchen schrieb:
    --------------------------------------------------------------------------------
    > ... die die Bilder gerne entgegennimmt!


    Um falsche Filterungen zu verhindern, wird in "seltenen" Fällen dann das Bildmaterial von einem Mitarbeiter überprüft :P

  10. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Oktavian 19.02.20 - 16:08

    > Ich verstehe ja im Grunde das Prinzip, genau deswegen finde ich den
    > Vergleich zwischen Tischen und Cabrios (bzw. Tischdecken und Cabriodächern)
    > etwas arg daneben, zumal es ja einige Cabrios mit Stahldach gibt. Auch
    > allein prototypentheoretisch haben die Körper von Heranwachsenden und
    > Erwachsenen ja wohl mehr Gemeinsamkeiten als Tische und Cabrios.

    KIs stürzen sich immer auf die augenfälligsten Merkmale, die Bildtypen unterscheidet. Da Bikini/Badehosenaufnahmen/Partyoutfits/etc. erlaubt sind, Nacktaufnahmen hingegen nicht, ist davon auszugehen, dass sich der Algorithmus auf die entblösten primären und sekundären Geschlechtsmerkmale stürzt. Hierbei sind solche Algorithmen auf sehr spezifisch bei der Erkennung.

    > Anders gewendet: Wieso sollte das Nacktfoto eines 22-Jährigen nicht als
    > Vergleichsobjekt für die Erkennung des Nacktbilds eines 17-Jährigen
    > taugen?

    Weil 17-Jährige kaum die Zielgruppe sind, hier ist genau die Grenze der Legalität.

    Wenn man nun aber die primären Geschlechtsmerkmale eines 12-Jährigen und eines 22-Jährigen vergleicht, dann ist der Unterschied doch so eklatant, dass ich bezweifle, dass der Algorithmus den 12-Jährigen noch mit hinreichender Sicherheit als nackt erkennt. Bei den Damen gilt selbiges, insbesondere bei Oben-Ohne-Aufnahmen.

    > Und auch für jüngere Menschen sollten die erkannten "Nacktheitsattribute" -
    > ich denke, dass bspw. das erkannte Verhältnis von Haut zu Kleidung
    > ausschlaggebend sein wird

    Das wäre der algorithmische Ansatz, wenn ein Entwickler so etwas ausprogrammieren soll. Solche Algorithmen setzen Bilderhoster schon länger ein, mit mäßigem Erfolg. Das Verhältnis von Haus zu Kleidung ist bei einer Dame oben ohne in Hose recht ähnlich zu dem der gleichen Dame im Bikini. Gerade weil solche Algorithmen nicht funktionieren, will man ja Richtung KI wechseln. Da kann man aber nicht mehr so genau bestimmen, was sie genau lernt. Sie lernt halt, was ihr so auffällt, und das ist bei Erwachsenen oft recht anders als bei Kindern. Und wir reden eben nicht nur von der 17-Jährigen im Vergleich zur 18-Jährigen, sondern auch von der 10 bis 11-Jährigen.

  11. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Gaius Baltar 19.02.20 - 16:36

    16-jährige sind sexuell mündig, und es ist auch nicht strafbewehrt, als Volljähriger mit 16-jährigen sexuell aktiv zu sein. (Außen vor jeweils Lehrer/Schüler-Verhältnisse, aber das gilt auch wenn beide volljährig sind.)

    Das Problem in der deutschen Gesetzgebung ist die Unverhältnismäßigkeit bei Überschreitung harter Jahresgrenzen. Der eine Partner ist 13, die Partnerin ist 14 – zack, gibt es potentielle Anklagen weger Kinderpornographie, Kindesmissbrauch usw.

    Man könnte es einfacher machen, wie z.B. in der Schweiz: sind beide Partner 16 oder älter, sind sie sexuell mündig. In den Fällen, wo der Alters_unterschied_ weniger als drei Jahre beträgt, wird von Anklagen abgesehen. So verhindert man skurille und völlig unsinnige Fälle wie in den USA, wo sechsjährige – oder auch in Deutschland 14- oder 15-jährige – entsprechend angeklagt werden.

    Kondratieff schrieb:
    --------------------------------------------------------------------------------
    > Oktavian schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > > Ähm... wieso sollte die KI mit Nacktbildern von Kindern und
    > Jugendlichen
    > > > trainiert werden?
    > >
    > > Weil sie genau diese Aufnahmen verhindern soll. Würde man die KI
    > > ausschließlich mit Bildern nackter bzw. angezogener Männer bzw. Frauen
    > > trainieren, wäre die Wahrscheinlichkeit, dass sie nackte Kinder oder
    > > Jugendliche erkennt, eher gering. Die unterscheiden sich halt ziemlich.
    > >
    > > Das ist so etwa, als würdes du versuchen, die KI mit Bildern von Tischen
    > > mit Tischdecke und ohne zu trainieren, damit sie danach Cabrios von
    > Autos
    > > mit Dach unterscheiden kann. Irgendwie ähnlich ist das schon, aber nicht
    > so
    > > richtig zielführend.
    >
    > Ich verstehe ja im Grunde das Prinzip, genau deswegen finde ich den
    > Vergleich zwischen Tischen und Cabrios (bzw. Tischdecken und Cabriodächern)
    > etwas arg daneben, zumal es ja einige Cabrios mit Stahldach gibt. Auch
    > allein prototypentheoretisch haben die Körper von Heranwachsenden und
    > Erwachsenen ja wohl mehr Gemeinsamkeiten als Tische und Cabrios.
    >
    > Genau deshalb denke ich, dass es ausreicht, Fotos von Erwachsenen bzw. -
    > genauer - von Volljährigen für's Trainieren zu nehmen. Denn die
    > Unterscheidung zwischen Kind, Jugendlicher und Volljähriger (bzw.
    > Erwachsener) ist ja eine willkürlich-normative (Rechts-)Setzung. Die
    > Willkürlichkeit wird spätestens dann offensichtlich, wenn die individuelle
    > körperliche und geistige Entwicklung von Menschen mit einbezogen wird. So
    > gibt es sicherlich 16-jährige Menschen (= Jugendliche), deren Körper eher
    > unserer Idealvorstellung eines "Erwachsenenkörpers" entsprechen als die so
    > mancher 18-Jährigen (= Volljährige).
    >
    > Anders gewendet: Wieso sollte das Nacktfoto eines 22-Jährigen nicht als
    > Vergleichsobjekt für die Erkennung des Nacktbilds eines 17-Jährigen
    > taugen?
    >
    > Und auch für jüngere Menschen sollten die erkannten "Nacktheitsattribute" -
    > ich denke, dass bspw. das erkannte Verhältnis von Haut zu Kleidung
    > ausschlaggebend sein wird - passen. Zur Not muss mit Unschärfen gearbeitet
    > werden, sodass eben mehr false positives erkannt werden.

  12. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: CHU 20.02.20 - 06:56

    Kondratieff schrieb:
    --------------------------------------------------------------------------------

    > Genau deshalb denke ich, dass es ausreicht, Fotos von Erwachsenen bzw. -
    > genauer - von Volljährigen für's Trainieren zu nehmen. Denn die
    > Unterscheidung zwischen Kind, Jugendlicher und Volljähriger (bzw.
    > Erwachsener) ist ja eine willkürlich-normative (Rechts-)Setzung.

    Woher weißt du denn so genau, wo das neuronale Netz seinen Triggerpunkt legt? Bist du in der Lage neuronale Netze zu debuggen? Da wärst du weiter als viele Forscher auf diesem Gebiet.
    Was treibst du dich in einem Golem Forum herum und nicht auf IEEE-Konferenzen? Oder wartest du gerade im Terminal?

    > Und auch für jüngere Menschen sollten die erkannten "Nacktheitsattribute" -
    > ich denke, dass bspw. das erkannte Verhältnis von Haut zu Kleidung
    > ausschlaggebend sein wird - passen. Zur Not muss mit Unschärfen gearbeitet
    > werden, sodass eben mehr false positives erkannt werden.

    Nochmal gefragt. Wie trainierst du eine KI genau diese Aspekte zu beachten?

    Wie passt deine (egal wie du das auch immer der KI beigebracht hast) Annahme dazu, dass z.B. eine zum Knie heruntergelassene Hose (T-Shirt bleibt an) sehr wohl kritisch einzustufen ist, während eine getragene Badeshort vollkommen OK ist?

    Soziale Probleme kann man nicht technisch lösen. Vor allem nicht mit Zufallstechnik. Das Endet sonst in bösem Erwachen.

  13. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Kondratieff 20.02.20 - 08:55

    CHU schrieb:
    --------------------------------------------------------------------------------
    > Kondratieff schrieb:
    > ---------------------------------------------------------------------------
    > -----
    >
    > > Genau deshalb denke ich, dass es ausreicht, Fotos von Erwachsenen bzw. -
    > > genauer - von Volljährigen für's Trainieren zu nehmen. Denn die
    > > Unterscheidung zwischen Kind, Jugendlicher und Volljähriger (bzw.
    > > Erwachsener) ist ja eine willkürlich-normative (Rechts-)Setzung.
    >
    > Woher weißt du denn so genau, wo das neuronale Netz seinen Triggerpunkt
    > legt? Bist du in der Lage neuronale Netze zu debuggen? Da wärst du weiter
    > als viele Forscher auf diesem Gebiet.
    > Was treibst du dich in einem Golem Forum herum und nicht auf
    > IEEE-Konferenzen? Oder wartest du gerade im Terminal?
    >

    Wieso so aggressiv? Ich wollte hier keinem auf die Füße treten. Ich habe meinen Satz mit "ich denke" eingeleitet, was zeigt, dass ich die Sache nicht weiß. Es war in diesem Fall ein Diskussionsbeitrag und kein Abladen von Fakten - ich bin nämlich wahrlich kein Experte auf dem Gebiet von Machine Learning. Übrigens: Machine Learning geht auch ohne neuronale Netze.

    > > Und auch für jüngere Menschen sollten die erkannten "Nacktheitsattribute"
    > -
    > > ich denke, dass bspw. das erkannte Verhältnis von Haut zu Kleidung
    > > ausschlaggebend sein wird - passen. Zur Not muss mit Unschärfen
    > gearbeitet
    > > werden, sodass eben mehr false positives erkannt werden.
    >
    > Nochmal gefragt. Wie trainierst du eine KI genau diese Aspekte zu
    > beachten?

    Ich würde eben Fotos von nackten und teilentblößten (Mann in Badehose/Slip/Boxershorts/Shorts/Wasauchimmer; Frau im Bikini etc.) Erwachsenen nehmen. Der Ausgang ist mir ungewiss - habe ich selbst nicht probiert.

    Es ist mir natürlich auch genauso unklar, ob - selbst wenn die Unterscheidung zwischen nackten und angezogenen Volljährigen gelingt - diese Unterscheidung dann auch bei Kindern und Jugendlichen genauso gelingt. Aber trumpft die mögliche technische Unzulänglichkeit das moralische, ethische und auch rechtliche Gebot, keine Fotos von Kindern und Jugendlichen (weder angezogen noch nackt) für das Trainieren der KI zu verwenden?
    >
    > Wie passt deine (egal wie du das auch immer der KI beigebracht hast)
    > Annahme dazu, dass z.B. eine zum Knie heruntergelassene Hose (T-Shirt
    > bleibt an) sehr wohl kritisch einzustufen ist, während eine getragene
    > Badeshort vollkommen OK ist?

    Worauf bezieht sich diese Frage? Fragst du, ob ich es ethisch vertrete, dass Fotos von Kindern und Jugendlichen in Badeshorts gemacht werden? Oder ist die Frage technisch?

    Zunächst: Ich argumentiere überhaupt nicht für das betreffende Smartphone oder für die Verwendung der KI. Ich wollte nur dagegen argumentieren, dass Fotos von Kindern und Jugendlichen herangezogen werden müssten, damit das ganze technisch funktioniert. Ich denke nämlich schon, dass die Technik sehr wohl funktionieren kann - unter Annahme einer relativ hohen Quote an false positives.

    >
    > Soziale Probleme kann man nicht technisch lösen. Vor allem nicht mit
    > Zufallstechnik. Das Endet sonst in bösem Erwachen.

    Wie bereits angedeutet: Ich denke, du interpretierst meinen Post falsch. Ich möchte nicht die Firma oder ihr Produkt in irgendeiner Weise rechtfertigen. Ich denke auch nicht, dass soziale Probleme rein technisch gelöst werden können. Gleichzeitig gibt es auch keine rein technischen Innovationen. Ich bin, so blöd es klingt, zwar nicht Experte auf dem Gebiet der KI, aber ich bin Innovationsforscher und beschäftige mich mit soziotechnischen Innovationen, also Innovationen, die auf einem Kontinuum zwischen technischen und sozialen Innovationen (jeweils unerreichbare Idealtypen) jegliche "Zwischenformen" annehmen können. Wenn du mehr dazu wissen möchtest, antworte ich gerne etwas umfassender und gerne auch mit Belegen.

  14. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Kondratieff 20.02.20 - 10:02

    Oktavian schrieb:
    --------------------------------------------------------------------------------
    > > Ich verstehe ja im Grunde das Prinzip, genau deswegen finde ich den
    > > Vergleich zwischen Tischen und Cabrios (bzw. Tischdecken und
    > Cabriodächern)
    > > etwas arg daneben, zumal es ja einige Cabrios mit Stahldach gibt. Auch
    > > allein prototypentheoretisch haben die Körper von Heranwachsenden und
    > > Erwachsenen ja wohl mehr Gemeinsamkeiten als Tische und Cabrios.
    >
    > KIs stürzen sich immer auf die augenfälligsten Merkmale, die Bildtypen
    > unterscheidet. Da Bikini/Badehosenaufnahmen/Partyoutfits/etc. erlaubt sind,
    > Nacktaufnahmen hingegen nicht, ist davon auszugehen, dass sich der
    > Algorithmus auf die entblösten primären und sekundären Geschlechtsmerkmale
    > stürzt. Hierbei sind solche Algorithmen auf sehr spezifisch bei der
    > Erkennung.

    Mit der Prämisse (Bikini ok, deshalb deklariert die Firma diese als ok) wäre ich vorsichtig. In einigen Beiträgen scheint durch, dass die deutsche Gesellschaft und das deutsche Rechtssystem als Grundlage für verschiedene Aussagen herangezogen werden. Wir dürfen allerdings nicht vernachlässigen, dass es sich um ein japanisches Unternehmen und ein japanisches Produkt für die zunächst japanische Kundschaft handelt.

    Es könnte also durchaus sein, dass selbst Bikinifotos u.ä. als Nacktheit aufgefasst werden.
    >
    > > Anders gewendet: Wieso sollte das Nacktfoto eines 22-Jährigen nicht als
    > > Vergleichsobjekt für die Erkennung des Nacktbilds eines 17-Jährigen
    > > taugen?
    >
    > Weil 17-Jährige kaum die Zielgruppe sind, hier ist genau die Grenze der
    > Legalität.

    Wie oben erwähnt: Ich weiß nicht, wieso die Japaner Deutschland als Maßgabe nehmen sollten.
    >
    > Wenn man nun aber die primären Geschlechtsmerkmale eines 12-Jährigen und
    > eines 22-Jährigen vergleicht, dann ist der Unterschied doch so eklatant,
    > dass ich bezweifle, dass der Algorithmus den 12-Jährigen noch mit
    > hinreichender Sicherheit als nackt erkennt. Bei den Damen gilt selbiges,
    > insbesondere bei Oben-Ohne-Aufnahmen.

    Puh, ich weiß nicht, ob die Proportionen allein den Ausschlag machen. Aber das dürfte zunächst nur schwer ohne Überschreitung ethischer Grenzen überprüfbar sein.
    >
    > > Und auch für jüngere Menschen sollten die erkannten "Nacktheitsattribute"
    > -
    > > ich denke, dass bspw. das erkannte Verhältnis von Haut zu Kleidung
    > > ausschlaggebend sein wird
    >
    > Das wäre der algorithmische Ansatz, wenn ein Entwickler so etwas
    > ausprogrammieren soll. Solche Algorithmen setzen Bilderhoster schon länger
    > ein, mit mäßigem Erfolg. Das Verhältnis von Haus zu Kleidung ist bei einer
    > Dame oben ohne in Hose recht ähnlich zu dem der gleichen Dame im Bikini.

    Deshalb denke ich nicht, dass Bikinifotos vom Telefon "erlaubt" werden.

    > Gerade weil solche Algorithmen nicht funktionieren, will man ja Richtung KI
    > wechseln. Da kann man aber nicht mehr so genau bestimmen, was sie genau
    > lernt. Sie lernt halt, was ihr so auffällt, und das ist bei Erwachsenen oft
    > recht anders als bei Kindern.

    Ist das so? Damit meine ich: Hast du belastbare Daten oder hast das selbst (unter ethisch fragwürdigen Bedingungen) getestet? Oder ist das eher eine Behauptung?

    > Und wir reden eben nicht nur von der
    > 17-Jährigen im Vergleich zur 18-Jährigen, sondern auch von der 10 bis
    > 11-Jährigen.

    Ja, stimmt. Aber ich denke, dass man durch eine geschickte Auswahl von Bildern von Volljährigen die KI auch darauf trainieren kann, Nacktheit von Armen und Unterschenkeln zu erlauben, aber Nacktheit des Oberkörpers (von Frauen wie Männern) und der Intimzonen zu erkennen, sodass das Erlernte auch bei Mädchen und Jungen jüngeren Alters funktioniert.



    1 mal bearbeitet, zuletzt am 20.02.20 10:03 durch Kondratieff.

  15. Re: Und zur Erkennung wartet eine KI in der Cloud, ...

    Autor: Kondratieff 20.02.20 - 10:04

    Gaius Baltar schrieb:
    --------------------------------------------------------------------------------
    > 16-jährige sind sexuell mündig, und es ist auch nicht strafbewehrt, als
    > Volljähriger mit 16-jährigen sexuell aktiv zu sein. (Außen vor jeweils
    > Lehrer/Schüler-Verhältnisse, aber das gilt auch wenn beide volljährig
    > sind.)
    >
    > Das Problem in der deutschen Gesetzgebung ist die Unverhältnismäßigkeit bei
    > Überschreitung harter Jahresgrenzen. Der eine Partner ist 13, die Partnerin
    > ist 14 – zack, gibt es potentielle Anklagen weger Kinderpornographie,
    > Kindesmissbrauch usw.
    >
    > Man könnte es einfacher machen, wie z.B. in der Schweiz: sind beide Partner
    > 16 oder älter, sind sie sexuell mündig. In den Fällen, wo der
    > Alters_unterschied_ weniger als drei Jahre beträgt, wird von Anklagen
    > abgesehen. So verhindert man skurille und völlig unsinnige Fälle wie in den
    > USA, wo sechsjährige – oder auch in Deutschland 14- oder 15-jährige
    > – entsprechend angeklagt werden.
    >

    Das Telefon kommt nicht von einem deutschen Unternehmen und wurde nicht für die deutsche Gesellschaft konzipiert. Es wird auch nicht in Deutschland vertrieben, sondern nur in Japan. Damit gelten andere normative, institutionelle und rechtliche, d.h. mitunter gesamtgesellschaftliche Rahmenbedingungen.

    > Kondratieff schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Oktavian schrieb:
    > >
    > ---------------------------------------------------------------------------
    >
    > > -----
    > > > > Ähm... wieso sollte die KI mit Nacktbildern von Kindern und
    > > Jugendlichen
    > > > > trainiert werden?
    > > >
    > > > Weil sie genau diese Aufnahmen verhindern soll. Würde man die KI
    > > > ausschließlich mit Bildern nackter bzw. angezogener Männer bzw. Frauen
    > > > trainieren, wäre die Wahrscheinlichkeit, dass sie nackte Kinder oder
    > > > Jugendliche erkennt, eher gering. Die unterscheiden sich halt
    > ziemlich.
    > > >
    > > > Das ist so etwa, als würdes du versuchen, die KI mit Bildern von
    > Tischen
    > > > mit Tischdecke und ohne zu trainieren, damit sie danach Cabrios von
    > > Autos
    > > > mit Dach unterscheiden kann. Irgendwie ähnlich ist das schon, aber
    > nicht
    > > so
    > > > richtig zielführend.
    > >
    > > Ich verstehe ja im Grunde das Prinzip, genau deswegen finde ich den
    > > Vergleich zwischen Tischen und Cabrios (bzw. Tischdecken und
    > Cabriodächern)
    > > etwas arg daneben, zumal es ja einige Cabrios mit Stahldach gibt. Auch
    > > allein prototypentheoretisch haben die Körper von Heranwachsenden und
    > > Erwachsenen ja wohl mehr Gemeinsamkeiten als Tische und Cabrios.
    > >
    > > Genau deshalb denke ich, dass es ausreicht, Fotos von Erwachsenen bzw. -
    > > genauer - von Volljährigen für's Trainieren zu nehmen. Denn die
    > > Unterscheidung zwischen Kind, Jugendlicher und Volljähriger (bzw.
    > > Erwachsener) ist ja eine willkürlich-normative (Rechts-)Setzung. Die
    > > Willkürlichkeit wird spätestens dann offensichtlich, wenn die
    > individuelle
    > > körperliche und geistige Entwicklung von Menschen mit einbezogen wird.
    > So
    > > gibt es sicherlich 16-jährige Menschen (= Jugendliche), deren Körper
    > eher
    > > unserer Idealvorstellung eines "Erwachsenenkörpers" entsprechen als die
    > so
    > > mancher 18-Jährigen (= Volljährige).
    > >
    > > Anders gewendet: Wieso sollte das Nacktfoto eines 22-Jährigen nicht als
    > > Vergleichsobjekt für die Erkennung des Nacktbilds eines 17-Jährigen
    > > taugen?
    > >
    > > Und auch für jüngere Menschen sollten die erkannten "Nacktheitsattribute"
    > -
    > > ich denke, dass bspw. das erkannte Verhältnis von Haut zu Kleidung
    > > ausschlaggebend sein wird - passen. Zur Not muss mit Unschärfen
    > gearbeitet
    > > werden, sodass eben mehr false positives erkannt werden.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Kommunale Unfallversicherung Bayern, München
  2. Stromnetz Hamburg GmbH, Hamburg
  3. Technische Hochschule Ingolstadt, Ingolstadt
  4. Hays AG, Frankfurt am Main

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. täglich neue Deals bei Alternate.de


Haben wir etwas übersehen?

E-Mail an news@golem.de