1. Foren
  2. Kommentare
  3. Wissenschaft
  4. Alle Kommentare zum Artikel
  5. › Frauen in der Technik: Von wegen…

Github Studie

  1. Thema

Neues Thema Ansicht wechseln


  1. Github Studie

    Autor: gorsch 10.02.20 - 14:30

    Die Studie war ja erstmal darauf ausgelegt, Voreingenommenheit gegenüber weiblichen Autoren zu finden, nicht die Kompetenz zu messen.

    "Überraschenderweise" stellte sich dann heraus, dass Beiträge von Frauen eher akzeptiert wurden, aber nur (und das verschweigt der Golem-Artikel) wenn diese Frauen Teil des Projektes sind. Weibliche Außenseiter hingegen unterliegen den Männlichen. Somit hat die Studie dennoch ihr Ziel erreicht: Frauen sind "erwiesenermaßen" benachteiligt.

  2. Re: Github Studie

    Autor: wurstdings 10.02.20 - 14:58

    gorsch schrieb:
    --------------------------------------------------------------------------------
    > Weibliche Außenseiter hingegen
    > unterliegen den Männlichen. Somit hat die Studie dennoch ihr Ziel erreicht:
    > Frauen sind "erwiesenermaßen" benachteiligt.
    Seltsame Schlussfolgerung, da wir ja die Begründung für die Ablehnung nicht kennen. Vielleicht waren die Einreichungen der Frauen einfach schlecht oder fehlerhaft und wurden daher abgelehnt? Zumal der Unterschied bei 2% liegt, nicht gerade sehr eindeutig.

  3. Re: Github Studie

    Autor: gaciju 10.02.20 - 15:39

    Aus dem Artikel:

    > Sie bewiesen auch, dass Frauen größere Veränderungen von Codeabschnitten als Männer vornehmen und diese mehr kommentieren. Die geringe Anzahl von Entwicklerinnen hat also offenbar nichts mit ihrer Kompetenz zu tun

    groessere Aenderungen = gut
    mehr Kommentare = besser

    Diese Wertung ist natuerlich auch hanebuechener Unsinn. Intuitiv wuerde jemand, der an oeffentlichen Projekten arbeitet sogar eher das Gegenteil sagen.

    Grundsaetzlich (!, d.h. nicht immer) sind kleine Aenderungen besser.
    Und Grundsaetzlich sind Aenderungen, um die nicht viel Diskutiert werden muss, oder die der Autor nicht erst ewig erklaeren muss, auch besser. Diskutiert wird sinnigerweise vor der Einreichung von Aenderungen.

  4. Re: Github Studie

    Autor: jonasz 10.02.20 - 15:48

    Jeder der Statistik studiert hat, würde bei solchen aussagen denken:"Vergebt ihm, er weiß nicht von was er spricht". Die Schnittmenge von Github ist kaum aussagekräftig, da sich die Opensource Community stark von anderen unterscheidet, überhaupt von der eigentlichen Wirtschaft, die stark Jira nutzt und nicht auf Github ihren Code ladet, anderes Prozessmanagement besitzt und anders geleitet wird.

    Statistisch gesehen sind Abweichung bis 5% mit einer geringfügigsten Aussagekraft zu beurteilen, darüber hinaus sind Studien mit einer Agenda ebenfalls nichts wert, sonst würde man nicht Konklusionen veröffentlichen, die jeglicher statistischen und mathematischen Wissenschaft widersprechen.

  5. Re: Github Studie

    Autor: Gastbeitrag 11.02.20 - 12:06

    jonasz schrieb:
    --------------------------------------------------------------------------------
    > Jeder der Statistik studiert hat, würde bei solchen aussagen
    > denken:"Vergebt ihm, er weiß nicht von was er spricht". Die Schnittmenge
    > von Github ist kaum aussagekräftig, da sich die Opensource Community stark
    > von anderen unterscheidet,

    Ehrlicherweise habe ich nicht in die Studie reingeschaut, aber: 1. bezieht sich die Studie auf GitHub, und in Bezug auf GitHub ist die Studie aussagekräftig. Wird denn in der Interpretation der Studie verallgemeinert, oder erst in der Presse darüber?

    > überhaupt von der eigentlichen Wirtschaft, die
    > stark Jira nutzt und nicht auf Github ihren Code ladet, anderes
    > Prozessmanagement besitzt und anders geleitet wird.

    Das stimmt, aber man kann jeder Studie anlasten, dass ihr betrachtetes Sample zu klein ist. Dann ließe sich gar keine empirische Forschung betreiben. Die Autoren können ja nur zugängliche Informationen betrachten.

    > Statistisch gesehen sind Abweichung bis 5% mit einer geringfügigsten
    > Aussagekraft zu beurteilen,

    Warum? Wer erzählt denn sowas? In der Wahl- und Einstellungsforschung sind Abweichungen im einstelligen Prozentbereich üblich, dann muss man halt sein Sample groß genug wählen, damit die Standardabweichung klein wird.

    > darüber hinaus sind Studien mit einer Agenda
    > ebenfalls nichts wert, sonst würde man nicht Konklusionen veröffentlichen,
    > die jeglicher statistischen und mathematischen Wissenschaft widersprechen.

    Woran erkennst du denn, dass hier eine Agenda verfolgt wurde? An welcher Stelle wirderspricht das Studiendesign statistischen und mathematischen Standards?

    Verstehe mich nicht falsch, aber deine Anschuldigungen sind schon schwer. wenn ich mich Mal in die Perspektive der Autoren versetze. Du würdest sicherlich auch nicht wollen, dass man dir so pauschal deine Arbeit (und deine Expertise) kritisiert. Das grenzt an FUD. Man kann den Eindruck gewinnen, dass dir einfach das Ergebnis nicht passt.

    Kritik könnte auch so aussehen: Wie kommen die Autoren zu der Interpretation, dass alle Frauen gleich gut programmieren können, wenn doch nur ein repräsentativ geringer Anteil aller Frauen überhaupt programmiert? Ist es nicht vielmehr plausibel, dass diese wenigen Frauen dann natürlicherweise auch "best of" der Grundgesamtheit sind?

  6. Re: Github Studie

    Autor: wurstdings 11.02.20 - 12:31

    Gastbeitrag schrieb:
    --------------------------------------------------------------------------------
    > Warum? Wer erzählt denn sowas? In der Wahl- und Einstellungsforschung sind
    > Abweichungen im einstelligen Prozentbereich üblich, dann muss man halt sein
    > Sample groß genug wählen, damit die Standardabweichung klein wird.
    Das Sample ist ja zumindest beim Frauenteil sehr klein.

    Man muss auch überhaupt nicht bis zur Mathemathik vordringen um den Fehler der Studie zu finden. Denn diese geht davon aus, dass dem Ablehner/Befürworter das Geschlecht bekannt war oder nicht. Und das machen sie nicht daran fest, ob dem jeweiligen Individuum zu diesem Zeitpunkt tatsächlich das Geschlecht bekannt war. Das wird einfach von denen selber festgelegt.

    Und auch der Ablehnungsgrund wird völlig ignoriert, wenn das eben schlechte Patches waren, dann wurden sie halt abgelehnt, daraus dann einen "gender-bias" zu basteln ist sehr fragwürdig.

    Auf jeden Fall kann das keine wissenschaftliche Arbeit sein, wenn ich schon als Laie solche eklatanten Fehler sehe.

  7. Re: Github Studie

    Autor: Gastbeitrag 11.02.20 - 16:04

    wurstdings schrieb:

    > Das Sample ist ja zumindest beim Frauenteil sehr klein.
    Muss nicht so sein. Wenn ich 20000 Pull-Requests betrachte und davon 5 % weibliche Autorenschaft hat, dann ist mein Sample immer noch bei 1000. In Umfragen gilt das schon als repräsentativ.
    > Denn diese geht davon aus, dass dem Ablehner/Befürworter das Geschlecht bekannt war oder > nicht.
    Ich verstehe diesen Satz nicht. Hat für mich die ogische Struktur: "Geht davon aus, dass A oder nicht-A".

    > Und das machen
    > sie nicht daran fest, ob dem jeweiligen Individuum zu diesem Zeitpunkt
    > tatsächlich das Geschlecht bekannt war. Das wird einfach von denen selber
    > festgelegt.

    Wenn ich es richtig verstehe, ist die Prämisse nicht, dass dem Empfänger des Pull-Requests das Geschlecht bekannt war/nicht bekannt war, sondern, dass es für die Entscheidung, ein Pull-Request anzunehmen, nur geringe Bedeutung hat, und die Annahme/Ablehnung eines Pull-Requests vielmehr eine Aussage zu der Code-Qualität ist.

    > Und auch der Ablehnungsgrund wird völlig ignoriert, wenn das eben schlechte
    > Patches waren, dann wurden sie halt abgelehnt, daraus dann einen
    > "gender-bias" zu basteln ist sehr fragwürdig.

    Hier verstehe ich den Text genau anders: aus den (in etwa) gleich hohen Ablehnungsquoten "weiblicher" und "männlicher" Pull-Requests lässt sich ableiten, dass es eben kein geschlechtsspezifisches Qualitäts-gap gibt.

    > Auf jeden Fall kann das keine wissenschaftliche Arbeit sein, wenn ich schon
    > als Laie solche eklatanten Fehler sehe.

    Man kann bei einer Studie schon Kritikpunkte finden: in den Prämissen, in der Interpretation, in unzulässigen Verallgemeinerungen etc. Wenn man aber vorbringt, in den Methoden/im Design liegt der Fehler, dann sollte man schon konkret sein. Das ist ungefähr wie der Unterschied zwischen den Aussagen eine App ist schlecht (Geschmacksurteil) oder der Code der App ist fehlerhaft. Dann sollte man das auch konkret benennen können.

  8. Re: Github Studie

    Autor: wurstdings 11.02.20 - 19:44

    Gastbeitrag schrieb:
    --------------------------------------------------------------------------------
    > Ich verstehe diesen Satz nicht. Hat für mich die ogische Struktur: "Geht
    > davon aus, dass A oder nicht-A".
    Sie haben die Github-Accounts mit Google+ abgeglichen, um das Geschlecht zu erfahren. Sie haben aber nicht sicher gestellt, dass dem Ablehnenden wirklich das Geschlecht bekannt war. Er/Sie hätte es eventuell am Namen oder Bild erkennen können, ob dem so ist weiß man nicht.
    Hoffe das ist verständlicher.

    > Wenn ich es richtig verstehe, ist die Prämisse nicht, dass dem Empfänger
    > des Pull-Requests das Geschlecht bekannt war/nicht bekannt war, sondern,
    > dass es für die Entscheidung, ein Pull-Request anzunehmen, nur geringe
    > Bedeutung hat
    Um das festzustellen müssten sie aber genau unterscheiden, ob das Geschlecht bekannt war.

    > und die Annahme/Ablehnung eines Pull-Requests vielmehr eine
    > Aussage zu der Code-Qualität ist.
    Nee, das habe ich nur in dem Golem-Artikel gelesen, oder habe ich was in dem Dokument übersehen?
    In dem Dokumment ging es doch darum "ob es einen bias gegen Weibchen gibt". Dann haben sie das von allen Seiten zerpflückt, bis sie den Spezialfall entdeckten, das "weibliche Außenseiter" öfter abgelehnt werden. Immernoch unter der Prämisse, das sie garnicht genau wissen können ob der Ablehnende tatsächlich das Geschlecht kannte und ohne sicherzustellen, dass es nicht am Request selbst gelegen hat.
    > Hier verstehe ich den Text genau anders: aus den (in etwa) gleich hohen
    > Ablehnungsquoten "weiblicher" und "männlicher" Pull-Requests lässt sich
    > ableiten, dass es eben kein geschlechtsspezifisches Qualitäts-gap gibt.
    Ich Zitiere mal aus dem im Artikel verlinkten Dokument:
    > For outsiders, we see evidence for gender bias: women’s acceptance rates drop by 12.0% when their gender is identifiable, compared to when it is not (χ2(df = 1, n = 16, 258) = 158, p < .001). There is a smaller 3.8% drop for men (χ2(df = 1, n = 608,764) = 39, p < .001). Women have a higher acceptance rate of pull requests overall (as we reported earlier), but when they are outsiders and their gender is identifiable, they have a lower acceptance rate than men.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. ABB AG, Mannheim
  2. Stadt Achim, Achim
  3. Deloitte, verschiedene Standorte
  4. OEDIV KG, Bielefeld

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. 33€ (Bestpreis!)
  2. täglich neue Deals bei Alternate.de


Haben wir etwas übersehen?

E-Mail an news@golem.de


Buglas: Corona-Pandemie zeigt Notwendigkeit der Glasfaser
Buglas
Corona-Pandemie zeigt Notwendigkeit der Glasfaser

Mehr Datenupload und Zunahme der Sprachtelefonie bringe die Netze unter Druck. FTTB/H-Betreiber bleiben gelassen.
Eine Exklusivmeldung von Achim Sawall

  1. PEPP-PT Neuer Standard für Corona-Warnungen vorgestellt
  2. Coronavirus Covid-19-App der Telekom prüft Zertifikate nicht
  3. Corona Lidl Connect setzt Drosselung herauf

Coronavirus: Spiele statt Schule
Coronavirus
Spiele statt Schule

Wer wegen des Coronavirus mit Kindern zu Hause ist, braucht einen spannenden Zeitvertreib. Unser Autor - selbst Vater - findet: Computerspiele können ein sinnvolles Angebot sein. Vorausgesetzt, man wählt die richtigen.
Von Rainer Sigl

  1. Coronavirus Funktion zur Netflix-Drosselung war längst geplant
  2. Coronakrise China will Elektroautoquote vorübergehend lockern
  3. Corona-Krise Palantir könnte Pandemie-Daten in Europa auswerten

Star Trek - Der Film: Immer Ärger mit Roddenberry
Star Trek - Der Film
Immer Ärger mit Roddenberry

Verworfene Drehbücher, unzufriedene Paramount-Chefs und ein zögerlicher Spock: Dass der erste Star-Trek-Film vor 40 Jahren schließlich doch in die Kinos kam, grenzt an ein Wunder. Dass er schön aussieht, noch mehr.
Von Peter Osteried

  1. Machine Learning Fan überarbeitet Star Trek Voyager in 4K
  2. Star Trek - Picard Hasenpizza mit Jean-Luc
  3. Star Trek Voyager Starke Frauen und schwache Gegner