Wikipedia ist ein Spiegelbild der Welt – auch ihrer geschlechtsspezifischen Ungleichgewichte
WMDE allgemein
19. Oktober 2018
Trotz ihrer wegweisenden Forschung, hatte Dr. Strickland keinen Wikipedia-Artikel – erst nachdem sie als Nobelpreisträgerin verkündet wurde, erhielt sie einen Artikel. Doch es ist eigentlich noch gravierender: In der englischsprachigen Wikipedia gab es im März diesen Jahres sogar einen Entwurf für einen Artikel, doch wurde dieser abgelehnt. Wieso? Es gab keine ausreichenden „unabhängigen Sekundärquellen“, um ihre Relevanz zu bestätigen.
Dr. Strickland ist Nobelpreisträgerin, eine Koryphäe auf ihrem Gebiet. Warum fehlte sie also bis dato in der weltgrößten Enzyklopädie? Dr. Penny Richards, eine bekannte und überaus fleißige Wikipedia-Autorin zahlreicher weiblicher Biographien in der Wikipedia, beantwortet diese schwierige Frage kurz und bündig: Die Leistungen und Erfolge von Dr. Strickland wurden nirgendwo veröffentlicht, wo Wikipedia-Aktive diese hätten finden können. Und wenn es keine Quellen für gute Belege gibt, wie können dann ehrenamtlich arbeitende Wikipedianerinnen und Wikipedianer einen Artikel schreiben und damit ihren Leistungen gerecht werden?
Bevor Wikipedia Schuld bei jenen sucht, die wiederum zurecht auf uns zeigen würden, muss ich einräumen, dass Wikipedias Lücken und Missverhältnisse sehr real sind. Natürlich haben wir dutzende Artikel über Kriegsschiffe, und bräuchten eigentlich mehr über Poesie. Es gibt zig Artikel über Fußballspieler der europäischen Ligen und kaum welche über afrikanische Sportler. Unsere Kriterien und Standards für „Relevanz“ orientieren sich sehr stark an denen großer, bekannter Institutionen und deren eigenen strukturellen Ungleichheiten. Unsere Beitragenden kommen vor allem aus dem Westen und sind vor allem männlich. Wir haben Wissenswächterinnen und -wächter, die ihr eigenes Urteilsvermögen basierend auf ihren Annahmen und vielleicht auch Voreingenommenheiten anwenden – welche auch immer das sein mögen.
Glücklicherweise funktioniert Wikipedia meistens trotzdem. Viele, viele Menschen in unserer Community kämpfen dafür diese Wissenslücken zu schließen; neue, diverse, andere Beitragende einzuladen sowie auf kreative Art und Weise unsere Kriterien für Belege neu zu denken. Es gibt noch ganz schön viel zu tun, aber es gibt auch Fortschritte: 2014 stellten Wikipedianerinnen und Wikipedianer der englischsprachigen Wikipedia fest, dass nur 15 Prozent der Biographien Frauen beschrieben. Seitdem gab es verschiedene, konzertierte Aktionen, die dazu führten, dass der Anteil inzwischen 17,82 Prozent beträgt. Das mag sich nach wenig anhören, aber das entspricht einem Zuwachs von 86.182 neuen Artikeln: 72 neue Artikel an jedem einzelnen Tag der letzten dreieinhalb Jahre.
In einer Studie von Claudia Wagner u.a. aus dem Jahr 2015 (pdf) stellten die Forschenden fest, dass in der englischsprachigen Wikipedia das Wort „divorced“ (geschieden) 4,4 Mal häufiger in Frauen-Biographien genannt wird als in denen von Männern. In der deutsch- und russischsprachigen Wikipedia erhöht sich der Faktor auf 4,7 bis 4,8 Mal. Wieso scheint eine Scheidung in denen Biographien von Frauen wichtiger zu sein als in denen von Männern? Eigene Vorurteile sind manchmal sehr schwer zu erkennen.
Die Kinderrechtsaktivistin Marian Wright Edelman sagte einmal, dass „Du nicht sein kannst, was Du nicht siehst.“. Was wir heute in der Wikipedia sehen hat eine deutliche Wirkung darauf, wie Frauen in der Welt dargestellt werden. Wikipedia-Artikel sind oft in den ersten Suchergebnissen, gelesen von hunderten Millionen Menschen, und genießen großes Vertrauen. Das heißt, wenn ein Artikel über bekannte Forschende tatsächlich auch nur Erfolge männliche Physiker nennt, ist es dem Leser schwer zu verübeln, wenn er zum Schluss käme, dass Frauen in der Physik nichts beigetragen hätten. Was als ein unbedachtes Versäumnis begann, kann dazu führen, Beiträge der Hälfte der Weltbevölkerung zu löschen.
Technik und Technologie kann dabei helfen, derlei problematische Muster zu erkennen. In der englischsprachigen Wikipedia werden die Artikel zur menschlichen Gesundheit von unserer Spezialisten-Gruppe von Medizinerinnen und Medizinern betreut. Dennoch war eine große Zahl der Artikel zu wichtigen weiblichen Gesundheitsthemen, wie beispielsweise der zum Thema Stillen (Breastfeeding), als „unwichtig“ eingestuft. Das bedeutete, dass die Vervollständigung und Qualitätssicherung dieser Artikel eine niedrigere Priorität hatte. Erst dank eines intelligenten Algorithmus fiel diese geschlechterbezogene Fehlkategorisierung auf, sodass die Wikipedianerinnen und Wikipedianer die Möglichkeit bekamen, dies zu korrigieren und die Qualität des Artikels zu verbessern.
Aber es geht nicht nur um bestimmte Artikel, die fehlen oder nicht vollständig sind. Wikipedia dient zunehmend auch als Quelle für einflussreiche künstliche Intelligenzen, die verschiedenste neue Technologien stützen. Diese künstlichen Intelligenzen werden mit großen Datensätzen gefüttert, die wiederum basierend auf diesen Annahmen und Muster entwickeln, um Vorhersagen zu treffen. Und während die Technologie dahinter hochentwickelt und komplex ist, ist es leicht nachzuvollziehen, dass schlechte, verzerrte Datensätze zu verzerrten Ergebnissen führen. In der Programmierwelt wird dieses Phänomen auch GIGO bezeichnet, was für „garbage in, garbage out“ (Unsinn rein, Unsinn raus) steht.
Menschen verstehen meist intuitiv, dass Wikipedia ein lebendiges, sich entwickelndes Projekt ist, doch Computer verarbeiten einfach die Daten, mit denen sie gefüttert werden. Wenn nur 17,82 Prozent der Daten Frauen beschreiben, kann es passieren, dass wir auf einmal eine Software haben, die davon ausgeht, dass Frauen nur für 17.82 Prozent der Dinge und Themen auf der Welt stehen, die wichtig sind.
Deswegen ist es umso wichtiger, dass Wikipedia eine größere menschliche Vielfalt widerspiegelt. Ja, Frauen, aber auch Frauen anderer Hautfarbe. Ja, Frauen, aber besonders auch jene mit körperlichen oder geistigen Einschränkungen. Ja, Frauen, aber auch LSBTTIQ+-Menschen und deren Geschichten. Ja, Frauen, aber auch indigene Gemeinschaften und deren Geschichten. Also ja, Frauen, aber auch die gesamte Welt.
Als Wikimedia Foundation glauben und arbeiten wir daran, dass alle Menschen Zugang zum gesamten Wissen der Welt erhalten. Wir glauben an etwas, das wir „knowledge equity“ (ungefähr „Chancengleichheit auf Wissen“ auf Deutsch) nennen – es bedeutet, dass alle Menschen das Recht haben, ihr Wissen der Welt darzustellen und zu bearbeiten. Wir müssen die Enzyklopädie nicht in ein Bücherregal zwängen, denn das Internet hat Platz für all unser Wissen.
Aber: Wir können das nicht alleine. Es stimmt, dass Wikipedia ein Problem hat, wenn Dr. Donna Strickland, eine herausragende und ausgezeichnete Physikerin, nur einen Wikipedia-Artikel haben kann, wenn sie die höchste Auszeichnung ihrer Disziplin erhält. Aber: Es ist nicht nur das Problem von Wikipedia. Es ist ein globale Frage, wie wir die gesellschaftlichen und akademischen Leistungen und Beiträge von Frauen anerkennen, hervorheben und feiern.
Wikipedia steht auf den Schultern von Riesen. Wir sind Generalisten, die von der Expertise von Spezialisten und Spezialistinnen, die bereits das Wissen der Welt für andere zusammengefasst haben, profitieren. Wenn Journalistinnen und Journalisten, Herausgeber und Forscherinnen, Kuratoren, Akademikerinnen und Förderer wie auch Preisgremien ihre Expertise nicht nutzen, um diversere Talente zu finden, anzuerkennen, hervorzuheben, haben die Wikipedia-Autorinnen und -Autoren keine Schultern, auf denen sie stehen können. Es wird Zeit, dass diese vielen anderen Menschen und Institutionen, die Wissen schaffen, uns dabei unterstützen diese Chancengleichheit auf Wissen zu erreichen. Wikipedia alleine wird es nicht schaffen, die gesellschaftliche Wertschätzung von Frauen sicherzustellen, – aber wir können zusammen verändern, wie sie gesehen werden.
Katherine Maher, Geschäftsführerin der Wikimedia Foundation
Dies ist eine Übersetzung des englischsprachigen Blogposts von Katherine Maher, der am 18. Oktober auch in der Los Angeles Times erschien (nicht in der EU aufrufbar).
Ein sehr intelligenter, inspirierender und wichtiger Artikel – danke für die Übersetzung und die Veröffentlichung! Er zeigt, dass wir schnell handeln müssen, damit künstliche Intelligenzen nicht diskriminierende Stereotype fortschreiben und sogar verstärken. Wenn diese dem Algorithmus erstmal eingeschrieben sind, werden sie schwer zu korrigieren sein. Der Artikel liefert wertvolle Argumente, um jetzt aktiv zu werden und vernachlässigte Themen und Personengruppen sichtbar zu machen – in der Wikipedia und anderswo.