Archiv für die ‘Wikipedia’ Kategorie



Wikidata quality and quantity

One of the goals of the Wikidata development project is a community that is strong enough to maintain the content in Wikidata. The community is – as with all other Wikimedia projects – the only guarantee of quality and sustainability.

None of the objectives of the Wikidata development project is to be the largest collection of data on the net. The sheer number of statements in Wikidata is not a metric that is indicative of healthy growth or quality. Since it is an easy to get and understandable number it is nontheless used a lot, but we should not attach too much importance to it.

This leads to the question, which metrics are meaningful for quality in Wikidata? And I have to admit: we do not know. This may seem particularly ironic since my dissertation was on the topic of quality measurement of knowledge structures. But it is not surprising: the opportunity to make statements in Wikidata exists since about half a year. The site is in continuous development, and some important pieces for quality assurance that are planned for Wikidata are not yet developed – including, for example, ranks for statements, web links as a data type, the protection of individual statements and aggregated views of the data. How to make quality measurable in Wikidata, which metrics correlate with quality – it has simply not yet been investigated sufficiently. I expect that science will provide some answers in the coming months and years.

To get an overview of the development of Wikidata, we must temporarily take assumptions about what numbers likely indicate quality. I do hereby call the community to make suggestions and discuss. A few first thoughts below.

The number of data elements (items) seems to not be a useful measure. This number is so far almost exclusively characterized in that items are required for the storage of language links. Accordingly, there was initially strong growth, while the links were transferred, and in recent months, the number is relatively stable.

The number of edits per page seems to be more meaningful. Last week it went above 5.0 and is rising quickly. The number of edits alone in Wikidata is less meaningful than in many other Wikimedia projects as an extraordinarily high proportion of the edits are done by bots. Bots are programs written by users to automatically or semi-automatically make changes. The bots are controlled by a group of about 80 users. This leads many to the idea that Wikidata is only written by bots. But that’s not true: every month 600000-1 million edits are performed by human user. These are numbers that can be reached only by the most active Wikipedias – including their own bot edits. Worries about Wkidata’s growth being too fast and that the quality of the data would suffer, have so far, except for anecdotes, not proven true.

Perhaps the simplest metric is the number of active users. Active users in Wikimedia projects are defined as the users who contributed at least five edits in a given month. Wikidata has nearly 4,000 active users, making it rank 6th among the most active of the Wikimedia projects together with the Japanese and Russian Wikipedia behind only the English Wikipedia, Commons, the German, French and Spanish Wikipedia. In other words, Wikidata has more active users than 100 smaller Wikipedias combined! Whenever the smaller Wikipedias access Wikidata, they rely on a knowledge base that is maintained by a much larger community than their own Wikipedia. But the advantages don’t end there: by using the content of Wikidata in the Wikipedias it becomes more visible, gets more attention, and errors are more likely to be found (although we still lack the technical means to then correct the error easily from Wikipedia – but that is on the development plan). This mainly benefits the smaller Wikipedias.

But it also already has useful advantages for the larger Wikipedias: An exciting – and for me completely unexpected – opportunity for quality assurance came when the English Wikipedia decided not to simply take IMDB IDs from Wikidata but instead load them from Wikidata to compare them with the existing numbers in Wikipedia, and in the case of inconsistency to add a hidden category to the article. This way difficult to detect errors and easily vandalisable data got an additional safety net: it may well be that you have a typo in the number on the English Wikipedia, or some especially funny person switched the ID for Hannah Montana’s latest film with that ofNatural Born Killers in the French Wikipedia – but now these situations are detected quickly and automatically. This data that is validated in several ways can then be used by the smaller Wikipedias with little concern.

As mentioned earlier, a lot is still missing and Wikidata is a very young project. Many of the statements in Wikidata are without a source. Even in the German Wikipedia the statement, Paris is the capital of France, does not have a source. We impose much stricter rules on a much smaller project after such a short time? But, then one may interject, if a statement has no source, I can not use it in my Wikipedia. And that is perfectly okay: it is already possible now, to just use data from Wikidata if they have a source of a certain type.

There are two ways to ensure the long term quality of Wikipedia: Allow user to be more effective or attract more users. We should continue to pursue both ways and Wikidata uses both ways very effectively: the mechanisms described above aim to give users the means to make more powerful tools and processes to build quality assurance, simultaneously Wikidata has already brought more than 1300 new users to the Wikimedia projects who had not edited in the other Wikimedia projects before.

Wikidatas main goal is to support the Wikimedia projects: it should enable higher quality of the content and reduce the effort required for the same. We need more metrics that capture this goal, and show how we evolve. The simple metrics all indicate that the initial growth in width has come to an end after months, and that the project is gaining in depth and quality. There are useful applications both for small as well as for large projects. But it is also clear that I am an avid supporter of Wikidata and so have a bias, and therefore start a call for ideas to track Wikidata’s effect critically and accurately.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (2 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Wikidata Qualität und Quantität

Eines der Ziele des Wikidata-Entwicklungsprojektes ist eine Community, die stark genug ist, die Inhalte in Wikidata zu pflegen. Die Community ist – wie für alle anderen Wikimedia-Projekte auch – der einzige Garant für Qualität und Nachhaltigkeit.

Keines der Ziele des Wikidata-Entwicklungsprojektes ist es, die größte Sammlung von Daten im Netz zu werden. Die schiere Anzahl der Aussagen in Wikidata ist keine Metrik, die auf gesunden Wachstum oder Qualität schließen lässt. Da sie eine leicht berechenbare und verständliche Zahl ist, wird sie dennoch gerne genannt, aber wir sollten ihr nicht zuviel Bedeutung beimessen.

Das führt zu der Frage, welche Metriken denn aussagekräftig für Qualität in Wikidata sind? Und da muss ich zugestehen: wir wissen es nicht. Das mag besonders ironisch erscheinen, da meine Dissertation das Thema Qualitätsmessung von Wissensstrukturen hatte. Aber es ist nicht überraschend: die Möglichkeit, Aussagen in Wikidata zu machen, gibt es seit etwa einem halben Jahr. Die Seite ist in stetiger Entwicklung, und manche Herzstücke der Qualitätssicherung wie sie in Wikidata geplant sind, sind noch nicht entwickelt – dazu gehören zum Beispiel Ränge für Aussagen, Weblinks als Datentyp, der Schutz einzelner Aussagen und aggregierte Sichten auf die Daten. Wie man Qualität in Wikidata messbar macht, welche Metriken mit Qualität korrelieren – es wurde schlicht noch nicht hinreichend untersucht. Ich setze hier sehr darauf, dass in den kommenden Monaten und Jahren die Wissenschaft ein paar Antworten liefern wird.

Um überhaupt einen Überblick über die Entwicklung Wikidatas zu haben, müssen wir vorläufig Annahmen darüber treffen, welche Zahlen wahrscheinlich auf Qualität hinweisen. Ich will hiermit auch die Community aufrufen, Vorschläge zu machen und zu diskutieren. Ein paar erste Gedanken diskutiere ich im Folgenden.

Die Anzahl der Datenelemente (Items) scheint kein brauchbares Maß. Diese Zahl ist bislang fast ausschließlich dadurch gegeben, dass die Items für das Speichern von Sprachenlinks notwendig sind. Entsprechend gab es zunächst ein starkes Wachstum, während die Links übertragen wurden, und seit einigen Monaten ist die Zahl relativ stabil.

Deutlich aussagekräftiger scheint die Zahl der Bearbeitungen pro Seite zu sein. Die hat letzte Woche 5,0 überschritten, und steigt recht schnell. Die Zahl der Bearbeitungen alleine ist in Wikidata weniger aussagekräftig als in vielen anderen Wikimediaprojekten, da ein außerordentlich hoher Anteil der Bearbeitungen von Bots erledigt wird. Bots sind Programme, von Benutzern geschrieben, die automatisch oder halb-automatisch Änderungen vornehmen. Die Bots werden von einer Gruppe von etwa 80 Benutzern gesteuert. Das führt bei vielen Beobachtern zu dem Gedanken, dass Wikidata nur von Bots geschrieben wird. Aber das stimmt nicht: jedem Monat werden zwischen 600,000 und 1 Million Bearbeitungen durch menschliche Benutzer durchgeführt. Das sind Zahlen, die nur von den aktivsten Wikipedien erreicht werden – inklusive ihre eigenen Botbearbeitungen. Warnrufe darüber, dass Wikidatas Wachstum viel zu schnell sei und die Qualität der Daten auf der Strecke bliebe, wurden bislang, außer durch Anekdoten, nicht belegt.

Die vielleicht einfachste Metrik ist die Zahl der aktiven Benutzer. Aktive Benutzer werden in Wikimediaprojekten definiert als die Benutzer, die zumindest fünf Bearbeitungen im Monat beitrugen. Wikidata hat knapp 4000 aktive Benutzer, und ist damit mit der Japanischen und Russischen Wikipedia auf Rang 6 der aktivsten Wikimediaprojekte, nur hinter der Englischen Wikipedia, Commons, der Deutschen, Französischen und Spanischen Wikipedia. Oder anders gesagt: Wikidata hat mehr aktive Benutzer als 100 kleinere Wikipedien zusammengezählt! Wann auch immer die kleineren Wikipedien auf Wikidata zugreifen, greifen sie auf eine Wissensbasis zurück, die von einer deutlich größeren Community gewartet wird als ihre eigene Wikipedia. Aber damit erschöpft sich der Vorteil noch nicht: durch das Darstellen der Inhalte von Wikidata in den Wikipedien werden die Inhalte sichtbarer, erhalten mehr Aufmerksamkeit, und Fehler werden wahrscheinlicher gefunden (auch wenn es noch an der technischen Möglichkeit fehlt, die Fehler dann auch leicht aus der Wikipedia heraus zu korrigieren – aber auch das steht im Entwicklungsplan). Das nutzt vor allem den kleineren Wikipedien.

Aber auch die größeren Wikipedien haben jetzt schon handfeste Vorteile: eine spannende – und für mich vollkommen unterwartete – Möglichkeit zur Qualitätssicherung ergab sich, als die Englische Wikipedia entschloss, IMDB IDs nicht einfach aus Wikidata zu übernehmen, sondern vielmehr aus Wikidata zu laden, mit den vorhandenen Zahlen in Wikipedia zu vergleichen, und im Fall einer Inkonsistenz den Artikel mit einer versteckten Kategorie zu versehen. Dadurch könne gerade schwer zu entdeckende Fehler und leicht vandalisierbare Daten mit einem mehrfachen Sicherheitsnetz versehen werden: es kann ja sein, dass man einen Zahlendreher in der Englischen Wikipedia hat, oder das ein Spaßvogel in der Französischen Wikipedia die ID für Hanna Montanas neuesten Film mit der von Natural Born Killers vertauscht – aber nun werden solche Situationen schnell und automatisch erkannt. Diese mehrfach validierten Daten können dann auch mit wenig Bedenken von den kleineren Wikipedien genutzt werden.

Wie anfangs erwähnt, vieles fehlt noch, und Wikidata ist ein sehr junges Projekt. Viele der Aussagen in Wikidata stehen ohne Quelle da. Auch in der Deutschen Wikipedia hat die Aussage, Paris sei die Hauptstadt Frankreichs, keine Quelle. Verlangen wir von einem viel kleineren Projekt strengere Regeln nach so kurzer Zeit? Aber, mag man dann einwerfen, wenn eine Aussage keine Quelle hat, kann ich sie in meiner Wikipedia nicht verwenden. Und das ist vollkommen in Ordnung: es ist jetzt bereits möglich, Daten aus Wikidata nur zu übernehmen, wenn sie eine Quelle einer bestimmten Art haben.

Es gibt zwei Möglichkeiten, die Qualität der Wikipedien langfristig zu sichern: Benutzer effektiver werden lassen oder mehr Benutzer gewinnen. Beide Wege sollten wir weiterhin verfolgen, und Wikidata verfolgt beide Wege sehr effektiv: die oben beschriebenen Mechanismen zielen daraufhin, den Benutzern die Mittel zu geben, mächtigere Werkzeuge und Prozesse zur Qualitätssicherung aufbauen zu lassen, gleichzeitig hat Wikidata bereits mehr als 1300 neue Benutzer zu den Wikimediaprojekten geführt, die bislang nicht in den anderen Wikimediaprojekten editierten.

Wikidatas Hauptziel ist die Wikimediaprojekte zu unterstützen: es soll eine höhere Qualität der Inhalte ermöglichen und gleichzeitig den dafür benötigten Aufwand senken. Wir brauchen mehr Metriken, die dieses Ziel erfassen, und die zeigen, wie wir uns dahingehend entwickeln. Die einfachen Metriken deuten alle darauf hin, dass der anfängliche Wachstum in der Breite seit Monaten zu einem Abschluss gekommen ist, und dass das Projekt in Tiefe und Qualität gewinnt. Es gibt nützliche Anwendungen sowohl für die kleinen wie auch für die großen Projekte. Aber es ist auch klar, dass ich ein eifriger Verfechter Wikidatas bin, damit einen Bias habe, und deswegen einen Aufruf starte, nach Möglichkeiten, Wikidatas Effekt kritisch und genau verfolgen zu können.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (1 Bewertungen, Durchschnitt: 1,00 von 5)
Loading...

14 Tage #ZDFcheck – ein Zwischenbericht

Wie zuletzt an dieser Stelle berichtet, ist vor zwei Wochen der ZDF-Faktencheck (#ZDFcheck) angelaufen. Im Rahmen dieses Projektes arbeiten eine Redaktion im ZDF-Hauptstadtstudio, Phoenix und Wikimedia gemeinsam an einem Faktencheck im Vorfeld der Bundestagswahl, in dem Politikeraussagen geprüft werden. Seit 13. Mai sitze ich nun als Wikipedian in Residence im Hauptstadtstudio des ZDF in Berlin in der ZDFcheck-Redaktion und betreue die Zusammenarbeit mit Wikimedia Deutschland e. V.. Alle sind herzlich dazu eingeladen mit zu recherchieren und die Arbeit zu kommentieren und sich so zu beteiligen. Insbesondere freuen wir uns auf Hinweise von Wikipedianern, anderen Wikimedianern und der übrigen Netz-Community.

Im Laufe der letzten beiden Wochen haben wir rund 135 Hinweise von zahlreichen Freiwilligen erhalten, davon waren bereits vier Wikipedianer. Die Testphase des Formats, in der wir unsere Arbeitsweise geklärt haben, ist jetzt abgeschlossen. Fünf Thesen konnten wir bereits durch den Check schicken. Dabei gehen wir in mehreren Schritten vor: Zunächst definieren wir, was wir genau checken, um die Aussage dann nach und nach in ihre Einzelteile zu zerlegen. Diese prüfen wir dann auf ihren Wahrheitsgehalt.

Dr. Eckart Gaddum, ZDF-Hauptredaktionsleiter Neue Medien, fasst die Woche auf heute.de zusammen. Auch der NDR und die RheinZeitung berichten über das Format. Das politische Umfeld hat bereits sensibel auf das neue Format reagiert. Ein vollständiges Medienecho und weitere Informationen findet sich im FAQ in der Wikipedia und im Pressespiegel von Wikimedia.

Beispiel für eine Infografik, hier: Kinder in Kindertagesbetreuung

Eine Besonderheit des Checks ist, dass nicht nur die Möglichkeit zum Mitmachen besteht, sondern, dass alle erstellten Infomaterialien (Texte, Bilder und Videos) unter einer Freien Lizenz stehen. Dazu verwenden wir die Lizenz CC-BY. Gemeinsam mit der Grafikerin des ZDF und der Beratung von Wikipedianern erarbeiten wir so auch gezielt Material, das in der Wikipedia noch fehlt.

Die Kommentare von Wikipedianern und anderen Ehrenamtlichen aus den Wikimedia-Projekten, die die Software dezent hervorhebt, beobachtet die Redaktion mit besonderem Interesse, da wir von dieser Gruppe sehr hochwertige Beiträge erwarten. Bei Rückfragen oder Recherecheanfragen stehe ich besonders dieser Gruppe auf meiner Benutzerseite jederzeit zur Verfügung.

Die erste Runde von Materialien, fünf Infografiken, die im Bereich deutscher Innenpolitik verwendet werden können, wurde am Freitag auf Commons transferiert. Sie stehen unter einer Freien Lizenz und können jetzt weiter kategorisiert und eingebunden werden. Mithilfe dabei ist gern gesehen, auch hier stehe ich für Fragen gern zur Verfügung!

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (7 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Wikidata auf der ganzen Welt

Die Möglichkeit Daten von Wikidata in ihren Artikeln einzubinden haben 11 Wikipedien bereits seit einem Monat. Vorgestern kam noch die englischsprachige Wikipedia hinzu. Heute kommen alle 274 verbleibenden hinzu. Hinweise zur Nutzung finden sich im letzten Blogeintrag. Hier gibt es Antworten auf die häufigsten Fragen.

Das ist ein großer Schritt für Wikidata und gleichzeitig ein weiterer Anfang. Es ist ein großer Schritt weil ab sofort alle Wikipedien in der Lage sind Daten gemeinsam zu sammeln, zu pflegen und zu nutzen. So kann zum Beispiel in jeder Wikipedia zu einem Film dessen ID in der Internet Movie Database abgefragt werden und in einem Artikel genutzt werden sobald sie jemand in Wikidata hinterlegt hat. Gleichzeitig ist es allerdings auch ein weiterer Anfang, da noch viel getan werden muss. Die Abfrage muss vereinfacht werden. Mehr Daten müssen in Wikidata eingetragen (und wo nötig übersetzt) werden. Es müssen mehr Belege eingefügt werden. Es müssen weitere Datentypen verfügbar gemacht werden wie zum Beispiel Geokoordinaten und Zeit. Deine Hilfe und dein Feedback ist dabei sehr willkommen und wichtig.

Wir freuen uns auf die nächsten Schritte!

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (1 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Wikidata all around the world

(Die deutsche Version dieses Artikels ist hier)

Since one month 11 Wikipedias have the ability to include data from Wikidata in their articles. Two days ago English Wikipedia was added to that group. Today the remaining 274 are joining. Usage examples are in the last blog entry. There is also an FAQ for this deployment.

This is a huge step for Wikidata and at the same time also another beginning. It’s a huge step because from now on all Wikipedias are able to collect, curate and use data together. For example every Wikipedia can query the ID of a movie on the Internet Movie Database and use it in their article as soon as someone added it to Wikidata. At the same time it is a beginning because there is still a lot to do. Accessing the data has to be made easier. More data has to be added to Wikidata (and translated where necessary). More sources have to be added to existing claims. More data types need to be made available – for example geocoordinates and time. Your help and your Feedback is very welcome and important there.

We’re looking forward to the next steps!

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (1 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

And that makes 12

(Die deutsche Version dieses Beitrags gibt es hier.)

Today the English Wikipedia got the ability to include data from Wikidata. Four weeks ago the first 11 Wikipedias started testing this second phase of the project. This means by now 12 Wikipedias can make use of the shared data in their infoboxes for example. The available data includes things like conservation status for a species, ISBN for a book or the top level domain of a country.

A Request for Comments about how to use data from Wikidata is currently ongoing. Until the Request for Comments is closed you can continue to try it out on test2.wikipedia.org.

There are two ways to access the data:

  • Use a parser function like {{#property:p159}} in the wiki text of the article on the Wikimedia Foundation. This will return “San Francisco” as that is the current headquarters location of the non-profit.
  • For more complicated things you can use Lua. The documentation for this is here.

We are working on expanding the parser function so you can for example use {{#property:headquarters location}} instead of {{#property:p159}}. The complete plan for this is here.

The next step is the deployment on all remaining 274 Wikipedias. If there are no issues they will follow on Wednesday.

There is an FAQ for this deployment. Please help us with testing and feedback. The best place to leave feedback is this discussion page.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (3 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Und dann waren es 12

Ab sofort ist es möglich in der englischsprachigen Wikipedia Daten von Wikidata einzubinden. Vor vier Wochen haben die ersten 11 Wikipedien angefangen diese zweite Phase des Projekts zu testen. Das bedeutet, dass mittlerweile 12 Wikipedien die Daten zum Beispiel in ihren Infoboxen verwenden können. Die verfügbaren Daten beinhaltet Dinge wie den Status auf der Roten Liste für eine Tier- oder Pflanzenart, die ISBN für ein Buch oder die Top-Level-Domain eines Landes.

Es läuft aktuell ein Meinungsbild darüber wie Daten aus Wikidata genutzt werden sollen. Bis das Meinungsbild abgeschlossen ist kannst du es weiterhin zum Beispiel auf test2.wikipedia.org ausprobieren.

Es gibt 2 Wege auf die Daten zuzugreifen:

  • Benutze eine Parserfunktion wie {{#property:p159}} im Wikitext des Artikels über die Wikimedia Foundation. Das wird “San Francisco” zurückgeben da es der aktuelle Sitz der Foundation ist.
  • Für kompliziertere Sachen kannst du Lua benutzen. Die Dokumentation dazu ist hier.

Wir arbeiten daran die Parserfunktion auszubauen damit du zum Beispiel {{#property:Sitz der Hauptverwaltung}} statt {{#property:p159}} nutzen kannst. Der vollständige Plan dafür ist hier.

Der nächste Schritt ist die Inbetriebnahme auf den restlichen 274 Wikipedien. Vorrausgesetzt es treten keine Probleme auf wird dies am Mittwoch passieren.

Es gibt Antworten auf die häufigsten Fragen für dieses Deployment. Bitte hilf uns durch Testen und deine Rückmeldungen. Der beste Ort für Rückmeldungen ist diese Diskussionsseite.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (3 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Du kannst alle Daten haben!

Seit heute haben die ersten Wikipedien die Möglichkeit Daten aus Wikidata in ihren Artikeln einzubinden. Es sind die italienische, hebräische, ungarische, russische, türkische, ukrainische, usbekische, kroatische, bosnische, serbische und serbo-kroatische Wikipedien. Wenn du neugierig bist kannst du es auch auf test2.wikipedia.org ausprobieren. Das heißt, dass die Autoren auf diesen Wikipedien ab sofort die wachsende Menge an strukturierten Daten die auf Wikidata verfügbar ist als gemeinsame Datenbasis nutzen können. Es beinhaltet Dinge wie den Status auf der Roten Liste für eine Tier- oder Pflanzenart, die ISBN für ein Buch oder die Top-Level-Domain eines Landes.

Es gibt 2 Wege auf die Daten zuzugreifen:

  • Benutze eine Parserfunktion wie {{#property:p169}} im Wikitext des Artikels über Yahoo!. Das wird “Marissa Mayer” zurückgeben da sie der Chief Executive Officer der Firma ist.
  • Für kompliziertere Sachen kannst du Lua benutzen. Die Dokumentation dazu ist hier.

Wir arbeiten daran die Parserfunktion auszubauen damit du zum Beispiel {{#property:chief executive officer}} statt {{#property:p169}} nutzen kannst. Der vollständige Plan dafür ist hier.

Der nächste Schritt ist die Inbetriebnahme auf den restlichen Wikipedien. Wir werden die Performance genau beobachten und wenn es keine Probleme gibt werden sie innerhalb von ein oder zwei Wochen folgen.

Wir haben die häufigsten Fragen für dieses Deployment zusammengestellt und freuen uns auf dein Testen und deine Rückmeldungen. Der beste Ort für Rückmeldungen ist diese Diskussionsseite.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (7 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

You can have all the data!

(Die deutsche Version dieses Beitrags gibt es hier.)

Today the first 11 Wikipedias got the ability to include data from Wikidata in their articles. These are the Italian, Hebrew, Hungarian, Russian, Turkish, Ukrainian, Uzbek, Croatian, Bosnian, Serbian and Serbo-Croatian Wikipedias. If you are curious you can also try it out on test2.wikipedia.org. This means the editors on these Wikipedias are now able to make use of the growing amount of structured data that is available in Wikidata as a common dataset. It includes things like conservation status for a species, ISBN for a book or the top level domain of a country.

There are two ways to access the data:

  • Use a parser function like {{#property:p169}} in the wiki text of the article on Yahoo!. This will return “Marissa Mayer” as she is the chief executive officer of the company.
  • For more complicated things you can use Lua. The documentation for this is here.

We are working on expanding the parser function so you can for example use {{#property:chief executive officer}} instead of {{#property:p169}}. The complete plan for this is here.

The next step is the deployment on the other Wikipedias. We will carefully monitor performance and if there are no issues they will follow within a week or two.

We have prepared an FAQ for this deployment and are looking forward to your testing and feedback. The best place to leave feedback is this discussion page.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (4 Bewertungen, Durchschnitt: 4,50 von 5)
Loading...

Wikidata jetzt auf allen Wikipedien

Heute haben wir Wikidatas Sprachlinkunterstützung auf allen verleibenden Wikipedien freigeschalten. (Also alle verbleibenden 282 außer Ungarisch, Hebräisch, Italienisch und Englisch.) Das heißt, dass ab sofort die Links in der linken Seitenleiste die auf Artikel zum gleichen Thema in anderen Sprachen verlinken jetzt von Wikidata kommen.

Was heißt das genau?

  • Sprachlinks in der Seitenleiste kommen automatisch von Wikidata, wenn die entsprechende Seite auf Wikidata einen Link zum Artikel hat. Es ist keine spezielle Syntax notwendig.
  • Existierende Sprachlinks im Wikitext werden weiterhin funktionieren und überschreiben Links von Wikidata.
  • Für individuelle Artikel können Sprachlinks von Wikidata komplett unterbunden werden mit der Funktion noexternallanglinks.
  • Änderungen auf Wikidata die mit einem Artikel in der Wikipedia zu tun haben werden in Letzte Änderungen und Beobachtungsliste angezeigt, wenn die Option vom Nutzer aktiviert wurde. (Es gibt noch ein paar Probleme falls Erweiterte Letzte Änderungen aktiviert sind.)
  • Am Ende der Liste der Sprachlinks gibt es einen Link um die Sprachlinks zu editieren der dich zur verlinkten Seite auf Wikidata führt.
  • Du kannst ein Beispiel dafür im Artikel über den Eigentlichen Langohrigel sehen.
  • Die zweite Phase (Behauptungen/Infoboxen) ist auf Wikidata in Betrieb, kann aber noch nicht in den Wikipedien genutzt werden. Es soll gegen Ende des Monats auf den ersten Wikipedien freigeschalten werden. Der Rest wird kurz darauf folgen.

Eine Liste der am häufigsten gestellten Fragen gibt es hier und Dokumentation hier.

Auf dem Laufenden bleiben und mitmachen

Es gibt verschiedene Wege auf dem Laufenden zu bleiben über alles was rund um Wikidata passiert. Der wöchentliche Newsletter ist der Wichtigste. Du kannst dich hier eintragen um es auf deine Diskussionsseite geliefert zu bekommen. Es gibt auch Accounts auf Twitter, identi.ca, Facebook und Google+.
Wenn du bei Wikidata mitmachen willst ist diese Seite ein guter Start.

Sprechstunde im IRC

Diesen Freitag um 18:00 Uhr wird es eine Sprechstunde zu Wikidata im IRC geben. Mehr Details dazu gibt es auf Meta.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (2 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...