Posts Tagged ‘Wikidata’



Wikidata beim Hackathon HackHPI in Potsdam

Am 11. und 12. Juni 2016 fand in Potsdam der HackHPI statt, ein Hackathon für Studierende zum Thema Datenanalyse und Machine Learning im Hasso-Plattner-Institut an der Universität Potsdam. Wikidata war vertreten, um sowohl die APIs von Wikidata und den Query-Service mit SPARQL vorstellen, als auch eine Einführung in den Machine-Learning-Dienst ORES zu geben.

Machine Learning oder maschinelles Lernen ist nach Wikipedia die „künstliche“ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten.

Bei ORES wird maschinelles Lernen zum Beispiel eingesetzt, um Vandalismus aufzuspüren. Nachdem typische Muster von Vandalismus trainiert wurden, erkennt das System neuen Vandalismus mit sehr hoher Wahrscheinlichkeit und kann diesen (menschlichen) Administratoren anzeigen.

Zwei Teams bei HackHPI beschäftigten sich mit dem maschinellen Lernen oder der Datenanalyse bei Wikidata. In einem Projekt wurde eine Visualisierung zum „Bias“ bei Inhalten (Artikel zu psychischen Störungen) angefertigt, um Unterschiede zwischen Sprachversionen aufzuzeigen.

 

Richtig überzeugt hat uns aber das Projekt eines Teams, das sich daran machte, „Show case items“, also besonders gut ausgearbeitete Wissensgegenstände in Wikidata aufzuspüren und zu evaluieren. Dabei wurden zunächst gut ausgearbeitete Datenobjekte wie das zu Douglas Adams maschinell untersucht, um Kriterien zu finden, die sie zu Vorzeigeobjekten machen.

Damit werden nicht nur Datenschätze in Wikidata aufgespürt, es entsteht auch ein Score als Metrik, um die „Vorzeigbarkeit“ eines Wikidata-Items bewerten zu können.

Maschinelles Lernen ist zur Zeit ein besonders spannendes Thema, an dem intensiv geforscht wird. Die Ergebnisse dieser Forschung klingen nach Science Fiction, umgeben uns aber bereits heute – digitale Assistenten im Smartphone, die auf Zuruf Dinge im Internet recherchieren, sind bereits für viele menschen Alltag. Mit Wikidata als strukturierter Datenfundus über das Wissen der Welt steht eine Quelle für maschinelles Lernen zur Verfügung, die den Anspruch hat, Freies Wissen zu schaffen – für Maschinen und Menschen gleichermaßen.

 

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (2 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Artikel-Platzhalter für kleine Wikipedien

 

Lucie Kaffee ist Software-Entwicklerin (Werkstudentin) bei Wikimedia Deutschland und hat auch ihre Bachelor-Arbeit bei Wikimedia Deutschland geschrieben. Hier beschreibt sie, wie die Software-Erweiterung für den Artikel-Platzhalter entstanden ist und welche Überlegungen dahinter stehen.

Datei:LucieKaffee.jpg

Im Rahmen meiner Bachelorarbeit hatte ich die Möglichkeit, bei Wikimedia Deutschland an einer neuen Extension für MediaWiki zu arbeiten.

MediaWiki ist die Software hinter Wikipedia und ihren Schwesterprojekten. Diese hat sogenannte Extensions, um Funktionalitäten an die Bedürfnisse dieser Schwesterprojekte anzupassen. Wikidata zum Beispiel nutzt MediaWiki und die Wikibase Extension, die sich um die strukturierten Daten in Wikidata kümmert.

Viele solcher Funktionalitäten werden über Extensions hinzugefügt — damit ist es sehr einfach, von neue Funktionalitäten zum Beispiel nur auf einzelnen Wikis Gebrauch zu machen.

So eine Extension für die Wikipedia habe ich auch geschrieben- den ArticlePlaceholder, Artikel Platzhalter.

Die Sprache, die im Internet mit Abstand am meisten genutzt wird, ist Englisch. Über 50% der Inhalte online sind auf Englisch. Damit ist der Zugang zu Wissen für viele nicht-englisch Sprecherinnen und Sprecher sehr eingeschränkt.

Ähnlich sieht es auf der Wikipedia aus, dort ist die mit Abstand meist genutzte Wikipedia auch die Englische Wikipedia.

Dadurch entsteht für viele Wikipedien ein Teufelskreis, aus dem es schwer ist, auszubrechen. Durch die wenigen Artikel, die es auf diesen Wikipedien gibt, bekommen sie auch wenig Aufmerksamkeit von den Leserinnen und Lesern in den jeweiligen Sprachen und können somit wenig Freiweillige zum Editieren gewinnen, wodurch es schwierig wird, mehr Artikel zur Verfügung zu stellen und zu schreiben.

Die Informationen, die diese kleine Wikipedien bräuchten, sind aber da draußen. In anderen Wikipedia Artikeln, aber auch in Wikidata, der freien Wissensdatenbank.

In Wikidata sind Daten in vielen Sprachen schon verfügbar, auch wenn es noch keine Artikel zu dem Thema gibt. Die Properties wie zum Beispiel Einwohnerzahl (P1082) muss nur einmal übersetzt werden, um dann auf allen Datenobjekten verfügbar zu sein — Berlin hat eine Einwohnerzahl, so wie Deutschland oder die Türkei und Istanbul. Also kann diese Übersetzung einfach immer wieder verwendet werden.

Jetzt haben wir folgendes Problem — kleine Wikipedien mit zu wenig Artikeln und einen möglichen Lösungsansatz — eine Wissensdatenbank mit freien, multilingualen Daten.

Die Artikel-Platzhalter machen sich dies zu Nutze. Wenn es zu einem Thema noch keinen Artikel gibt, aber ein Datenobjekt auf Wikidata, wird ein Artikel Platzhalter aus diesen Daten generiert. Dieser enthält keinen echten Text, sondern stellt nur die Daten und ihre Referenzen da, um den Benutzer zu ermutigen, einen Artikel mit mehr Informationen und Kontext zu erstellen.

Um klar zu machen, dass diese Platzhalter keine regulären Artikel sind, unterscheidet sich die Darstellung sehr von Wikipedia Artikeln, wobei einige wohlbekannte Elemente aus dem Wikipedia Layout beibehalten werden.

Der Großteil der Extension ist in Lua geschrieben. Dadurch ist es möglich, im Modul AboutTopic auf der Wikipedia, auf der ArticlePlaceholder verwendet wird, jeden Teil der Darstellung eines Datenobjekts zu überschreiben und an die Bedürfnisse der Community anzupassen. So könnte zum Beispiel die Beschreibung eines Datenobjekts aus Wikidata entfernt werden, wenn eine Community das wünscht.

Außerdem wird die Sortierung der Daten auf der jeweiligen Wikipedia geregelt. Eine Seite mit allen Properties und ihrer Reihenfolge kann so je nach Community angepasst werden und beeinflusst direkt in welcher Reihenfolge die Boxen mit Daten auf dem Platzhalter erscheinen.

Zur Zeit können diese Platzhalter über die Suche unter Verwendung der Wikidata Datenobjekt ID gefunden werden oder ganz einfach über die Suche auf Wikipedia. Sie werden unter den restlichen Suchergebnissen dargestellt.

Vier Wikipedia Gemeinschaften haben sich bisher bereit erklärt, den ArticlePlaceholder zu testen: Odia, Esperanto, Haitianisch und Neapolitanisch. Auf diesen kann man sich diese Platzhalter jetzt schon anschauen, so zum Beispiel anhand der Katze “Socks” auf der Esperanto Wikipedia.

Noch ist viel zu erledigen, dennoch sind die Artikel Platzhalter ein wichtiger Schritt in die richtige Richtung für mehr Zugang zu Wissen.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (5 Bewertungen, Durchschnitt: 3,40 von 5)
Loading...

Writing a bachelor’s thesis at Wikimedia Deutschland e.V.

Wie es ist, bei Wikimedia Deutschland im Bereich Software-Entwicklung Bachelorandin zu sein, erzählt uns Charlie Kritschmar in diesem Gastbeitrag auf Englisch. Charlie berichtet davon, wie sie zu ihrem Thema im Bereich User-Interface-Design fand, der Arbeitsatmosphäre und wie aus all dem eine Arbeit zum Editieren auf Wikidata von der Wikipedia aus wurde. Die Arbeit wird in den nächsten Tagen auch auf Wikimedia Commons veröffentlicht werden. Wie bei vielen guten Geschichten gibt es am Ende von Charlies Bericht auch noch ein Happy End. Willkommen, Charlie!

Q920285 – how I found my place in the Wikimedia universe

It’s April 2015 and it’s about time for me to organise a topic for my bachelor’s thesis. I study Internationale Medieninformatik at the HTW Berlin. I was always fascinated by the intersection of humans and computers. Especially the psychological component of this subject and so I started specialising in this direction towards the end of my studies. Thus it was pretty clear to me that my thesis should fit within this scope. But the initial question remained and I still had no topic.

A fellow student and friend, Lucie (who coincidentally works at Wikimedia) pointed me to Lydia, Wikidata’s product manager. So far I have only been a consumer of the Wikimedia projects and had never contributed to any of them, let alone know what Wikidata was and what it does. It was about time to change that. It turns out that Lydia has loads of topics with many different focuses for students writing their thesis and we quickly decided on a topic that would benefit both of us.   

Weiterlesen »

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (5 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Wikimedia Deutschland beim Hackathon in Jerusalem

Vom ersten bis zum dritten April fand in Jerusalem der Wikimedia Hackathon statt, organisiert von Wikimedia Israel und der Wikimedia Foundation. Israel als “Start-up Nation” mit Affinität zu High-Tech einerseits und die Stadt Jerusalem mit ihrer Jahrtausende alten Geschichte und ihrer Bedeutung für die abrahamitischen Religionen andererseits boten eine gute Kulisse für das internationale technische Treffen der Wikimedia-Gemeinschaft: Altes und Neues wurde bearbeitet, Gemeinsamkeiten bei aller Diversität betont. Mit einer Stadtführung am Vortag des Hackathons konnten wir die beeindruckende Umgebung erfahren, bevor es die nächsten Tage darum ging, hauptsächlich auf Monitore zu schauen.
Von Wikimedia Deutschland nahm eine Gruppe teil, die an den Tagen des Hackathons und darum herum die Gelegenheit nutzte, sich mit internationalen Entwicklerinnen und Entwicklern auszutauschen und gemeinsam an der technischen Infrastruktur der Wikimedia-Projekte zu arbeiten. Schwerpunkt des Hackathons waren technische Wünsche wie bei der Technischen Wunschliste der deutschsprachigen Wikipedia oder der Wishlist der internationalen Community. Daneben wurde aber auch an anderen Projekten gearbeitet.

Unter anderem entstand ein Prototyp für einen Revision Slider, der Versionsunterschiede in den letzten Bearbeitungen grafisch anzeigt, so dass auf einen Blick erkennbar ist, in welchen Abschnitten Änderungen vorgenommen wurden und ob hauptsächlich gelöscht oder erweitert wurde. Darüber hinaus wird damit der Wunsch realisiert, alle Bearbeitungskommentare im Diff anzuzeigen.

Für Wiktionary wurde an den Links für die verschiedenen Sprachversionen des Freien Wörterbuchs gearbeitet. Da Wiktionary hier andere Anforderungen hat als andere Wikimedia-Projekte, kommen die Links nicht aus dem Datenfundus von Wikidata; gleichzeitig wird aber mit dieser Software-Änderung ein erster Schritt für den Umstieg von Wiktionary auf die Technologie von Wikidata gemacht.

Bei Wikidata gab es auch viele Änderungen. Ein Prototyp für das Einfügen von Referenzen ähnlich wie beim Visual Editor wurde für das Interface von Wikidata erstellt.

Die Abfrage von Wikidata auf query.wikidata.org bekam ebenfalls Änderungen am Interface spendiert, die in den nächsten Tagen auch sichtbar werden: Neben der Abfragesprache SPARQL stehen jetzt auch Erklärungen zur Abfrage in natürlicher Sprache, so dass einzelne Elemente von Abfragen leicht ausgetauscht werden können, um aus Beispielabfragen neue Abfragen zu bauen.

Die Israelische Nationalbibliothek  war auf dem Hackathon vertreten und arbeitete mit Freiwilligen und Angestellten von Wikimedia Deutschland daran, ihre Normdatei in Wikidata zu importieren.

Am Article Placeholder wurden letzte Schliffe vorgenommen und Feedback eingeholt, bevor das Projekt auf den ersten Wikipedien zum Einsatz kommt.

Die Organisatorinnen und Organisatoren des Hackathons haben einen Rahmen geschaffen, der ideal war: Getagt wurde im Hansen-Haus, einem von deutschen Missionaren gegründeten ehemaligen Lepra-Krankenhaus, das mittlerweile dem Staat gehört und als Werkstatt und Ausstellungsraum sowie von einer Kunstakademie genutzt wird. Solange der Akku des Notebooks hielt konnte auch im traumhaften Garten gehackt werden.  Das Essen war köstlich und reichhaltig – Hummus, frisches Gemüse und frische Säfte versorgten uns bestens mit Energie.

Nachdem der Wikimedia Hackathon bisher in Europa stattfand (2017 geht es in die österreichische Hauptstadt Wien) war Jerusalem 2016 ein Experiment, erstmals die Veranstaltung in den Nahen Osten zu holen. Für das Team von Wikimedia Deutschland steht fest: Das Experiment ist gelungen, der Hackathon war großartig.

תודה ויקימדיה ישראל!

 

 

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (5 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Teaching machines to make your life easier – quality work on Wikidata

German summary: ORES is eine künstliche Intelligenz, die Vorschläge zur Bekämpfung von Vandalismus machen kann. Nachdem sie auf einigen Wikis bereits erfolgreich eingesetzt wurde, hilft sie jetzt auch bei der Qualitätsverbesserung bei Wikidata.  Amir Sarabadani und Aaron Halfaker beschreiben die Entwicklung und den Einsatz von ORES ein einem Gastbeitrag auf englisch.


 

A post by Amir Sarabadani and Aaron Halfaker

Today we want to talk about a new web service for supporting quality control work in Wikidata. The Objective Revision Evaluation Service (ORES) is an artificial intelligence web service that will help Wikidata editors perform basic quality control work more efficiently. ORES predicts which edits will need to be reverted. This service is used on other wikis to support quality control work. Now, Wikidata editors will get to reap the benefits as well. Weiterlesen »

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (8 Bewertungen, Durchschnitt: 4,38 von 5)
Loading...

Q167545: Wikidata celebrated its third birthday

 Wikidata celebrated its third birthday on October 29th. The project went online in 2012 and a lot has happened ever since.

Coincidentally, the birthday also happened along with the project being awarded a prize from Land der Ideen, so so a proper party for volunteers and everyone involved with the project was in order.

There was cake and silly birthday hats, but above all this was an occassion to look at the past, present, and future.

Denny Vrandečić and Eric Möller used a video message to talk about the genesis and development of Wikidata.

Community members Magnus Manske and Marteen Dammers talked about their work for Wikidata in GLAM and science. And Lydia Pintscher not only looked backed to a successful year behind us, but also gave us a peek into the future that lies ahead for the project.

In order to experience Wikidata there was a little exhibition of projects that use it: From Histropedia which visualizes timelines to Ask Platypus, a project that parses questions about the knowledge of the world according to Wikidata using natural language.

No birthday would be complete without presents. Especially the software developers had worked hard to improve parts of Wikidata for this special date. To give you just two examples:

  • https://www.wikidata.org/wiki/Special:Nearby shows nearby items in Wikidata and invites you to improve structured data knowledge in your neighborhood
  • A machine learning model called  ORES helps to identify vandalism with artificial intelligence and can be used as a tool for administrators

These are only two new features released for the birthday party. There is much, much more to come for the Wikidata project next year and we’ll talk about it in length in another post.

Wikidata has data in its name. However — this was more than obvious at the birthday party — it’s about more than just cold numbers. As in all collaborative projects, people are at the core of it all. Those behind or around Wikidata have love in their hearts for something that may at first sound as abstract as „structured data for Wikimedia projects and beyond“.

Upon exiting the party, guests could add themselves on a board and leave a tiny love letter to Wikidata . „I love Wikidata because… with machine-readable data, machines can do the heavy lifting for me“ one guest wrote. The last three years were all about building a foundation for machine-readable data. Let the heavy lifting begin in all the years to come. Q167545!

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (1 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Q167545: Wikidata feierte den dritten Geburtstag

Am 29. Oktober feierte Wikidata seinen dritten Geburtstag. 2012 wurde das Projekt online geschaltet, seitdem ist viel passiert.

Neben dem Geburtstag gab es auch die Preisverleihung vom Wettbewerb Land der Ideen an Wikidata, so dass es nahe lag, eine große Party für die Freiwilligen und anderen am Projekt Beteiligten zu veranstalten.

Es gab Kuchen und Geburtstagshüte, aber vor allem die Möglichkeit, in die Vergangenheit, Gegenwart und Zukunft zu blicken.

In einem gemeinsamem Talk per Videonachricht aus den USA sprachen Denny Vrandečić und Eric Möller über die Entstehung und Entwicklung von Wikidata.

Die Community-Mitglieder Magnus Manske und Marteen Dammers erzählten etwas zu ihrer Arbeit an Wikidata für GLAM und Wissenschaft. Von Lydia Pintscher gab es außerdem neben einen Rückblick auf ein erfolgreiches Jahr auch einen Ausblick auf die Zukunft.

Um Wikidata selbst erfahrbar zu machen, gab es eine kleine Ausstellung von Projekten, die Wikidata benutzen: Von Histropedia mit Zeitstrahl-Visualisierungen bis zu Ask Platypus, einem Projekt, das mit Wikidata Fragen zum Wissen der Welt in natürlicher Sprache versteht.

Zu einem Geburtstag gehören natürlich auch Geschenke. Bei Wikidata hatten sich insbesondere Entwicklerinnen und Entwickler ins Zeug gelegt, um Wikidata zu verbessern.  Um nur zwei Beispiel zu nennen:

  • Mit https://www.wikidata.org/wiki/Special:Nearby zeigt Wikidata Objekte in der näheren Umgebung an und lädt zum Ergänzen von strukturiertem Wissen in der Nachbarschaft ein
  • Mit einem Machine-Learning-Model namens ORES kann eine künstliche Intelligenz Vandalismus erkennen und Administratoren bei Bedarf Hilfe leisten.

Dies sind aber nur zwei von vielen kleinen Neuerungen, die extra für den Geburtstag veröffentlicht wurden. Weitere Umwälzungen im Projekt Wikidata stehen im nächsten Jahr bevor und sollen in einem weiteren Beitrag vorgestellt werden.

Wikidata trägt die Daten im Namen, aber es geht — das wurde auf der Geburtstagsparty deutlich — um weit mehr als kalte Daten. Menschen stehen wie bei allen kollaborativen Projekten im Mittelpunkt. Die Menschen hinter und Wikidata oder um das Projekt herum tragen Liebe im Herzen für etwas, was sich zunächst so abstrakt anhört wie „strukturierte Daten für Wikimedia-Projekte und darüber hinaus“.

Am Ausgang der Party konnten sich Besucherinnen und Besucher auf einer Tafel verewigen, indem sie eine kleine Liebeserklärung an Wikidata hinterließen. „I love Wikidata because… with machine-readable data, machines can do the heavy lifting for me“ schrieb ein Party-Gast dort. In den letzten drei Jahren hat Wikidata die Grundlagen für eine Menge maschinenlesbarer Daten gelegt. Wir sind gespannt auf das heavy lifting in den nächsten Jahren. Q167545!

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (3 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

Visualizing history with automated event maps

German summary: Fred Johansen hat eine Webseite erstellt mit der sich, basierend auf Daten in Wikidata, einfach historische Ereignisse zeitlich und räumlich einordnen lassen. Hier erzählt er über die Seite und seine Arbeit daran.


The following post is a guest blog by Fred Johansen about EventZoom.

Just as today’s online maps are being continually updated, historical maps can be automatically generated and updated to reflect our ever-evolving knowledge about the past. As an example, please allow me to tell you about a project that I’m working on. Recently I implemented an event visualization site which accepts geolocation data combined with info about time spans of events, and renders the input as points on a map zoomable in time and space. Each such point is an object with a title, description, latitude / longitude and a time, as well as a reference back to its source. But what source should be used to fill this framework with data? Even though this is a tool born outside of the Wikimedia world, so far the best content I’ve found for it is Wikidata – more specifically, the Wikidata API. By importing data about events that are part of larger events all defined in Wikidata, with the restriction that they contain a start or end date as well as a location, that’s all the data that’s needed for representation in this kind of dynamic historical map.

Extracting data from the Wikidata API works like a charm. Sometimes, of course, some data might be missing from Wikidata. For example, an event may contain an end date, but no start date. So, what’s fantastic about Wikidata is that it’s easy to simply extend its data by adding the missing fact. In addition to helping in increasing the data of Wikidata, this also improves the overall possibilities for visualization.

This very activity serves as a positive feedback loop: The visualization on a map of, for example, the events of a war makes errors or omissions quite obvious, and serves as an incentive to update Wikidata, and finally to trigger the re-generation of the map.

The site I’m referring to here is EventZoom.net – currently in Beta and so far containing 82 major event maps and growing. You can extend it yourself by triggering the visualization of new maps: When you do a search for an event, for example a war, and the Search page reports it as missing, you can add it directly. All you need is its Q-ID from Wikidata. Paste this ID into the given input field, and the event will be automatically imported from the Wikidata API, and a map automatically generated – with the restriction that there must exist some ‘smaller’ events that contain time & location data and are part (P361) of the major event. Those smaller events become the points on our map, with automatic links back to their sources. As for the import itself, for the time being, it also depends on wdq.wmflabs.org, but I expect that will change in the future.

Although you can always click Import to get the latest info from Wikidata, an automatic update is also in the pipeline, to trigger a re-import whenever the event or any of its constituent parts have changed in Wikidata. As for other plans, at the very least our scope should encompass all the major events of history. Here, wars represent a practical starting point, in so far as they consist of events that are mostly bounded by very definite time spans and locations, and so can be defined by those characteristics. The next step would be to extend the map visualization to other kinds of events – as for Wikidata, it could be interesting to visualize all kinds of items that can be presented with a combination of geolocations and temporal data, and that can be grouped together in meaningful ways.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (3 Bewertungen, Durchschnitt: 3,33 von 5)
Loading...

Using Wikidata to Improve the Medical Content on Wikipedia

German summary: Vor einigen Tagen wurde eine wissenschaftliche Veröffentlichung publiziert die sich damit beschäftigt wie Wikipediaartikel zu medizinischen Themen durch Wikidata verbessert werden können. Hier stellen sie die Veröffentlichung und ihre Ergebnisse vor.

 

This is a guest post by Alexander Pfundner, Tobias Schönberg, John Horn, Richard D. Boyce and Matthias Samwald. They have published a paper about how medical articles on Wikipedia can be improved using Wikidata.

An example of an infobox that shows drug-drug-interactions from Wikidata. Including this information could be of significant benefit to patients around the world.

The week before last a study was published in the Journal of Medical Internet Research that investigates how Wikidata can help to improve medical information on Wikipedia. The researchers from the Medical University of Vienna, the University of Washington and the University of Pittsburgh that carried out the study are active members of the Wikidata community.

The study focuses on how potential drug-drug interactions are represented on Wikipedia entries for pharmaceutical drugs. Exposure to these potential interactions can severely diminish the safety and effectiveness of therapies. Given the fact that many patients and professionals often rely on Wikipedia to read up on a medical subject, the quality, completeness and relevance of these interactions can significantly improve the situation of patients around the world.

In the course of the study, a set of high-priority potential drug-drug-interactions were added to Wikidata items of common pharmaceutical drugs (e.g. Ramelteon). The data was then compared to the existing information on the English Wikipedia, revealing that many critical interactions were not explicitly mentioned. It can be expected that the situation is probably worse for many other languages. Wikidata could play a major role in alleviating this situation: Not only does a single edit benefit all 288 languages of Wikipedia, but the tools for adding and checking data are much easier to handle. In addition, adding qualifiers (property-value pairs that further describe the statement, e.g. the severity of the interaction) and sources to each statement puts the data in context and makes cross-checking easier . In the study Wikidata was found to be capable to act as a repository for this data.

The next part of the study investigated how potential drug-drug interaction information in Wikipedia could be automatically written and maintained (i.e. in the form of infoboxes or within a paragraph). Working with the current API and modules, investigators found that the interface between Wikidata and Wikipedia is already quite capable, but that large datasets still require better mechanisms to intelligently filter and format the data. If the data is displayed in an infobox, further constraints come from the different conventions on how much information can be displayed in an infobox, and whether large datasets can be in tabs or collapsible cells.

Overall the study comes to the conclusion that, the current technical limitations aside, Wikidata is capable to improve the reliability and quality of medical information on all languages of Wikipedia.

The authors of the study would like to thank the Wikidata and Wikipedia community for all their help. And additionally the Austrian Science Fund and the United States National Library of Medicine for funding the study.

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (4 Bewertungen, Durchschnitt: 5,00 von 5)
Loading...

“Beschränkt euch nicht, denkt nach vorne!” – Coding da Vinci 2015 startet fulminant

Großer Andrang beim Kick-off zu Coding da Vinci 2015. Foto: Heiko Marquardt [CC BY 3.0], via Wikimedia Commons

Der Veranstaltungssaal bei Wikimedia Deutschland am Tempelhofer Ufer platzte mit knapp 200 Gästen buchstäblich aus allen Nähten. Die Begrüßung wurde in einen weiteren Raum übertragen, durch die Seitentüren reckten sich Köpfe, um das Grußwort von Kulturstaatssekretär Tim Renner zu hören und vielleicht sogar einen Blick zu erhaschen.

Die zweite Runde des Kultur-Hackathons Coding da Vinci, der 2014 von Wikimedia Deutschland, der Deutschen Digitalen Bibliothek, der Servicestelle Digitalisierung und der Open Knowledge Foundation Deutschland ins Leben gerufen wurde, lockte am vergangenen Wochenende nicht nur Programmiererinnen und Programmierer zu Wikimedia, die Ideen für offene Kulturdaten entwickeln möchten, sondern auch mehr als doppelt so viele Kulturinstitutionen, die ihre Datensätze unter freier Lizenz zur Verfügung stellen, als im letzten Jahr.

 

„Digital ist besser“ – Auch für Kulturinstitutionen

Kulturstaatssekretär Tim Renner eröffnet Coding da Vinci. Foto: Heiko Marquardt [CC BY 3.0], via Wikimedia Commons

Tim Renner (u.a. Autor „Digital ist besser“) eröffnete den Kick-off mit Verweis auf die hitzige Debatte um die kommende Intendanz des Tate Gallery-Direktors Chris Dercon an der Berliner Volksbühne. Die Befürchtungen, dass eine Frischzellenkur (Renner kündigte eine digitale Bühne für Berlin an) die Theaterbastion zur Eventbude verflachen lassen könnte, verglich er implizit mit den Vorbehalten gegen die digitale Erschließung des Kulturguts, das in unzähligen Archiven und Depots vor sich hinschlummert.
Genauso, wie es Zeit für die Erneuerung des Theaters sei, brauche die gesamte Kulturlandschaft mehr Bewusstsein für die vernetzte Gesellschaft, in die sie zunehmend eingebettet ist. Die Potenziale des Digitalen müssten mitgedacht und mitgemacht werden, im Theater, in den Museen, Archiven und Bibliotheken. Wie gut, dass Coding da Vinci genau das befördern möchte.

 

 

Weiterlesen »

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (6 Bewertungen, Durchschnitt: 3,83 von 5)
Loading...