Skip to content

Jumelages - Finde Partnerkommunen mit Wikidata und Openstreetmap (und Vibe-Coding)

Die Idee

Auf meinen Fahrradtouren fahre ich immer wieder durch kleinere und größere Ortschaften, und viele dieser Gemeinden haben am Ortseingang ein Schild stehen, das über Partnerstädte bzw. -gemeinden informiert. Alternativ weisen Wegweiser in die Richtung der Partnerkommune und zeigen die Entfernung an. Als Kind habe ich die Einrichtung einer solchen Partnerschaft mit einer französischen Gemeinde erlebt, es gab ein kleines Fest, ein Platz wurde nach der Partnergemeinde benannt, und der Partnerschaftsverein vergrub dort eine Zeitkapsel mit Andenken aus dem Jahr 1986.

Ich finde das Konzept von Gemeindepartnerschaften eigentlich ganz spannend und machte mich auf die Suche nach einer Übersicht über Gemeindepartnerschaften. Fündig wurde ich beim Rat der Gemeinden und Regionen Europas, der eine Datenbank der kommunalen Partnerscahften pflegt. Diese Datenbank ist durchsuchbar und bietet sogar eine Kartenansicht, die auf Openstreetmap basiert. Fehlende Partnerschaften können über ein Formular beantragt werden. Nach eigenen Angaben enthält die Datenbank etwa 7.000 Einträge.

Aber ließe sich eine solche Karte nicht auch mit Offenen Daten realisieren? Immerhin gibt es in Wikidata die Eigenschaft "P190 twinned adminstrative body", welche einzelnen Gemeinden zugeordnet werden kann und sie mit ihrer Partnergemeinde verknüpft. Und auch Openstreetmap node- oder relation-IDs sind häufig in Wikidata erfasst. Potentiell dürften dort sogar mehr Partnerschaften eingetragen sein als in der oben genannten Datenbank - oder zumindest ist das mein Eindruck.

Ich wollte das aber genauer wissen und auch so eine Karte auf dieser Datenbasis erstellen. Ein Gerüst für eine kleine PHP-Webanwendung in Laravel war schnell erstellt, die Openstreetmap-Karte konnte ich einfach mit Leaflet anzeigen. Dann habe ich manuell Testdaten für eine Handvoll Städte und Partnerstädte in die Datenbank eingetragen und diese im JSON-Format ans Frontend übergeben und auf der Karte angezeigt. So weit, so gut. Aber wie geht es jetzt weiter? Die Daten sollen schließlich per SPARQL-Abfrage von Wikidata abgeholt, verarbeitet und gespeichert werden. Meine bisherigen SPARQL-Kenntnisse sind bestenfalls rudimentär. Also erstmal SPARQL lernen?

"Jumelages - Finde Partnerkommunen mit Wikidata und Openstreetmap (und Vibe-Coding)" vollständig lesen

Knowee, a social address book and more

Knowee logoTwo days ago, Benjamin Nowack announced the re-release of Knowee, a distributed social web address book. Knowee started out as a project supported by the W3C Semantic Web Interest Group and will also available for download soon. This means you can install it on your own server, if you like.

Knowee is somewhat similar to NoseRub as it aggregates many of your profiles from popular social networks and applications like Twitter, Identi.ca, or Delicious. But Knowee adds a lot of semantic wizardry to all the data its bots collect over time. Among the technologies employed are FOAF, RDF, Microformats, OpenID, Google's Social Graph API, and SPARQL. The latter makes it easy to re-use the aggregated information in other applications. Without digging too deep into all these formats and APIs, let me say this seems to evolve into a very powerful tool, far more than a simple address book. For more info, read the introductory blog post, or simply take a shot at it.

Knowee conceptThat being said, I'm a little irritated about how little buzz Knowee has created so far (only 4[!] hits on Technorati?). Is everyone simply fed up with yet another social network aggregator? Or am I just a little bit too impatient? I don't know, but I know that Knowee deserves more attention even if it's still in an early stage. Especially since I'm sure that Benjamin will add more useful features soon, e.g. the integration of MyBlogLog.

My public Knowee profile can be found here.

SPARQLBot, fetch!

I've just learned about SPARQLBot via this posting by Manu Sporny to the uf-discuss mailing list. He writes

This has to be the coolest semantic web related thing I've seen this year. Sparqlbot lets you load semantic data from various URLs and perform SPARQL queries on them via IRC using natural language. [...] The end result is something that resembles the ship computer from Star Trek.

and goes on to cite what probably was his first conversation with SPARQLbot. Funny and playful, but also a very interesting example of what is already possible with semantic web parsers.

SPARQL is a protocol and a query language for RDF data with a syntax similar to other well-known query languages. You can use it for fetching and even writing data that is stored in RDF format. SPARQLBot is a fun project that was demonstrated at Semantic Camp in London earlier this month and has been described as the Semantic Web Command Line. People can contribute their own SPARQL queries as SPARQLBot commands, and so far the count exceeds 30 entries. If you want to talk to SPARQLBot, visit #sparqlbot and give it some commands. Hilarious!