Skip to content

Der halboffene Haushalt

Visualisierung des Bundeshaushalts auf offenerhaushalt.de

In The state of mapping APIs wirft Adam DuVander einen Blick auf die wichtigsten momentan verfügbaren Mapping APIs (vergisst dabei aber OpenLayers!). Er stellt fest, dass es immer einfacher werde, Karten zu erstellen, dass es aber immer noch zu schwierig sei, an die Daten heranzukommen, um die Karten mit sinnvollen Informationen anzureichern.

In diesem Zusammenhang weist er auch darauf hin, dass es immer noch zu kompliziert sei, so genannte Choroplethenkarten aus Datenquellen zu erstellen. Was ein Choroplethenkarte ist, musste ich erst einmal nachschlagen. Im Prinzip sind das eingefärbte thematische Karten, auf denen beispielsweise Landkreise nach Häufigkeit bestimmer Eigenschaften unterschiedlich eingefärbt werden, wie sie auch dpa Regiodata anbietet. Da kommt dann auch wieder die Open Government-Bewegung ins Spiel.

Denn was bringt uns das beste Toolkit, um solche Karten einfach und schnell erstellen zu können, wenn wir an die zugrundeliegenden Daten gar nicht herankommen? Welche Probleme das Fehlen der Daten mit sich bringt, zeigt ein aktuelles Projekt auf. Unter OffenerHaushalt wird der Bundeshaushalt schön visualisiert und interaktiv bis auf die einzelnen Posten heruntergebrochen erfahrbar gemacht. Einen Haken hat die Sache aber, denn:

Die von OffenerHaushalt.de verwendeten Daten entstammen der Webseite des Bundesministeriums der Finanzen. Leider stehen die Haushaltsdaten nicht in einem offenen, maschinenlesbaren Datenformat zur Verfügung. Wir mussten daher auf einer maschinelle Auswertung der angebotenen HTML-Dokumente ("screen scraping") zurückgreifen.

Das ist schon ganz schön bitter und der Qualität der Daten nicht gerade förderlich. Immerhin stellt das Projekt die so gewonnenen Daten in maschinenlesbarer Form zur Verfügung, so dass sie auch von Dritten weiterverarbeitet werden können. Ich würde ja gern auch die Länderhaushalte sehen oder den Bundeshaushalt als multi-level pie chart. Eine freie Library, die so ein Diagramm erzeugen kann, habe ich aber noch nicht gefunden. Mal weitersuchen ...

Journalismus braucht Innovationen

Die Artikel von Christiane Schulzki-Haddouti lese ich schon seit Jahren mit Interesse und Vergnügen, sei es in Telepolis oder jetzt in ihrem Blog KoopTech. Gestern hat sie darüber geschrieben, wie sich JournalistInnen aufgrund des momentanen Medienwandels neu erfinden müssen.

Influenza Virus H1N1 HA Protein
(cc) by-nc-sa groovelock

Interessant finde ich einerseits die Ansätze für Innovationsmanagementsstrategien von Journalisten und Verlagen, andererseits die neuen Marktfelder, die sie aufzeigt. Das heißeste Eisen ist dabei momentan wohl die Open Data-Bewegung, die allerdings immer noch nicht richtig in Deutschland angekommen ist, gerade im Hinblick auf die Veröffentlichung von Daten durch Behörden auf Bundes-, Landes- und Kommunalebene. Bei einer kurzen Recherche habe ich jedenfalls so gut wie nichts gefunden.

Die Auswertung, Einschätzung und Visualisierung dieser Daten können Journalisten allerdings kaum im Alleingang erledigen, sie müssen mit Spezialisten aus anderen Bereichen - Designern, Programmierern - kooperieren. Mercedes Bunz hat vor ein paar Monaten in einem Guardian-Artikel codende Journalisten als neuesten Trend ausgemacht und schlägt damit in die gleiche Kerbe.

In den USA mit Top Secret America und England mit Where Does My Money Go?, um nur zwei herausragende Beispiele zu nennen, ist der Open Data-Journalismus schon über das Versuchsstadium hinaus. In Deutschland gibt es immerhin gute Ansätze (und dpa Regiodata).

Eine Voraussetzung für innovative Open Data-Projekte ist aber, dass die Daten überhaupt zur Verfügung gestellt werden, und zwar strukturiert und zugänglich. Sobald das der Fall ist, wird es nicht lange dauern, bis diese Daten sinnvoll verarbeitet und mit Informationsgewinn aufbereitet werden. Die Werkzeuge sind größtenteils schon da, man sehe sich nur einmal die zahlreichen Demos der Fähigkeiten von HTML5, CSS3 und neuer Javascript-Frameworks an. Ganz zu schweigen von semantischer Technologien wie RDF, SPARQL usw.

Außerdem stehen interessierte und fähige Leute schon in den Startlöchern oder tummeln sich auf Hackdays oder Hackathons. Die APIs öffnen sich ebenfalls, wenn auch nur zaghaft. Das Presseportal geht da mit gutem Beispiel voran.

Ich behaupte, dass der Journalismus völlig neue Techniken entwickeln kann und muss (und wird), um Informationen über neue Kommunikationswege und Repräsentationsmodelle an seine Rezipienten zu bringen. Open Data ist da nur der Anfang. Und aller Anfang ist eben schwer.

6. Treffen der PHPUG Rheinhessen

Plakat fürs PHPUG-TreffenNicht vergessen, nächste Woche ist unser nächstes User Group-Treffen. Geplant sind diesmal zwei Vorträge:

  • Content Management Interoperability Services (CMIS) - Ein flexibler und plattformübergreifender Standard für ECM Systeme (Lukas Giebel)
  • HipHop für PHP (Reto Kiefer)

Sollte im Anschluss noch Zeit und Aufnahmefähigkeit vorhanden sein, kann ich noch ein bisschen was über die FrOSCon erzählen, speziell über die PHP-Subconference, welche die PHPUG Dortmund organisiert hat. Ende November ist voraussichtlich wieder ein Barcamp Rhein-Main (in Darmstadt). Vielleicht hat der eine oder andere der PHPUG Rheinhessen ja Lust, dort etwas zu präsentieren? Wäre doch schön, wenn wir dort etwas Präsenz zeigen würden.

Freier Routing-Dienst von MapQuest

Mapping ist ja einfach nur ein Hobby von mir. Seit ich vor einigen Jahren die Community-betriebene Openstreetmap entdeckt habe, faszinieren mich die unterschiedlichen Facetten dieses Themenkomplexes ungemein. Regelmäßig lese ich einige Mapping-Blogs, unter anderem OpenGeoData. Dort wurde gestern ein Hinweis auf ein neues, offenes Routing-API von MapQuest gepostet. Routing und Navigation waren bisher eigentlich immer so die Punkte, die ich als noch zu jung und experimentell und meist für den Praxiseinsatz unbrauchbar empfand. Das könnte sich nun ändern, denn der frei zugängliche Routingdienst von MapQuest setzt im Hintergrund auf Daten der Openstreetmap.

Interessehalber habe ich die Dokumentation mal überflogen und dieses Beispiel minimal abgewandelt, um den Dienst testen zu können. Funktionert 1A! So sieht das Ergebnis aus (bitte auf "Route berechnen" klicken)

Linux für Kinder und Jugendliche

Für eine gemeinnützige Einrichtung, eine Wohngruppe für Kinder und Jugendliche, bereite ich momentan einen älteren Rechner wieder auf, indem ich ihm ein schönes, aktuelles Linux-Betriebssystem verpasse. Die Hardware ist noch in Ordnung, und fürs Erste genügt auch dieser eine Rechner. Ich muss mich also nicht um irgendwelche Server-Installationen kümmern, sondern nur dafür sorgen, dass die Kinder und Jugendlichen diesen Computer sinnvoll nutzen können.

Betriebssystem

Bei der OS-Auswahl habe ich mich jetzt für Edubuntu entschieden, wobei es z.B. mit Skolelinux auch Alternativen gibt. Bei letzterem liegt der Schwerpunkt aber noch deutlicher auf dem Einsatz als Unterrichtsplattform in Schulen, z.B. auch in Rheinland-Pfalz. Mit geht es aber eher um ein bedienbares, sicheres System, das übrigens ein nicht mehr verfügbares Windows-System ersetzen soll. Die Kids sind zwischen 10 und 17 Jahre alt und wissen bereits, wie man einen Browser bedient usw., bloß haben sie zurzeit einfach kein Gerät zur Verfügung. Es geht hier also nicht um Kleinkinder, sondern durchaus um Teenager und Jugendliche. Edubuntu bringt außerdem schon einige Lernprogramme, aber auch Spiele mit.

Edubuntu LogoNachdem die Installation so glatt wie erwartet verlaufen ist, muss natürlich noch etwas an den Stellschrauben gedreht werden. Als erstes habe ich einen neuen, gemeinsam Benutzer angelegt und dessen Rechte etwas eingeschränkt, so dass z.B. keine neue Software installiert werden kann. Denkbar wäre auch, für jeden einzelnen Benutzer einen eigenen Account anzulegen, aber das ist nicht gefordert und kann ja bei Bedarf noch nachgeholt werden. Wie man Edubuntu noch weiter für die junge Zielgruppe anpassen kann, beschreibt sehr schön dieser Artikel im Wiki von ubuntuusers.de. Die dort gesammelten Tipps sind meiner Meinung nach sinnvoll und ausgewogen.

Filtern und Sperren

Ich will gar keinen riesigen Aufwand betreiben, um Inhalte zu blocken oder Nutzungsverhalten zu protokollieren. Solche Maßnahmen (Internetsperren à la von der Leyen) sind wenig zielführend und von nur zweifelhaften Nutzen. Umgehen lassen sie sich sowieso, und Kompetenz im Umgang mit dem Internet ersetzen sie auch nicht.

Und doch: Mithilfe des Parental Control GUI (Projektname: webcontentcontrol) lassen sich zumindest die schlimmsten Seiten filtern, als Grundschutz sozusagen. Im Hintergrund werkeln dansguardian, firehol und tinyproxy und können über das GUI konfiguriert werden (sofern man keine Allergie gegen Config-Dateien hat). Die Ergebnisse überzeugen zumindest auf den ersten Klick. Bei zu vielen false positives kann man die Tools ja einfach wieder deaktivieren. Ein Tool wie timekpr kann zusätzlich ganz nützlich sein, um Nutzungszeiten einzuschränken.

Sinnvolle Angebote

Dem Browser habe ich ebenfalls etwas Aufmerksamkeit geschenkt. Firefox bekommt zunächst einmal ein paar Add-Ons (AdBlock+, Speed Dial), als Startseite fragFINN und zusätzlich noch ein paar sinnvolle Lesezeichen spendiert. Ich glaube, damit habe ich schon eine ganz solide Grundinstallation hinbekommen.

Natürlich gibt es noch weitergehende Überlegungen: Soll ich das Anwendungsmenü anpassen? Welche zusätzlichen Programme und Spiele kann ich installieren? Welche entfernen, weil sie z.B. noch nicht übersetzt sind? Gibt es weitere, sinnvolle Maßnahmen, die ich durchführen kann, die aber bisher noch nicht angesprochen wurden? Da baue ich jetzt voll und ganz auf meine Leser. Bitte schreibt eure Erfahrungen und Ratschläge in einen Kommentar unter diesen Artikel. Kennt ihr gute Links zum Thema? Dann ebenfalls her damit.