Skip to content

Feinstaubwerte selbst messen für Luftdaten.info

Ihr habt vielleicht schon vom "Citizen Science"-Projekt Luftdaten.info gehört, das vom OK Lab Stuttgart initiiert worden ist. Dessen Ziel ist es, die Feinstaubbelastung in Stuttgart unabhängig durch Freiwillige zu messen, zu visualisieren, und so Maßnahmen für eine bessere Luftqualität mit Offenen Daten zu unterfüttern. Mehr dazu auch in diesem Beitrag in DRadio Wissen (das nebenbei bald Deutschlandfunk Nova heißen wird).

Platinen und Sensoren
NodeMCU ESP8266, Temperatursensor DHT22 und Feinstaubsensor SDS011

Ursprünglich sollte nur die Feinstaubbelastung der schwäbischen Metropole gemessen werden, aber mittlerweile sind Sensoren in ganz Deutschland und sogar in anderen Ländern auf der Luftdaten-Karte verzeichnet. Auch mein Sensor (ID 1777) misst seit ein paar Tagen die Feinstaubbelastung und ist damit einer von momentan vier Sensoren in Wiesbaden.

Als ich das erste Mal von Luftdaten.info gehört hatte, war ich gleich begeistert und ein eigener Sensor stand sofort auf meiner Todo-Liste. Diese Woche war es endlich so weit: Alle benötigten Bauteile waren (z.T. nach wochenlanger Reise aus China, der Feinstaubsensor ist hierzulande kaum erhältlich) eingetroffen, und ich hatte etwas Zeit zum Basteln.

"Feinstaubwerte selbst messen für Luftdaten.info" vollständig lesen

24. Webmontag Frankfurt

Gestern besuchte ich mal wieder den Webmontag in Frankfurt und möchte hier kurz meine wichtigsten Eindrücke zusammenfassen. Diese Veranstaltung ist mittlerweile eine feste Institution, deswegen geht ein besonderer Dank raus an Darren und Jens und alle anderen, die den #wmfra unterstützt haben und weiter unterstützen werden.

Besonders gespannt war ich auf den Erfahrungsbericht des hr-Multimedia-Redakteurs Jan Eggers über die ersten anstaltsinternen Versuche in Richtung OpenData. Jan stellte anschaulich die verwendeten Tools (z.B. JIT), Visualisierungen, Probleme und Learnings dieses Prozesses vor. In Kürze soll das erste Projekt, eine aufbereitete Darstellung des hessischen Landeshaushalts 2011, online gehen. Die Vorschau, die uns Jan gestern gezeigt hat, zeigt zumindest, dass sich hier etwas in die richtige Richtung bewegt - auch wenn die Konzepte dahinter im Vergleich zu den Arbeiten von New York Times oder Guardian mittlerweile etwas altbacken daherkommen. Aber jeder fängt mal klein an ;-)

Interessant war auch der Vortrag "Der arme Poet oder die 10 häufigsten Fehler bei der Kundenakquise" von Ute Mündlein. Vor allem kleine Unternehmen, Selbständige und Freelancer konnten ein paar nützliche Tipps mitnehmen. Die übrigen drei Vorträge haben mich nicht so richtig überzeugen können, aber das ist bei einem thematisch breit gefächerten Event wie dem Webmontag erwartbar und daher kein größeres Problem. Man muss ja auch was zu meckern haben.

Daher in aller, hoffentlich konstruktiven Kürze: Die "Erfolgsfaktoren im E-Commerce-Plattformbusiness" kamen etwas zu sehr wie Buzzword-Bingo rüber. Außerdem bin ich nicht einverstanden mit der Aussage, PHP-Entwickler seien Ruby- oder Perl-Entwicklern deshalb vorzuziehen, weil sie (für Startups, bezogen auf den reinen Stundensatz) billiger seien und man im Zweifel vergleichsweise günstig Studenten ans Projekt setzen könne. Ich möchte hierzu nur auf das Magische Dreieck verweisen und mir längere Ausführungen sparen.

Den Vortrag über das Yana-Framework hatte ich ebenfalls mit Spannung erwartet. Leider habe ich nicht wirklich erfahren, was Yana kann und wo seine Vorteile liegen, sondern hauptsächlich, dass 90% unserer Entwicklungsarbeit automatisierbar sei und wir beim Entwickeln doch so einiges falsch machen würden. Ich bin davon nach diesem Vortrag ganz und gar nicht überzeugt. Die meisten von uns bilden eben nicht bloß Backoffice-Prozesse ab.

Und schließlich konnte ich die im letzten Vortrag postulierte "Big Idea" nicht erkennen. Ich mag voreingenommen gegenüber Werbern sein oder Dinge zu sehr aus Entwickler-Perspektive sehen, aber nun ja ;-) Ich habe trotzdem nicht bereut, mir alle fünf Vorträge anzusehen. Die Masse hat es in diesem Fall gemacht. Das schöne Socializing und Networken mit einigen alten und neuen Bekannten im Anschluss an die Vorträge hat den gelungenen Webmontag würdig beschlossen. Der nächste Frankfurter Webmontag findet am 17. Januar 2011 statt.

Update: Zum Thema Open Data wollte ich eigentlich noch ein sehenswertes Video aus dem Labor des Elektrischen Reporters verlinken. Das sei hiermit geschehen. [gefunden bei Markus]

Der halboffene Haushalt

Visualisierung des Bundeshaushalts auf offenerhaushalt.de

In The state of mapping APIs wirft Adam DuVander einen Blick auf die wichtigsten momentan verfügbaren Mapping APIs (vergisst dabei aber OpenLayers!). Er stellt fest, dass es immer einfacher werde, Karten zu erstellen, dass es aber immer noch zu schwierig sei, an die Daten heranzukommen, um die Karten mit sinnvollen Informationen anzureichern.

In diesem Zusammenhang weist er auch darauf hin, dass es immer noch zu kompliziert sei, so genannte Choroplethenkarten aus Datenquellen zu erstellen. Was ein Choroplethenkarte ist, musste ich erst einmal nachschlagen. Im Prinzip sind das eingefärbte thematische Karten, auf denen beispielsweise Landkreise nach Häufigkeit bestimmer Eigenschaften unterschiedlich eingefärbt werden, wie sie auch dpa Regiodata anbietet. Da kommt dann auch wieder die Open Government-Bewegung ins Spiel.

Denn was bringt uns das beste Toolkit, um solche Karten einfach und schnell erstellen zu können, wenn wir an die zugrundeliegenden Daten gar nicht herankommen? Welche Probleme das Fehlen der Daten mit sich bringt, zeigt ein aktuelles Projekt auf. Unter OffenerHaushalt wird der Bundeshaushalt schön visualisiert und interaktiv bis auf die einzelnen Posten heruntergebrochen erfahrbar gemacht. Einen Haken hat die Sache aber, denn:

Die von OffenerHaushalt.de verwendeten Daten entstammen der Webseite des Bundesministeriums der Finanzen. Leider stehen die Haushaltsdaten nicht in einem offenen, maschinenlesbaren Datenformat zur Verfügung. Wir mussten daher auf einer maschinelle Auswertung der angebotenen HTML-Dokumente ("screen scraping") zurückgreifen.

Das ist schon ganz schön bitter und der Qualität der Daten nicht gerade förderlich. Immerhin stellt das Projekt die so gewonnenen Daten in maschinenlesbarer Form zur Verfügung, so dass sie auch von Dritten weiterverarbeitet werden können. Ich würde ja gern auch die Länderhaushalte sehen oder den Bundeshaushalt als multi-level pie chart. Eine freie Library, die so ein Diagramm erzeugen kann, habe ich aber noch nicht gefunden. Mal weitersuchen ...

Journalismus braucht Innovationen

Die Artikel von Christiane Schulzki-Haddouti lese ich schon seit Jahren mit Interesse und Vergnügen, sei es in Telepolis oder jetzt in ihrem Blog KoopTech. Gestern hat sie darüber geschrieben, wie sich JournalistInnen aufgrund des momentanen Medienwandels neu erfinden müssen.

Influenza Virus H1N1 HA Protein
(cc) by-nc-sa groovelock

Interessant finde ich einerseits die Ansätze für Innovationsmanagementsstrategien von Journalisten und Verlagen, andererseits die neuen Marktfelder, die sie aufzeigt. Das heißeste Eisen ist dabei momentan wohl die Open Data-Bewegung, die allerdings immer noch nicht richtig in Deutschland angekommen ist, gerade im Hinblick auf die Veröffentlichung von Daten durch Behörden auf Bundes-, Landes- und Kommunalebene. Bei einer kurzen Recherche habe ich jedenfalls so gut wie nichts gefunden.

Die Auswertung, Einschätzung und Visualisierung dieser Daten können Journalisten allerdings kaum im Alleingang erledigen, sie müssen mit Spezialisten aus anderen Bereichen - Designern, Programmierern - kooperieren. Mercedes Bunz hat vor ein paar Monaten in einem Guardian-Artikel codende Journalisten als neuesten Trend ausgemacht und schlägt damit in die gleiche Kerbe.

In den USA mit Top Secret America und England mit Where Does My Money Go?, um nur zwei herausragende Beispiele zu nennen, ist der Open Data-Journalismus schon über das Versuchsstadium hinaus. In Deutschland gibt es immerhin gute Ansätze (und dpa Regiodata).

Eine Voraussetzung für innovative Open Data-Projekte ist aber, dass die Daten überhaupt zur Verfügung gestellt werden, und zwar strukturiert und zugänglich. Sobald das der Fall ist, wird es nicht lange dauern, bis diese Daten sinnvoll verarbeitet und mit Informationsgewinn aufbereitet werden. Die Werkzeuge sind größtenteils schon da, man sehe sich nur einmal die zahlreichen Demos der Fähigkeiten von HTML5, CSS3 und neuer Javascript-Frameworks an. Ganz zu schweigen von semantischer Technologien wie RDF, SPARQL usw.

Außerdem stehen interessierte und fähige Leute schon in den Startlöchern oder tummeln sich auf Hackdays oder Hackathons. Die APIs öffnen sich ebenfalls, wenn auch nur zaghaft. Das Presseportal geht da mit gutem Beispiel voran.

Ich behaupte, dass der Journalismus völlig neue Techniken entwickeln kann und muss (und wird), um Informationen über neue Kommunikationswege und Repräsentationsmodelle an seine Rezipienten zu bringen. Open Data ist da nur der Anfang. Und aller Anfang ist eben schwer.