Skip to content

Einstimmung auf die SymfonyLive 2014 in Berlin

Teaserbild SymfonyLive 2014 Berlin

Vom 29. bis 31. Oktober findet in Berlin zum dritten mal die SymfonyLive-Konferenz statt, das

spannendste nationale Symfony-Event des Jahres mit wichtigen Themen aus den Bereichen Symfony, Twig, Drupal, eZ Publish und PHP.

Symfony ist für mich seit langem das Framework der Wahl, wenn es das Projekt zulässt. Woanders kommen häufig zumindest einzelne Symfony-Komponenten zum Einsatz. Außerdem habe ich das VersionEyeBundle für Symfony-Entwickler geschrieben, die die verwendeten Bibliotheken in ihren Projekten im Auge behalten wollen. Alles gute Gründe, endlich mal wieder nach Berlin zu fahren ;-)

Das zweitägige Programm liest sich spannend, die Entscheidung zwischen den jeweils zeitgleich stattfindenden Talks dürfte schwierig werden. Besonderes interessieren mich momentan die DevOps-Themen, von denen es am Donnerstag einige gibt: Docker, Composer im Unternehmensalltag, Continuous Deployment.

Am Freitag stehen dann (für mich) Themen wie das Symfony CMF, die Überführung von Legacy Projekten zu SF2 und das Zusammenspiel von Symfony mit Frontend-Frameworks wie Ember.js oder Angular.js im Vordergrund.

Zusätzlich zur Konferenz findet am 1. November übrigens ein Symfony-Hackday statt, bei dem sich die Community für einen Tag im Rainmaking Loft zusammensetzt, um das Framework weiterzuentwickeln, Bugs zu beheben und zu Fachsimpeln.

"Einstimmung auf die SymfonyLive 2014 in Berlin" vollständig lesen

Zeit Online Content API und xkcd - Mein Hack vom Wochenende

Vor elf Tagen hat die Zeit Online mit einem kleinen Hackday ihr Content-API gelauncht. Die Zeit Online ist damit wohl die erste deutsche (Wochen-)Zeitung, die eine solche Programmierschnittstelle anbietet. International bieten z. B. der britische Guardian, die New York Times und USA Today einen ähnlichen Zugang zu ihren Inhalten an. Eine ausführliche Liste findet sich hier.

Da ich a) leider nicht beim Hackday in Berlin dabei sein konnnte und b) keine Idee für einen "Hack" hatte, hatte ich zunächst nur etwas mit dem API Explorer herumexperimentiert. Mein erster Eindruck war durchaus positiv, und bereits in den ersten Tagen wurden die ersten Apps geschrieben, die auf die Inhalte der Zeit zugreifen. Gelungene Beispiele sind etwa diese Visualisierung von Zeit-Artikeln auf einer Weltkarte oder diese Autorensuche in Sozialen Netzwerken.

xkcd-Comic
Der Original-Comic, cc by-nc Randall Munroe

Kurze Zeit später spülte mein Feedreader dann diesen Comicstrip herein, gezeichnet von Randall Munroe für seinen populären und genialen Webcomic xkcd. Im "Calendar of Meaningful Dates" zeigt die Größe eines Datums an, wie häufig es in englischsprachigen Büchern seit dem Jahr 2000 genannt wurde. Als Quelle gibt Munroe den Google Books Ngram Viewer an, mit dessen Hilfe sich übrigens auch Abfragen über deutschsprachige Bücher durchführen lassen.

Mir war sofort klar, dass sich ein solcher Kalender mit dem Zeit API nachbauen lassen müsste - und das sogar mit "Live-Daten". Also habe ich mich in den letzten Tagen zwischendurch daran gemacht, diese Idee umzusetzen. Die Anwendung, die auf Symfony2 basiert, fragt im Hintergrund (per Cronjob) bei der Zeit nach Artikeln, die ein Datum - z. B. "23. Mai" - enthalten, und speichert die Anzahl der Treffer. Anhand dieser wird nun die Kalenderdarstellung berechnet. Natürlich werden die Resultate gecachet, um die Server der Zeit zu schonen ;-) Und so sieht das Ergebnis aus, das unter http://calendarofmeaningfuldates.sperrobjekt.de/ zu finden ist:

Screenshot

Das ist natürlich nicht ganz so hübsch wie der handgezeichnete xkcd-Comic, dafür aber aktueller. Fährt man mit der Maus über ein Datum, wird rot die zugehörige Anzahl der Treffer angezeigt. Ein Klick leitet auf die Suchergebnisse bei Zeit Online weiter. Warum dort dann jeweils etwas mehr Treffer erzielt werden, kann ich nicht nachvollziehen; das Verhältnis der Daten untereinander scheint aber zu stimmen. Weil die Anwendung eben ein schneller "Hack" ist, sind solche Kleinigkeiten IMHO zu verschmerzen.

Die Ergebnisse sind übrigens auch ganz interessant: Am häufigsten genannt wird der 1. Januar, wie überhaupt der erste und letzte Tag jedes Monats häufiger auftaucht als die übrigen Tage. Drei Daten stellen eine Ausnahme dar: Der 17. Juni, der 20. Juli sowie der 11. September. Letzterer tritt auch im Original groß hervor. Der 17. Juni war bis zur Wende der Tag der Deutschen Einheit, und das Archiv der Zeit reicht ja zurück bis 1946. Aber was ist mit dem 20. Juli? Hat jemand für dieses Datum eine Erklärung? Mir ist bisher noch keine überragende Begebenheit für diesen Tag eingefallen.

Hier geht's direkt zum Calendar of Meaningful Dates - German ZEIT Edition.

Journalismus braucht Innovationen

Die Artikel von Christiane Schulzki-Haddouti lese ich schon seit Jahren mit Interesse und Vergnügen, sei es in Telepolis oder jetzt in ihrem Blog KoopTech. Gestern hat sie darüber geschrieben, wie sich JournalistInnen aufgrund des momentanen Medienwandels neu erfinden müssen.

Influenza Virus H1N1 HA Protein
(cc) by-nc-sa groovelock

Interessant finde ich einerseits die Ansätze für Innovationsmanagementsstrategien von Journalisten und Verlagen, andererseits die neuen Marktfelder, die sie aufzeigt. Das heißeste Eisen ist dabei momentan wohl die Open Data-Bewegung, die allerdings immer noch nicht richtig in Deutschland angekommen ist, gerade im Hinblick auf die Veröffentlichung von Daten durch Behörden auf Bundes-, Landes- und Kommunalebene. Bei einer kurzen Recherche habe ich jedenfalls so gut wie nichts gefunden.

Die Auswertung, Einschätzung und Visualisierung dieser Daten können Journalisten allerdings kaum im Alleingang erledigen, sie müssen mit Spezialisten aus anderen Bereichen - Designern, Programmierern - kooperieren. Mercedes Bunz hat vor ein paar Monaten in einem Guardian-Artikel codende Journalisten als neuesten Trend ausgemacht und schlägt damit in die gleiche Kerbe.

In den USA mit Top Secret America und England mit Where Does My Money Go?, um nur zwei herausragende Beispiele zu nennen, ist der Open Data-Journalismus schon über das Versuchsstadium hinaus. In Deutschland gibt es immerhin gute Ansätze (und dpa Regiodata).

Eine Voraussetzung für innovative Open Data-Projekte ist aber, dass die Daten überhaupt zur Verfügung gestellt werden, und zwar strukturiert und zugänglich. Sobald das der Fall ist, wird es nicht lange dauern, bis diese Daten sinnvoll verarbeitet und mit Informationsgewinn aufbereitet werden. Die Werkzeuge sind größtenteils schon da, man sehe sich nur einmal die zahlreichen Demos der Fähigkeiten von HTML5, CSS3 und neuer Javascript-Frameworks an. Ganz zu schweigen von semantischer Technologien wie RDF, SPARQL usw.

Außerdem stehen interessierte und fähige Leute schon in den Startlöchern oder tummeln sich auf Hackdays oder Hackathons. Die APIs öffnen sich ebenfalls, wenn auch nur zaghaft. Das Presseportal geht da mit gutem Beispiel voran.

Ich behaupte, dass der Journalismus völlig neue Techniken entwickeln kann und muss (und wird), um Informationen über neue Kommunikationswege und Repräsentationsmodelle an seine Rezipienten zu bringen. Open Data ist da nur der Anfang. Und aller Anfang ist eben schwer.