Warum eigentlich immer auf Anfang? Das Dateninstitut sieht abermals die Durchführung von Pilotprojekten vor - statt auf bereits bestehende Expertise aufzubauen. Die Erfahrung digitaler Ehrenamtler:innen bleibt in der Planung weitestgehend unberücksichtigt, schreibt Wikimedia in einem neuen Blogbeitrag. Dadurch wird wertvolles Wissen nicht nur einfach übersehen, es ändert sich auch nichts an den grundsätzlichen, strukturellen Problemen im Umgang mit offenen Daten.
Eine Verordnung der EU-Kommission lässt immerhin auf die weitere Umsetzung der Open-Data-Richtlinie von 2019 hoffen: Innerhalb von 16 Monaten sind öffentliche Stellen verpflichtet, “hochwertige Datensätze” kostenlos zur Verfügung zu stellen. Die Liste der zu publizierenden Daten umfasst sechs Kategorien, darunter z. B. die Erdbeobachtung oder auch Statistiken. Das erklärte Ziel der Verordnung: Die Daten sollen “einen großen Nutzen für die Gesellschaft, die Umwelt und die Wirtschaft” haben. Abzuwarten bleibt natürlich, wie die öffentlichen Stellen die Verordnung umsetzen. Die Durchführungsverordnung steht auch in deutscher Sprache zur Verfügung.
Frisch eingetroffen: Neue offene Daten
Die Tagesschau weitet ihr offenes Angebot aus: Sämtliche kurze Erklärvideos, welche die Tagesschau zu einem breiten Themenspektrum erstellt, dürfen von nun an unter der Lizenz CC BY-SA 4.0 verwendet und bearbeitet werden. Die entsprechenden Inhalte werden auf einer separaten Seite veröffentlicht.
Auch in unserem Nachbarland bewegt sich etwas. Das Open Data-Angebot des Österreichischen Parlaments hat einen neuen Anstrich bekommen. Zudem gibt es einige Neuerungen auf dem Portal, u. a. die Einführung einer JSON-API. Noch ein Stückchen weiter im Süden untersuchte der Bayerische Rundfunk den Pestizideinsatz im Apfelanbau. Die Redaktion konzentrierte sich auf ein ausgewähltes Feld in Südtirol, welches den durchschnittlichen Einsatz von Pestiziden repräsentiert. Rund 38 Mal wurde hier während einer Saison gespritzt. Das Besondere an den ausgewerteten Daten: Sie stammen aus sog. Betriebsheften, die im Rahmen des Südtiroler Pestizidprozesses im Jahre 2017 eingezogen wurden. Die Redaktion bemühte sich um aktuellere Daten sowie Erhebungen aus Deutschland, wo die Daten allerdings nicht herausgegeben wurden.
Gebäudekartierung als Chance für nachhaltige Stadtentwicklung
In Dresden geht demnächst eine neue Plattform online, auf der sich Bürger:innen an einem Gebäude-Kartierungsprojekt beteiligen können: Eigentlich hatte das Projekt mit dem langen Namen Baukultur und klimagerechte Architektur in Dresden ein KI-basiertes Verfahren entwickelt – doch einige Informationen über den Zustand der Gebäude waren aus den verfügbaren Datensätzen schwer oder gar nicht ermittelbar. Die Idee der Plattform ist deshalb Interessierte mit Vor-Ort-Wissen in den Kartierungsprozess einzubeziehen. Die Motivation ist dabei nicht nur eine kulturwissenschaftliche: Mit Hilfe der gesammelten Daten sollen nachhaltiges Bauen und Sanieren gefördert werden.
Der Zusammenhang von Offenheit, Standards, stabilen APIs und nachhaltiger Anwendungen
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) veröffentlichte am 18. Januar seine Auswertung, dass Grundschulen in Deutschland für ¾ der Bevölkerung in Laufweite erreichbar wären. Wirklich nachprüfen lässt sich das nicht, da die Daten zu den konkreten Standorten der Grundschulen aus lizenzrechtlichen Gründen nicht veröffentlicht wurden, wie eine Anfrage ergab. So braucht es weiterhin das zivilgesellschaftlich entwickelte und betriebene Projekt JedeSchule.de. Da Bildung Ländersache ist, veröffentlicht jedes Bundesland entsprechende Daten jeweils in einem anderen Format. So muss pro Bundesland ein Scraper von JedeSchule gepflegt werden, um die Schuldaten für Gesamtdeutschland über diese Scraper in einem einheitlichen Format zusammen zu führen. Näheres dazu auch in diesem Blogbeitrag.
Da die Deutsche Bahn (DB) selbst keinen Bestpreis-Kalender anbietet, wurde aus der Zivilgesellschaft heraus selbst eine Sparpreissuche bahn.guru entwickelt. Diese stützt sich auf eine API der DB, die nun nicht rückwärtskompatibel geändert wurde, so dass die Suche auf bahn.guru nicht mehr funktionierte. bahn.guru wurde zwar zügig angepasst, aber auch hier zeigt sich, dass Software nie wirklich fertig wird und ständiger Betreuung mit dem entprechenden personellen und zeitlichen Aufwand bedarf (Aufwand, den auch ChatGPT nicht wesentlich verringern würde, wie die Beobachtungen bei der Entwicklung des BahnCard-Rechner zeigen).
Eine Erfahrung, die nun auch das CityLab Berlin mit ihrem Stadtpuls Projekt machen musste. Am 31. Januar wurde der Dienst nach einjähriger Testphase eingestellt. In einem Blogeintrag wird selbstkritisch über die Gründe reflektiert und einige Lehren gezogen − Exemplarisch: Zielgruppen und Anwendungsfälle besser verstehen, nachhaltig tragbares Betreibermodell/Finanzierung finden, realistisch die eigenen Ressourcen einschätzen (z.B. bei Community-Management-Aufwand). Was vielleicht bei den Einschätzungen fehlt, ist die Frage, was der Sinn eines städtischen Innovationslabors ist, wenn die Stadt am Ende doch nicht die Kompetenz aufbauen kann/will, die dort entwickelten Lösungen selbst betreiben oder gar weiterentwickeln zu können. So bleiben solche Stadtlabore und deren Projekte nur ein Schmuckstück für die hiesige Stadtverwaltung, ohne selbst bei sich die notwendigen Veränderungen vollziehen zu müssen (die sich nicht nur auf einzelnen präsentablen Projekte, sondern auch auf das Etablieren von Infrastruktur, Standards, Abläufen beziehen).
Zudem merkt man bei den meisten umgesetzten Projekten, dass sie eigentlich universell auch auf anderen Städte / Regionen übertragbar wären und so fragwürdig ist, warum jede Stadt ihre eigenen digitalen Lösungen (neu) erfinden, bauen und betreiben muss. Eine Frage, die sich auch Christian Wölbert in seinem Artikel auf heise stellt und fordert, Webdienste die einheitliche Aufgaben abbilden stärker zu zentralisieren.
“Städte sollten offene Datenmodelle verfolgen.”, fordert Aurel von Richthofen in seinem Tagesspiegel Background Standpunkt. Aus seiner Sicht sind Städte (und ihre Zivilgesellschaft) viel zu vielfältig, als dass diese sich in ein gemeinsames Datenmodell als kleinster Nenner pressen ließen. Mit Linked Open Data hätte man dagegen die Mittel zur Hand, auch unterschiedliche Modelle verknüpfen und auswerten zu können. Somit widerspricht dies auch nicht unbedingt der Forderung nach mehr Zentralisierung aus dem Absatz zuvor.
Dabei ist noch nicht jeder Verwaltung klar was Open Data ausmacht: So bezeichnet die Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz Berlin (UMVK) es als Open Data, dass sie ihre Gedaten für Google Maps bereitstellt, damit diese Detailinformationen im Radrouting anzeigen können. Tatsächlich aber findet man besagte Daten nicht im Berliner Open Data-Portal, denn sie werden nur auf Anfrage herausgegegen, so dass man in diesem Fall nicht wirklich von Open Data sprechen kann, wie @Datenschatz richtigerweise anmerkt.
Weitere Neuigkeiten aus der Open-Community
“Die Open-Source-Community sollte nicht mit einem Schlaraffenland verwechselt werden” - so steht es in der Bildunterschrift eines neuen netzpolitik.org-Artikels. Konkret geht es um die Matrix-Foundation, welche die Entwicklung des gleichnamigen Kommunikationsprotokolls vorantreibt. Das offene Protokoll kann sich über eine steigende Verbreitung freuen. Die Kehrseite der Erfolgsgeschichte sind steigende Kosten, welche das Projekt kaum noch tragen kann. Obwohl zahlreiche Unternehmen und Behörden Matrix nutzen, fließen wenig Gelder in die Kassen der Stiftung. Einmal mehr zeigt sich: Open-Source-Lösungen werden gerne und wie selbstverständlich genutzt, monetäre Unterstützung bleibt trotz vorhandener finanzieller Mittel oft aus.
Das Projekt FragDenStaat kann sich hingegen über gleich zwei Erfolge freuen: Vor über einem Jahr klagte das Projekt in Bezug auf die Maskenaffäre - und hat nun gewonnen. Das Bundesgesundheitsministerum muss nun den Schriftverkehr zwischen Ex-Gesundheitsminister Spahn und der Lobbyistin Andrea Tandler herausgeben. Und: Unterlagen zu Gesprächen zwischen Armin Laschet und dem Energiekonzern Uniper darf das Land Nordrhein-Westfalen nicht länger unter Verschluss halten. Inhaltlich geht es dabei um den Kohleausstieg, das Kraftwerk Datteln 4 und die Nordstream 2-Pipeline.
Termine
- CfP Deadline 23.02.2023: Failed yet successful: Learning from discontinued civic tech initiatives
- Abgabefrist 17.03.2023 für Interessenbekundung zur Teilnahme am Ergebnistransfer aus der Förderinitiative “Heimat 2.0”: existierende OpenSource-Lösungen aus 5 Patenregionen in die eigene Region übernehmen. Zur Bewerbung zugelassen sind Gemeinden und Gemeindeverbände sowie zivilgesellschaftliche Institutionen
- Prototype Fund Förderrunde 14: bis zum 31.3.23 könnt ihr eure Projektidee zu OpenSource Software mit sozialem Mehrwert einreichen
Veranstaltungen
- Mittwoch, 08.02.2023 bis Freitag, 10.02.2023: 3rd Open Science Conference
- Montag, 20.02.2023 bis Dienstag, 21.02.2023: ICODEA 2023 - 17. International Conference on Open Data and Energy Analytics
- Freitag, 24.02.2023 bis Samstag, 25.02.2023, Zürich: Winterkongress der Digitalen Gesellschaft
- Samstag, 04.03.2023 bis Freitag, 10.03.2023: Internationale Open Data Day(s)
- https://opendataday.org/ (auch einige Code for Labs von uns beteiligen sich mit lokalen Events, z.B. Karlsruhe: https://ok-lab-karlsruhe.de/projekte/odd/)
- Samstag, 18.03.2023 bis Sonntag, 19.03.2023, Moers: Hackday Niederrhein 2023