Daten und KI in der Umwelt
In einem RESET-Artikel werden verschiedene KI-Projekte vorgestellt, die helfen sollen, dass der Fischfang nachhaltiger wird. So lassen sich im EU finanzierten Projekt SUSTUNTECH aus den mittels maschinellen Lernens gewonnenen Erkenntnisse aus der Verschneidung von GPS-Koordinaten sowie Sensor-Daten zu Wassertemperatur und Art der gefangenen Fischen, Fangrouten optimieren und so Treibstoff sparen. Das Projekt OTC-Smart Fishing des Thünen-Instituts erforscht, wie Beifang durch KI-gestützte Kamerasysteme, die Fischarten bereits in den Fangnetzen erkennt, vermieden werden kann. Ein weiteres Projekt leistet seinen Beitrag gegen Überfischung, indem durch die genaue Ortung von Fangnetzen sogenanntes “Ghost Fishing” eingedämmt wird.
Das Institut für ökologische Wirtschaftsforschung (IÖW) warnt allerdings in einer Studie davor, dass digitale Werkzeuge nicht zwingend zur mehr Nachhaltigkeit führt, sondern im Gegenteil sich auch zu einem Katalysator für ein noch größere Zerstörung entwickeln kann. Nur politische Anreize und Regulierungen können die grundlegende Raubbau-Logik durchbrechen, die sich aus dem Spannungsfeld von Existenznöte der Fischer, Renditeerwartungen und Konsumverhalten ergibt.
Die Sprache der Pflanzen zu verstehen, hat sich das Startup Hortiya vorgenommen. Denn Pflanzen sind abhängig von ihrem Zustand unterschiedlich bereit, Wasser, Licht und Nährstoffe aufzunehmen. Mit dem Wissen, ob und wann die Pflanze sich gerade in der Photosynthese befindet, erkrankt ist, oder an Wassermangel leidet, könnte effizient deren Beleuchtung, Bewässerung und Düngung gesteuert werden. Auch hier sollen möglichst viele Daten aus Sensoren gewonnen werden, um mit ihnen die Pflanzen-KI trainieren zu können.
Wie Riffreporter berichtet, ist das Google Projekt Flood Hub in der Lage Hochwasser an Flüssen weltweit bis zu fünf Tage im Voraus zu erkennen. Das hilft vor allem Regionen, in denen es nur wenige Messstationen gibt.
Mehr Wasser(-speicher)informationen (auch in Form von Karten und Animationen) erhält man über das Portal globalwaterstorage.info. So fehlen Deutschland aktuell immer noch 10 Milliarden Tonnen Wasser, wie das Deutsche Geoforschungszentrum in Potsdam laut diesem MDR-Wissen-Beitrag aus dem aktuellsten Datensatz des Satellitenduos “Grace-Follow-On” ermittelt hat.
Mehr Umwelt-relevante Daten
Das Statistische Bundesamt teilte Anfang März mit, dass 2023 56% des Stroms in Deutschland aus erneuerbaren Energieträgern erzeugt worden sind. Dabei trug die Windkraft mit 31% erheblich bei, bedingt durch den 4,3%-igen Leistungszubau, einem guten Windjahr und dem um 11,8% zurückgegangen Strombedarf.
Weniger positiv entwickelt sich die Recyclingquote: wie aus einem Spektrum-Artikel hervorgeht, der sich auf die 62 Millionen Tonnen an elektronischem Abfall allein im Jahr 2022 aus dem Global E-Waste Monitor bezieht, ein Anstieg um 82 Prozent im Vergleich zum Jahr 2010. Dem gegenüber stehen gerade mal 22,3 Prozent des Elektroschrotts, die nachweislich ordnungsgemäß gesammelt und aufgearbeitet worden sind. Bis 2030 könnte sich die Schrottmenge auf 82 Millionen Tonnen erhöhen, von denen dann nur noch 20 Prozent recyclt würden.
Der Sachverständigenrat für Umweltfragen hat seine Berechnungen mit aktuellen Emissionsdaten und verbesserten wissenschaftlichen Analysen zum verbleibenden globalen CO2-Budget aktualisiert. Mit der ernüchternden Erkenntnis, dass das deutsche CO₂-Budget für das 1,5 °C Ziel nun aufgebraucht ist. Der umweltrat kritisiert in diesem Zusammenhang auch die Bundesländer, die bislang ihrer Verantwortung nicht nachgekommen sind, sich untereinander zu einigen, wie sich das bundesweite Emissionsbudget durch ihren jeweiligen konkreten Handlungsbeitrag einhalten ließe.
Verkehr
Die europäische Nichtregierungsorganisation Transport & Environment hat eine Analyse der Emissionen in der EU erstellt (und auch visualisiert), nach der Europas Verkehrssektor 2030 fast die Hälfte der Emissionen ausmachen wird. Damit dekarbonisiert sich der Verkehrssektor in Europa dreimal langsamer als der Rest der Wirtschaft. Deutschland trägt dabei einen erheblichen Anteil bei. So waren laut Kraftfahrt-Bundesamt Anfang des Jahres mehr als 49 Millionen Fahrzeuge zugelassen, davon 44 Millionen fossile Verbrenner.
Um so wichtiger wäre es, die Alternativen zu stärken. So ist die Deutsche Bahn zwar gesetzlich verpflichtet, auch die Verbindungen anderer Anbieter in ihrem DB-Navigator anzuzeigen. Für Buchungen gilt dies jedoch nicht. Ein Startup, das europäische Fahrten anbietet, wendete sich deshalb an das Bundeskartellamt. Aus Sicht des Fahrgastverband Pro Bahn braucht es eine zentrale Plattform (z.B. eben den DB Navigator), auf der man anbieterübergreifend buchen kann, vor allem in Hinsicht auf die Fahrgastrechte, wenn durch die Verspätung des einen Anbieters der (eventuell reservierungspflichtige) Anschlusszug des anderen Anbieters nicht erreicht werden konnte.
Ein weiterer Hinderungsgrund ist die Ungewissheit, ob die Angebote des ÖPNV auch an allen Stellen barrierefrei nutzbar sind. MapAmore weist auf das Projekt OpenStop hin, in dem jeder mithelfen kann, die entsprechenden Informationen zu erfassen, die dann direkt auf OpenStreetMap gespeichert werden.
Ein weiteres Mitmachprojekt ist citylines.co, in dem weltweit die Linienpläne möglichst vieler Städte erfasst werden sollen.
Wie Echtzeitdaten von den Wiener Linien in Node-RED aufbereitet und per MQTT an einen ESP32 gesendet werden können, zeigt folgendes Videos und die ergänzenden Quellen auf data.gv.at.
Ebenfalls als Video abrufen lässt sich der Vortrag von der FOSSGIS-Konferenz, wie man die Radnetz-Qualität mit OpenStreetMap-Daten auswerten kann.
Karten
“Karten sind nicht neutral und spiegeln gesellschaftliche Machtstrukturen wider.”, nur eine der Kernaussagen, die Jennifer aus Jannicks Vortrag “GeographyForFuture: Mit Geodaten Politik machen” auf der diesjährigen FOSSGIS zog. Die Seite GeoDatenGuerilla ist eben mit diesem Ziel Anfang Februar 2023 an den Start gegangen, Geodaten und Karten(-darstellungen) zu demokratisieren.
Wie das konkret ansehen kann, zeigt beispielsweise ein Blogbeitrag, der sich mit der Visualisierung von 3D-Gebäudemodellen in QGIS beschäftigt. Die Straßenraumaufteilung in Kiel wurde dabei an Hand von Daten über Straßenabschnitte und Netzknoten aus der Straßeninformationsbank Schleswig-Holsteins bestimmt. Diese Daten liegen allerdings nur über eine FragDenStaat-Anfrage aus letztem Jahr vor.
Adress-Angaben sehen von Land zu Land anders aus, zum Teil gibt sogar innerhalb der einzelnen Ländern Unterschiede in den Darstellungen. Das gestaltet die Volltext-Adresssuche entsprechend schwierig. Im Projekt address-formatting werden deswegen die Schablonen für die verschiedenen Formate und auch passende Testfälle gesammelt, wie in diesem Geo-Education-Thread dargelegt wird.
Seit dem 1. April 2024 ist der Besitz von Cannabis in Deutschland legalisiert. Beim öffentlichen Konsum müssen dabei aber die Mindestabstände zu bestimmten Einrichtungen eingehalten werden. Die Bubatzkarte visualisiert basierend auf den öffentlichen Daten von OpenStreetMap, in welchen Zonen verstärkt auf die Sichtweite geachtet werden sollte.
Die nächste Bundestagswahl ist zwar erst nächstes Jahr. Die Bundeswahlleiterin hat aber bereits jetzt die Karten der Wahlkreiseinteilung veröffentlicht.
Das Bundesamt für Kartographie und Geodäsie (BKG) hat das Europamosaik aus Sentinel2-Daten (1429 einzelne Bildkacheln mit einem Gesamtvolumen von rund 1 Terabyte) mit 10-Meter-Bodenauflösung aktualisiert (Datengrundlage 2021). Es steht als WMS frei zur Verfügung.
Transparenz
Wann kommt das Bundestransparenzgesetz? Versprochen im Koalitionsvertrag, soll das Gesetz laut der Nationalen Datenstrategie der Bundesregierung im 4. Quartal 2024 kommen. Ein zivilgesellschaftliches Bündnis hatte bereits 2022 einen eigenen Gesetzesentwurf erarbeitet. Marie Jünemann von Mehr Demokratie hat bei Netzpolitik aufgeschrieben, wie ein solches Gesetz zu einer effizienteren Verwaltung beitragen und Vertrauen in die Demokratie stärken könnte. In sechs Bundesländern gibt es schon Transparenzgesetze. Wie gut diese sind, offenbar die Seite transparenzranking.de. Aus der Evaluation des Hamburger Transparenzgesetzes geht zudem hervor, dass ein erheblicher Teil der Seitenzugriffe auf das Transparenzportal von den öffentlichen Stellen selbst kommt. Die Evaluationen der bestehenden Gesetze haben auch ergeben, dass die Nutzenden des jeweiligen Transparenzportals angegeben haben, dass ihr Vertrauen in Verwaltung und Politik gestiegen ist. Dass ein einheitliches bundesweites Gesetz fehlt, wurde zuletzt bei der Recherche zu Unregelmäßigkeiten bei der Verteilung der Fördergelder im Rahmen eines Corona-Rettungspakets offenbar, als Journalisten teils monatelang auf Antworten der einzelne Stellen warten und anschließend die verschiedenen Antwort-Formate noch aufbereiten mussten.
Essenziell für Informationsfreiheitsanfragen über FragDenStaat war bisher auch die Möglichkeit, diese Anfragen anonym stellen zu können. Ein Urteil des Bundesverwaltungsgerichts erlaubt es nun jedoch der angefragten öffentliche Stelle, von Antragsstellenden auch fordern zu können, Namen und Anschrift preiszugeben, damit die Kommunikation auch postalisch erfolgen kann. Auf Netzpolitik betrachtet man das Urteil als Rückschritt, da es nicht nur potentielle Anfragende abschrecken könnte, sondern auch für Behörden eine bewusste Strategie zur Verzögerung von Beantwortung von Anfragen sein könnte, indem sie die Kommunikation von E-Mail auf den Postweg verlagern.
Der Bund führt den “exekutiven Fußabdruck” ein. Dieser regelt, dass offengelegt werden muss, wer wesentlich zum Inhalt eines Gesetzes beigetragen hat, also beispielsweise auch welche Interessenvertreter:innen sowie beauftragte Dritte involviert waren. Kritiker stört, dass es weiterhin keine unabhängige Kontrollinstanz geben soll.
Offene Protokolle
Aus den Anfragen, die die Open Knowledge Foundation Deutschland an die 16 Parlamentsdokumentationen der Bundesländer gestellt hat, geht hervor, dass in keinem der Bundesländer eine offene Schnittstelle für den automatischen Abruf von Plenarprotokollen gibt. Zum dem dauert es zwischen einer Woche und mehreren Monaten, bis überhaupt die Protokolle veröffentlicht werden werden. Bayern bildet hier die positive Ausnahme, hier werden sie spätestens am Tag nach der Sitzung zur Verfügung gestellt. Maschinenlesbar im Sinne gut strukturierter Daten, die über Fließtext in PDF-Form hinausgehen, sind ebenfalls keines der angebotenen Protokolle. Dénes Jäger fordert daher, dass der Parlamentsspiegel dringend auf eine moderne IT-Infrastruktur gehoben werden müsse, um eben diese Anforderungen an zugängliche, transparente Parlamente erfüllen zu können.
Jan Eggers zeigt in seinem Blog, wie er mit einem Retrieval-augmented generation (RAG)-Ansatz die 2000 Seiten Protokoll aus dem RKI-Krisenstab aus der Zeit von Januar 2020 bis April 2021 gezielt durchsuchen konnte. Voraussetzung war hier auch, die PDFs zunächst in Markdown zu überführen. Wichtig war auch, das Kontext-Wissen ergänzen, denn “Context is King”. Somit haben für ihn die Aufbereitung der Protokolle für den Assistenten die meiste Zeit verschlungen. Wichtig war auch, die Anfrage-Prompts zu variieren und auch dafür zu sorgen, dass die vorhergehende Anfragen den Kontext nicht verschmutzen, indem man neue Anfragen auch jeweils in neuen Sessions stellt.
Das es in anderen Ländern weniger transparent zugeht zeigt, der OONI Explorer. In ihm werden Beweise für die weltweite Internetzensur (d.h. (temporär) gesperrte oder bewusst gestörte Webseiten und Dienste) gesammelt. Der OONI-Datensatz enthält inzwischen 2 Milliarden durch die Community erfasste Echtzeit-Messungen seit 2012.
OpenData
Das Data for Development Network ist eine Vereinigung von Forschungsorganisationen im globalen Süden, die sich zum Ziel gesetzt haben, Wissen zum Einsatz von Daten und digitalen Technologien aufzubauen und zu teilen, um dieses ethisch verantwortungsvoll zur Bewältigung relevanter Entwicklungsprobleme einsetzen zu können und dabei vor allem die Perspektive des globalen Südens einzubringen. 2019 erschien ihre erste Ausgabe des The State of Open Data Buchs, welches nun, 5 Jahre später, aktualisiert wurde. Im Beitrag zur Aktualisierung reflektieren die Autoren, wie sich die Sicht seitdem geändert hat. Sie zitieren Verhulst, der die Phrase “Dritte Welle von Open Data” geprägt hat, in der es nicht nur um das reine Öffnen von Datenbeständen geht, sondern um einen mehr zweckgerichteten Ansatz, um fachübergreifende Zusammenarbeit und Partnerschaften mit Daten wirksam zu unterstützen. Im Buch werden daher konsequent auch verschiedene Sektoren beleuchtet.
Passend dazu hat ein Paper auf Grundlage des OpenAire Graph, einen Wissensgraphen über Forschungspublikationen, die Bedeutung von Open Data in datengetriebener Forschung untersucht und festgestellt, dass in den letzten Jahren die Anzahl der in öffentlichen Repositorien veröffentlichen Datensätze deutlich gestiegen ist.
Um Wissensgraphen geht es bei einer praxisnahen Fallstudie zu Organigrammen. Mit dieser will die Open Data Informationsstelle Berlin (ODIS) die Potentiale und Herausforderungen bei der Umsetzung von Linked Open Data (LOD) in Berlin erkunden. Eine dabei gewonnene Erkenntnis ist, dass Linked Open Data erst sein Potential entfalten wird, wenn eine kritische Masse an Wissen entsteht und die Informationssilos einem echtem Wissensnetzwerk weichen. Alles steht und fällt mit der Verfügbarkeit von qualitativ hochwertigen, aktuellen und von maschineninterpretierbaren Informationen - sonst heißt es schnell: Garbage in, garbage out, egal wie toll das gerade eingesetzte KI-Framework sein mag. Und für die Interoperabilität zwischen verschiedenen Datenquellen ist auch die Förderung und Entwicklung von LOD-Standards notwendig.
Civic Tech
Vor etwa einem Jahr fand ein Workshop zum Thema Learning from discontinued civic tech initiatives in Hamburg statt. Auf dem Civic Tech Field Guide, einer Sammlung von Projekten, die Technologie zum Wohle der Allgemeinheit einsetzen, gibt es inzwischen auch eine eigene Sektion, den Civic Tech-Friedhof. Diese wird auch in der neuen Publikation What Does “Failure” Mean in Civic Tech? We Need Continued Conversations About Discontinuation erwähnt. Dort wird unter anderem die Frage aufgeworfen, welche öffentlichen (IT-)Infrastrukturen es bräuchte, in denen auch zivilgesellschaftliche Tech-Projekte integriert werden könnten.
Was in unserer Code for Germany Community passiert soll folgender Abriss zeigen: Code for Bielefeld hat einen kurzen Film über ihren Workshop in den Herbstferien 2023 zum Bodenfeuchte-Projekt veröffentlich. Ebenfalls in Videoform sind die Workshops des Open Data Day in Karlsruhe dokumentiert. Fotos vom Open Data Day in Flensburg finden sich auf Facebook und die von der Veranstaltung in Münster auf Github. Die Umweltdatenwerkstatt in Leipzig fand auch am Open Data Day statt und wurde von einem Teilnehmer auf seinem Blog dokumentiert. Auch der Hackday Niederrhein fand in Moers am gleichen Wochenende statt, auf der Veranstaltungsseite wurde inzwischen die Präsentationen verlinkt.
In Köln sind auf einer Karte des Digital Heritage Lab Objekte verzeichnet, von denen man sich 3D-Modelle anzeigen lassen kann. Diese Modelle wurden allesamt ehrenamtlich erstellt. Im Blogeintrag, der das Modell vom Ostermann-Brunnen vorgestellt, wird auch aufgerufen, bei weiteren 3D-Scans zu unterstützen.
Vom 22. bis zum 24. März trafen sich über 20 ehrenamtliche Wikipedia-Aktive aus Berlin, Fürth, Hannover, München und Neu-Ulm für ein Vernetzungstreffen im temporärhaus, bei dem unter anderem das Projekt Zeitverschiebungen aus Fürth vorgestellt worden ist.
Open Source
Leicht verständlich hat der Der Standard aufgeschrieben wie es fast gelungen wäre, eine auf vielen Millionen Rechnern eingesetzte Open-Source-Komponente zu kompromittieren. Durch Zufall ist dieser Versuch entdeckt worden. Fragt sich nur, ob Ähnliches nicht schon bei anderen Projekten gelungen ist, ohne bislang bemerkt zu werden. Entsprechend werden Rufe laut, dass große Firmen mehr Verantwortung bei der Unterstützung solcher Projekte übernehmen zu müssen, die aktuell nur von einzelnen schwer überarbeiteten Hobby-Entwicklern gepflegt werden.
Denn die Schlussfolgerung sollte jetzt nicht sein, dass das mit proprietäre Software von großen Herstellern nicht passiert wäre, mal abgesehen davon, dass diese auch zu großen Teile auf Open Source Software basiert, weil kostenlos, auch wenn sie selbst nicht Open Source ist. Und Updates der verwendeten Bibliotheken werden in der Regel auch nicht nach möglichen schadhaften Code bei solchen Firmen untersucht.
Das Schwerwiegender an nicht freier Software ist die Marktmacht, die große Konzerne durch sie gewinnen können. So auch in der Landwirtschaft. Dem möchte die kostenlose Open-Source-Plattform LiteFarm etwas entgegen setzen, wie Sarah-Indra Jungblut in ihrem Artikel uns informiert.
Aber auch kleinere Tools können nützlich sein: So kann man mit Pandas.ai seine Datenbank statt mit SQL auch mit natürlicher Sprache abfragen.
Und mit PyGWalker lassen sich beliebige Pandas Dataframes in einer Benutzeroberfläche interaktiv erkunden.
Miguel Ramalho bricht eine Lanze für den Einsatz eben solcher Notebooks für die Analyse von Daten und das entsprechend Forschende lernen sollten, die Kommandzeile zu benutzen.
Ressourcensammlung
Das Bündnis Freie Bildung bündelt Ressourcen und Fortbildungsmaterialien für die Entwicklung und den Einsatz von Open Educational Resources (OER). Für die zielgerichtete Kompetenzentwicklung bei Lehrenden und Lernenden im Sinne einer offenen Bildung, gibt es nun ein Modell der Offenheitskompetenzen.
Open Educational Resources speziell für den Bereich Open Source Hardware trägt die Open Hardware Allianz hier kontinuierlich zusammen.
Das Schulungsmaterial und die Werkzeuge, die die schwedische Stiftung Gapminder zusammenträgt, haben dagegen zum Ziel, systematische Irrtümer über globale Entwicklungstrends und falsch wahrgenommene Größenverhältnisse aufzuklären, z.B. in der aktuellen Climate Misconception Study.
Recap
- Mitschnitte vom Winterkongress 2024 der Schweizer Digitalen Gesellschaft
- Aufnahmen von der Datawrapper-Konferenz im März 2024
- FOSSGIS 2024
- Easterhegg
Und sonst so
Am 1. April 2024 wurde festgestellt, dass durch einen Vorfall bei GovData eine große Menge an Daten frei und ungeschützt im Netz verfügbar ist. Die betroffenen Daten umfassen Informationen zu verschiedensten Lebensbereichen sowie eine Vielzahl kuratierter Verwaltungsdaten.
Veranstaltungen
- Dienstag, 02.04.2024, 20:00, c-base, Berlin und online: 135. Netzpolitischer Abend: Europa vs. Big Tech? Von Plattformregulierung, Kartellrecht und Kompetenzgerangel
- Montag, 08.04.2024, online: Open Transport Data Quality Meetup: Qualität von Haltestellendaten
- Montag, 15.04.2024, bis Freitag, 19.04.2024: Data Week Leipzig 2024 https://2024.dataweek.de
- Mittwoch, 17.04.2024, Frankfurt am Main: 3. kommunales Open Data Barcamp
- Mittwoch, 17.04.2024, 13:00 bis 15:00, online über Zoom: Daten-Framework für die Soziale Arbeit und Sozialwirtschaft
- Donnerstag, 18.04.2024, 19:00 bis 22:00: Netzpolitischer Abend zum Thema “Wem gehören die KI-Trainingsdaten?”
- Freitag, 19.04.2024, 10:00 bis 17:00, online (Anmeldung bis 12.04. möglich): Praxisworkshop “Bildhauerei in Berlin und Wikidata”
- Mittwoch, 24.04.2024, 12:30 bis 15:30, online: Gemeinsam Machen 2.0: Demokratieförderung mit Daten
- Montag, 29.04.2024, 16:30 bis 21:00, Weizenbaum Institut, Hardenbergstr. 32, 10623 Berlin: Bits & Bäume Frühlingsabend