Mediokratie – Out in the Open April 2024

06.05.2024 von Jörg Reichert (Code for Leipzig)

Wir freuen uns, das OK Lab Forst (Lausitz) als neues Mitglied im Code-for-Germany-Netzwerk begrüßen zu dürfen.

Citizen Science

Bei Citizen Science arbeiten Personen in ihrer Freizeit auf Augenhöhe mit hauptamtlichen Wissenschaftlerinnen und Wissenschaftlern in Forschungsprojekten zusammen. Um diese Projekt zu präsentieren und zu unterstützen, wurde vor genau 10 Jahren die Online-Plattform “Bürger schaffen Wissen” von “Wissenschaft im Dialog” und dem Museum für Naturkunde Berlin ins Leben gerufen. Mit 10 Projekten 2014 gestartet, bündelt sie inzwischen über 270 Citizen-Science-Projekte. Wie der Pressemitteilung zu entnehmen ist, gibt man sich zum runden Geburtstag einen neuen Namen: mit:forschen. Die Webseite zieht entsprechend auf die Domäne mitforschen.org um. Der Antrag Wissenschaftskommunikation systematisch und umfassend stärken der Ampel-Koalition fordert passend dazu, “die Wirkungen von Bürgerwissenschaften stärker anzuerkennen, sichtbar zu machen und ihre Verankerung in Leitbildern und Zielvereinbarungen zu befördern”, wie die taz ergänzend berichtet.

In ihrer Keynote spricht Siobhan Leachman auf der Australian Citizen Science Association Conference 2023 darüber wie gewonnene Erkenntnisse aus bürgerwissenschaftlichem Engagement direkt Eingang in Wikipedia und Wikidata finden können.

Citizen Science im Verkehr

Das CitRad des FabLab Cottbus ist ein gerade entstehendes Citizen-Science-Projekt. In ihm soll bürgerschaftlich das Verkehrsaufkommen gemessen werden, indem ein einfaches Sensormodul gebaut werden soll, das sich möglichst viele ins Fenster stellen, um vorbeifahrende Autos und Fahrräder sowie ihre Geschwindigkeiten zu erfassen.

Im Forschungsprojekt INFRASense teilten 771 Freiwillige ihre über Sensoren und App erfassten Radfahraktivitäten. Die ersten Ergebnisse aus den Erhebungsrunden in Oldenburg in 2023 liegen vor. Im BIQE Monitor werden anonymisiert über die erfassten Anzahl Durchfahrten, Bremsungen, Erschütterungsgrad, Geschwindigkeit, Standzeit und Zeitverlust die Qualität der Radwege eingeordnet. Im vom mFund geförderten Radweg Radar werden weitere Radverkehrsdaten, auch die über App abgegebenen Nutzerbewertungen von Streckenabschnitten, analysiert und visualisiert. Ziel des Ganzen: fahrradunfreundliche Streckenabschnitte identifizieren und konkrete Maßnahmen abzuleiten, um den Radverkehr sicherer und attraktiver zu machen. Die Erhebungsrunde in Osnabrück startete im April 2024.

Die dunklen Seiten der Künstlichen Intelligenz

Die Verheißungen von solches Crowdsouring wecken auch im Bereich von KI Begehrlichkeiten.

Arbeitsausbeutung

Das angeblich KI-basierte Abrechnungssystem “Just Walk Out” in Amazons Fresh-Supermärkten in den USA war so stark von der manuellen Überprüfung der Einkäufe abhängig, für die mehr als 1000 indische Arbeitskräfte bei einem outgesourcten Unternehmen benötigt wurde, so dass es immer noch zu teuer gewesen war und sich nicht lohnte. Wie der Artikel auf Netzpolitik ausführt, nicht der einzige Fall kolonialer Ausbeutung von Geisterarbeiter:innen. Wie ein Kommentar auf Mastodon lakonisch meinte: AI stünde dann eher für “actual indians” bzw. “alles Inder”. Und auch in Deutschland, konkret bei Rewe im Prenzlauer Berg, Berlin, wird mit der Erfassung flächendeckender Bewegungen im Geschäft und der automatisierten Rechnungsstellung experimentiert, auch hier mit menschlicher Überprüfung. Alles bewegt sich immer weiter in Richtung Überwachungskapitalismus. Dass diese Clickworker unter diesen Bedingungen auch nicht immer fair spielen, hat bereits letztes Jahr eine bei techcrunch zitierte Studie aus der Schweiz offenbart, dass etwa 33 bis 46 Prozent von ihnen selbst wiederum Large Language Models (LLM) beim Erfüllen ihrer Aufgaben auf der Crowdsourcing Plattform Amazon Mechanical Turk nutzen: eine Schlange, die sich selbst in den Schwanz beißt.

Urheberverletzungen und (Meinungs-)Manipulationen

Eine Initiative eines US-Demokraten fordert die Offenlegung der KI-Trainingsdaten, um so die Verwendung urheberrechtlich geschützten Materials nachweisen zu können. Wer wird noch bereit sein, neue, originäre Inhalte zu erstellen (Texte, Kunstwerke), wenn über die Mechanismen z.B. künstlicher neuronaler Netze die Herkunft und damit das Anrecht auf Entlohnung verschleiert? Werden wir als Gesellschaft intelligenter, wenn es einfacher ist, fremde Gedanken durch die Plagiatsmaschine zu jagen und als eigene auszugeben, statt selber zu denken, kritisch zu hinterfragen, sich Erkenntnisse zu erarbeiten, zu verstehen?

Inzwischen schießen als Gegenbewegung Online-Plattformen aus dem Boden, die versprechen, detektieren zu können, ob Texte von einer KI generiert wurden.

Auch für Bilder, Audios und Videos soll dies mit dem kostenlos nutzbaren Deepfake Detektor nun möglich sein, den die gemeinnützigen Organisation TrueMedia.org anbietet. Das Angebot richtet sich hauptsächlich an Journalisten, die mit ihm mutwillige Medienmanipulationen, die die Meinungsbildung konkret auch vor Wahlen beeinflussen sollen, entlarven können sollen.

Nächster Prompt: “Generiere den Output so, dass er von keinem KI-Detektor entdeckt wird …”

Fortschreibung bestehender Stereotype, Diskriminierung

Bereits bei konventionellen Algorithmen wurden in automatisierten Entscheidungssystemen Menschen auf Grund von Geschlecht, Wohngegend und (vermeintlicher) sozialer und ethnischer Herkunft nachweislich bei der Beurteilung von Kreditwürdigkeit, des Versicherungsrisiko, Wahrscheinlichkeit straffällig oder krank zu werden sowie bei der Job-Bewerberauswahl benachteiligt. Scoring-Systeme machen stark vereinfachende Annahmen und basieren auf leicht messbaren Daten. Wie Andreas Geppert in seinem Dossier auf dem Blog der schweizer Digitalen Gesellschaft ausführt, werden so bestehende Ungleichheiten fortgeschrieben oder gar verstärkt. Das Ausbrechen aus vergangenen Mustern wird so fast unmöglich, Angehörige bestimmter Kohorten quasi in Sippenhaft genommen. Allein schon die korrekte Auswertung und Interpretation von statistischen Daten ist eine Herausforderung, wie übermedien an Hand der Polizeilichen Kriminalstatistik (PKS) des Bundeskriminalamts (BKA) thematisiert.

Während klassische Algorithmen deterministisch arbeiten, d.h. bei gleichen Eingabedaten die gleichen Ausgabendaten produzieren und sich so unerwünschte systematische Fehlschätzungen (Bias) leicht erkennen und beheben lassen, gestaltet sich dies beim Einsatz machinellen Lernens ungleich schwieriger. Fragen, mit denen sich auch C. Thi Nguyen, Philosophieprofessor aus Utah, in seinem Artikel The Limits of Data beschäftigt: wer hat die Kategorien festgelegt, in denen die Daten einsortiert werden, nach welchen Kriterien wird entschieden, welche Daten stärker gewichtet, welche ganz ausgelassen werden? Wessen Interessen dient das so konfigurierte Filtersystem? Im Datenaggregationsprozess gehen zudem oftmals wichtige Kontextinformationen verloren und verzerren somit ihre Bewertung.

Umweltbelastung

Allein in der Region um Chicago sind derzeit 25 weitere Rechenzentren in Planung, die schätzungsweise 5 Gigawatt an Strom zusätzlich verbrauchen werden. Damit würde sich der Strombedarf, laut The Register, allein für diese Region verneunfachen. Leider kennt die Gier da keine Rücksicht und Umweltschäden gehörten schon immer zu den kaum eingepreisten externen Effekten. “Grüne KI”-Initiativen wirken dabei auch nur wie ein Feigenblatt. Erfolge, wie neu entdeckte Antibiotikastämme, bessere Krebsfrüherkennung aber auch Präzisionslandwirtschaft stehen die Ressourcenverschwendung für die weniger nützlichen Anwendungsfälle gegenüber.

Noch mehr KI-keri-KI

Im Digitalausschuss im Bundestag wurde das Jahresgutachten 2024 der Expertenkommission Forschung und Innovation (EFI) vorgestellt, wie Anke Domscheit-Berg in ihrem Podcast berichtet. Themen sind auch hier KI und smarte Landwirtschaft. In diesem Zusammenhang wurde auch wieder über die Large European AI Models (LEAM) als geplantes Gegengewicht zu den USA-dominierten KI-Modellen gesprochen.

Derweil hat Meta, die Dachorganisation von Facebook, mit Llama 3 neue leistungsfähige Open-Source-Sprachmodelle veröffentlicht. Wie heise hinweist, ist der Chatbot meta.ai allerdings noch nicht von Deutschland aus aufrufbar und unterstützt bisher nur englische Eingaben.

Jonas Bostelmann bringt uns auf den neuesten Stand von Gebäudeerkennung und Erkennung versiegelter Flächen mittels KI.

30 Vertreter:innen aus der Zivilgesellschaft sollen von D64 die Möglichkeit bekommen, an dieses und nächstes Jahr einen Code of Conduct für den Einsatz Künstlicher Intelligenz (KI) in zivilgesellschaftlichen Organisationen auszuarbeiten.

Digitalisierung und Open Data in Deutschland

Ist die Anzahl der Datensätze wirklich das einzige Messinstrument, um den Erfolg von Open-Data-Portalen zu messen? Über ein sinnvolleres Ranking wurde in einer Session des Kommunalen Open Data Barcamps diskutiert. Hält das Kompetenzzentrum Open Data nicht davon ab, in neuen Dashboards für drei Bundesministerien eben darüber zu messen, wenn auch zusätzlich die Anzahl der Metadatensätze mit aufgeschlüsselt wird.

Im Tagesspiegel Background Artikel Das Dateninstitut ist tot, lang lebe das Dateninstitut (Paywall) kommentiert Lina Rusch den zähen Fortgang der Gründung des Dateninstituts, in der offiziellen Pressemitteilung des Innenministeriums (BMI) im Nachgang des Kickoffs klingt es naturgemäß positiver.

Ein Rechtsgutachten zur Nutzung von Open Data Lizenzen durch die öffentliche Hand zeigt, dass die öffentliche Hand CC-Lizenzen nutzen darf und auch sollte. Laut dem von der Kanzlei TaylorWessing im Auftrag von Wikimedia Deutschland erstellten Gutachten gibt es spätestens seit Creative Commons 4.0 keine relevanten rechtlichen Bedenken. Im Gegenteil, die derzeit bevorzugte Datenlizenz Deutschland, lässt viele Fragen offen, unter widerspricht der europäischen Empfehlung, dass Informationen der öffentlichen Hand die vorgeschlagenen CC-Lizenzen “oder gleichwertige Lizenzen” verwenden sollen.

Der folgende heise-Artikel informiert darüber, dass das Bundesverwaltungsamt (BVA) eine erste Version der Registerlandkarte veröffentlicht hat. Mit ihr sollen Informationen, z.B. zu Merkmalen und Schnittstellen der verschiedenen Fachregister in Deutschland gebündelt werden und so die Navigation durch die “heterogene Registerlandschaft” erleichtern.

Welche OZG-Leistungen bereits online verfügbar sind (aka Digitalisierungsfortschritt der Öffentlichen Verwaltung), erfährt man über Dashboard Digitale Verwaltung – Offene Schnittstelle bzw. auch über zugehörigen OpenAPI.

Was bei größeren Unternehmen wie z.B. der Telekom mit Scale oder auch bei Porsche mit dem Design System schon länger Praxis ist, nämlich vordefinierte UX-Komponenten und Design und UX-Vorgaben bereitzustellen. Damit ist bei der Entwicklung von Komponenten, wenn auch an externe Zulieferer (oder Unterabteilungen) outgesourct, trotzdem ein einheitliches Look-&-Feel sichergestellt. Mit kern-ux.de entwickeln Schleswig-Holstein und Hamburg gemeinsam ebenfalls einen offenen UX-Standard, nur eben für die deutsche Verwaltung.

“Openness”-Kultur

Auch in anderen Ländern sind Qualität und Verfügbarkeit von offenen Daten ein Thema, wie ein Interview mit Michal Hladký, Leiter der kreativen Industrie in Košice, einer Großstadt im Osten der Slowakei, offenbart. Dabei hat er vornehmlich die Mentalität im Blick. Oftmals fehlt immer noch das Verständnis für Sinn und Notwendigkeit, Daten systematisch zu erfassen.

Leigh Dodds, vormals am Open Data Institute beschäftigt, plädiert dafür, die Definition von “Open” nachzuschärfen. Neben dem Veröffentlichen eigener Werke unter freizügigen Lizenzen, sollten seiner Meinung auch die Prozesse, wie die Daten erzeugt worden sind (und sich so auch reproduzieren lassen), transparent gemacht werden. Auch die Infrastruktur, über die Daten bereitgestellt werden, sollte offen im Sinne von öffentlich aufrufbarer API, Einhalten von Standards und dauerhafter Verfügbarkeit sein. Und schließlich sollte die Organisation der Leute in ihrer Selbstverwaltung und ihrem Selbstverständnis offen sein.

Romina Colman, Product Owner des Open Data Editors, beherzigt dies und teilt die Erkenntnisse, die das Team der Open Knowledge Foundation (OKFN) bei der Beschäftigung mit den Bedürfnissen der zukünftigen Endnutzern für sich selbst gewonnen haben. So sollten Organisationen generell mehr Zeit in eben solcher “User Research” investieren, um deren Probleme zu verstehen, bevor man Lösungen baut, die keiner braucht. Auch sollte man Problemstellungen besser durchdenken, bevor man den vermeintlichen Quickfix umsetzt. Wichtig auch, in der Organisation selbst viele Perspektiven zu vereinen und sich die Fähigkeit zu erhalten, sich in die Lage seiner Nutzer hineinversetzen zu können. Der Blick über den eigenen Tellerrand bewahrt davor, das Rad neu zu erfinden, und stattdessen von den Vorarbeiten und Erfahrungen anderer zu profitieren. Ideen und Zwischenlösungen sollten daher früh geteilt und Feedback iterativ eingeholt und eingearbeitet werden.

Auch der Abschlussbericht des New Hanse Projekts des New Institutes enthält viele Empfehlungen, die auch andere Städte und Kommunen befähigen können, Daten besser im öffentlichen Interesse zu teilen und zu nutzen. Wesentliche Erkenntnisse werden auch in dieser Paneldiskussion angesprochen.

Die Society for open, reliable, and transparent ecology and evolutionary biology (SORTEE) beantwortet in ihrem Blog die häufigsten Fragen, die Forscher stellen, wenn sie zum ersten Mal mit dem Thema Offene Daten konfrontiert werden.

Open Educational Resources (OER)

Wissen ist das einzige, was sich vermehrt, wenn man es teilt. Das scheint das Motto des MIT OpenCourseWare YouTube-Kanal zu sein, der kostenlos Millionen von Lernwilligen befähigt, ihr Wissen und Können zu erweitern.

Weitere Erfolgsgeschichten, wie Open Access, Open Data, OER und Open Science zu Fortschritten in Gesundheitsvorsorge, wirtschaftlicher Entwicklung, Krisenmanagement und mehr beitragen haben, sammelt SPARC auf dieser Seite.

Wer mehr über das Konzept OER erfahren möchte, speziell für den Einsatz an Hochschulen, kann das nun in 11 Sprachen in diesem MOOC.

Linked Open Data

Jonny L. Saunders streitet für “vulgäres” Linked Data als Alternative zur orthodoxen Cloud und dem damit verbundenen Überwachungskapitalismus.

Bereits letztes Jahr hat Johannes Busse technisch exploriert, wie man eine “Drei-Stern-Open-Data”-CSV-Datei in eine “Vier-Stern”-RDF-Datei übersetzen kann.

Das Berliner Naturkundemuseum konnte mit Linked Open Data unbekannte Forschende sichtbar machen.

Die Staatsbibliothek Berlin hat in ihren Digitalisierten Sammlungen rund 210.000 digitalisierte Objekte (Stand: April 2024). Mit zahlreichen neuen Funktionen sollen über die technischen Schnittstellen die Suche und Navigation in den Digitalisaten noch einfacher und effizienter werden.

Transparenz

Mit einer gestarteten Petition versucht das Bündnis Bundestransparenzgesetz den Druck auf die Bundesregierung hoch zu halten, das lang versprochene Transparenzgesetz endlich vorzulegen.

Das Deutschland ein Transparenz-Problem hat, zeigen nicht zuletzt eine staatliche “Zukunftsagentur”, die intransparent über die Vergabe von Milliarden von Fördermitteln entscheidet und ein Tankrabatt, der bei den Endverbrauchern nur unvollständig ankam, dafür die Mineralölindustrie 2022 allein in Deutschland 70 Milliarden Euro zusätzliche Gewinne, auch durch den Tankrabatt, gemacht hat.

Was FragDenStaat sonst so macht, verrät Kara Engelhardt im Interview mit dem eGovernment Podcast.

Transparente Parlamentsarbeit

Die Bundesregierung hat nicht nur ein Transparenz- sondern ein generelles Umsetzungsproblem. Im Koalitionsvertrag war ein digitales Gesetzgebungsportal versprochen, “über das einsehbar ist, in welcher Phase sich Vorhaben befinden”. Dieses Portal gibt es immer noch nicht, so dass Sabrina vom Podcast Parlamentsrevue als privates Projekt den Bundestagszusammenfasser aufgesetzt hat. Über die Hintergründe und wie man sie unterstützen kann, sprach sie im Logbuch:Netzpolitik.

Daten und Analysen von Abstimmungen und von Redebeiträgen in den Stadtratssitzungen der Landeshauptstadt Magdeburg liefert sehr anschaulich das Projekt stadtratwatch.de von Code for Magdeburg. Der Code ist OpenSource. Für jede Abstimmung ist die entsprechende Stelle im Live-Stream der Ratssitzung verlinkt. Für jedes Ratsmitglied lassen sich das Abstimmverhalten (auch in Vergleich zu anderen Stadträten) und Redebeiträge einzeln auswerten. Diese Informationen sind sicherlich auch hilfreich, um die Stadträte besser einzuschätzen, die sich für die kommenden Stadtratswahlen erneut haben aufstellen lassen.

Kommunalwahlen / Europawahlen

Am 9. Juni sind Europawahlen, in einigen Bundesländern auch Kommunalwahlen, in Thüringen stehen diese bereits am 26. Mai an.

Auf der Kampagnen-Seite What Europe does for me hat die EU von ihr unterstützte Projekte und Initiativen regional und nach Lebenslagen aufgeschlüsselt, um die Bürger an den Wert der Union zu erinnern, auch wenn sie oft abstrakt und weit weg erscheint.

Mit dem Wahl-O-Mat der Bundeszentrale für politische Bildung (bpb) kann seine eigenen Standpunkte bei 38 Thesen mit denen der 35 Parteien, die zur Europawahl zugelassen sind, vergleichen.

Eine von einem Bürgerverein betriebene alternative Plattform ist der WahlSwiper, der ebenfalls die Haltung in 36 Fragen erfasst und danach die Parteien nach Übereinstimmung rankt. Wie beim Wahl-O-Mat können einzelne Fragen stärker gewichtet werden. Dafür kann man aber nicht mit “neutral” stimmen und es sind nicht alle Parteien befragt worden, was aber für ehrenamtlich betriebenes Projekt verständlich ist. Die Fragen selbst haben sich teilweise mit dem Wahl-o-Mat gedeckt, es gab aber auch unterschiedliche Themen.

Wem die Standpunkte der Parteien bezüglich Klimawandel und Nachhaltigkeit besonders wichtig sind, für den sind die Wahlprüfsteine des Science-O-Mat genau richtig. Das Angebot der Scienists for Future stellt dazu 15 Fragen mit entsprechendem Schwerpunkt.

Einen ähnlichen Ansatz hat KlimaWahlcheck.eu. Hier werden Fragen nach den Themengebieten Energie, Verkehr und Gebäude, Wirtschaft und Soziales, Landwirtschaft und Ernährung sowie Naturschutz und Artenvielfalt gestellt. Besonderheit ist, dass wie in einem klassischen Fragebogen in 5 Abstufungen stärker dafür oder stärker dagegen stimmen kann. Die Auswertung je Themengebiet und nicht übergreifend. Leider werden nur die auch im Bundestag vertretenen Parteien verglichen.

Einen ganz anderen Ansatz wählt der BUND Deutschland und vergleicht die Parteien in ihrem Abstimmungsverhalten in der vergangenen Legislatur. Dazu wurden 30 Gesetzesvorhaben ausgewählt, die etwas mit Natur und Klima zu hatten und dann aus den einzelnen Werten der Abgeordneten Durchschnittswerte für deren Parteien bestimmt.

Wer sich für das Abstimmungsverhalten in anderen Themengebieten interessiert, der sei auf das entsprechende Angebot von abgeordnetenwatch.de verwiesen.

Mit Voto gibt es auch eine digitale Kommunalwahlhilfe für zahlreiche Städte (noch nicht alle sind live geschaltet), für die jeweils lokal relevanten Fragestellungen präsentiert werden. Auch hier wird mit 5 Abstufungen abgestimmt.

Kartendaten

Die Daten der Agroecology Map werden unter der Creative Commons 4.0 (BY-NC-SA 4.0) Lizenz im GeoJSON-Format veröffentlicht, somit werden Analysen auf Grundlage der Rohdaten möglich.

Auch das Digitale Landschaftsmodell 1:1.000.000 (DLM1000) wurde auf den Stand vom 31.12.2023 aktualisiert.

Derzeit gibt es in Deutschland 84 Lebens- und Genussmittel mit geschützter geographischer Angabe und zwölf mit geschützter Ursprungsbezeichnung, die Karte und mehr Informationen gibt es auf Nationalatlas aktuell.

OpenStreetMap hat auf Mastodon festgestellt, dass die Deutsche Post die Kartenanzeigen auf ihren öffentlichen Webseiten (z.B. auch DHL) von Google Maps auf OpenStreeMap umgestellt hat. Insofern ironisch, da die Post Lizenzabkommen mit allen Bundesländern hat, die es ihnen verbieten, die PLZ-Gebiete als Open Data bereitzustellen, wie der Nutzer md als auch das OKLab Flensburg erinnern.

Wie man mit nur wenigen Zeilen Python-Code Gebäudedaten aus Overture mit Python-Bibliothek Lonboard in einem Jupyter Notebook auf eine Karte plotten kann, erfährt man aus dieser Anleitung.

(Nicht) Getroffene Entscheidungen bezüglich Klima und Energie in diesem Jahrzehnt werden darauf Einfluss haben, wie weit der Meeresspiegel in den nächsten Jahrhunderten steigen wird. Mit dieser interaktiven Anwendung kann man die Ergebnisse der verschiedenen Erwärmungsszenarien simulieren.

Klima

Die Auswertung der Copernicus-Daten hat ergeben, dass der März 2024 bereits der 10. Monat in Folge ist, der global mit seiner Durchschnittstemparatur als heißester seit Wetteraufzeichnung gilt.

Über den jahrelangen Wassermangel und den beständig sinkenden Grundwasserspiegel in Brandenburg liest man schon länger, wie dramatisch die Veränderungen inzwischen sind, kann man beim Vergleich der Luftaufnahmen von Seen feststellen.

Wer sich dafür interessiert, wie trocken der Boden heute ist und wie sich die Bodenfeuchte in den kommenden Tagen entwickeln wird, wird auf wasser-monitor.de fündig.

Eine neue Technik kann Methanwolken auf Satellitenfotos sichtbar machen. Dadurch haben Organisationen, Verbände, Bürger und Staaten endlich eine Handhabe, um gegen die Konzerne klagen, die diese Methanlecks, z.B. durch Fracking verursacht haben, berichtet Der Klimablog.

Zur Beurteilung und Vergleich von Klimaschutz auf kommunaler Ebene braucht es ein einheitliches Ranking. Das neue Portal stadt.land.klima hat sich dem angenommen und einen entsprechenden Kriterienkatalog erarbeitet. Mit ihm lässt sich der Umsetzungsstand der wichtigsten Klimaschutzmaßnahmen, welche im Handlungsspielraum der Kommunen liegen, bewerten. Die Rankings für die ersten Städte findet man hier. Wie man bei der Bewertung der eigenen Stadt unterstützen kann, wird in den zahlreichen Onboarding-Terminen vom Team erklärt. Zudem werden noch (ehrenamtliche) (Frontend-)-Entwickler:innen gesucht.

Verkehr

In der Mobilithek wurde viele Stamm- und Betriebsdaten öffentlich zugänglicher Ladestationen für Elektrofahrzeuge veröffentlicht. Die Daten sind anonymisiert, um die Interessen der Betreiber zu wahren, aber sind trotzdem nützlich, wie Jaap Burger auf Mastodon meint.

Zum einjährigen Jubiläum des 49 Euro Tickets, sei auch nochmal an die Seite WasBringt49.de erinnert, die sehr anschaulich die Vorteile für verschiedene Personengruppen darstellt. Sie bekam dafür jetzt auch im April vom Förderkreis für Raum- und Umweltforschung ein Förderpreis verliehen.

superblockify ist ein in Python geschriebenes Programm, um das Straßennetz einer Stadt in Superblock-ähnliche Nachbarschaften zu partitionieren um anschließend das Ergebnis dieser Aufteilung visualisieren und analysieren zu können, wie auch im zugehörigen Forschungsbericht näher ausgeführt.

OpenSource

Schleswig-Holstein stellt 30.000 PCs in der Verwaltung auf LibreOffice um, wie die Open Source Business Alliance (OSB) berichtet. Auf dem Blog von LibreOffice nimmt man die Entscheidung mit Freude zu Kenntnis.

Dank eines Pilotprojekts des Europäischen Datenschutzbeauftragten waren EU-Institutionen auf Mastodon und Peertube, der Alternative zu Youtube, vertreten. Weil aber auch nach zwei Jahren keine EU-Institution diese Fediverse-Server übernehmen wollte, sollten diese im Mai abgeschaltet werden, wie Markus Reuter auf Netzpolitik Ende April einer breiteren Öffentlichkeit ins Bewusstsein rückte. Weil es dann doch zu peinlich geworden wäre, hat die EU-Kommission aber inzwischen eingelenkt und bleibt nun doch im Fediverse.

Ärger für Mastodon gab es aber vom deutschen Finanzamt, dass der gGmbH einst 2021 die Gemeinnützigkeit zugestand, nun diese aber wieder aberkannte, die Gründe sind dazu noch unklar. In Reaktion darauf hat Mastodon nun in den USA gemeinnützige Organisation gegründet. Der Weiterbetrieb der Plattform war eh nie gefährdet, da die Hauptnahmen von der Crowdsourcing-Seite Patron stammen, die keine Gemeinnützigkeit voraussetzt und die Einkünfte auch nicht als Spenden gelten. Weitere Reaktionen im Netz machen auf die bestehende Rechtsunsicherheit beim Betrieb von digitaler Infrastruktur für gemeinnützige Zwecke aufmerksam.

Angela Oduor Lungati, Geschäftsführerin eines Non-Profit-Unternehmens in Nairobi, Kenia, spricht im Interview mit der OKFN über die Herausforderungen, Open-Source-Software zu entwickeln und dauerhaft am Leben zu halten.

Nachdem zuletzt die xz-Attacke groß in den Medien war, sind nun Hinweise auf ähnliche Angriffsversuche bei drei JavaScript-Projekten aufgetaucht.

Und sonst so

Etwas für Nostalgiker: Microsoft veröffentlicht den Quellcode für MS-DOS 4.0 (kam 1986/87 raus) und Talya hat die Suchmaschine gifcities.org entdeckt, mit der man die vor allen in den 90-er Jahren und frühen 2000-er gern in privaten Homepages verbauten animierten GIFs auffinden kann.

Veranstaltungen

Call for Papers