Backlash – Out in the Open November 2024

09.12.2024 von Jörg Reichert (Code for Leipzig)

Open Data

“Letztlich muss Datenmanagement ein integraler Bestandteil der „DNA“ jeder Kommune werden.”, ist sich Lena Sargalski, CDO bei der Stadtverwaltung Bad Salzuflen, in ihrem Beitrag für Tagesspiegel Background sicher. Denn ohne klare Regeln wächst der “Datensalat” weiter, leider fehlt aber diese einheitlichen Sensibilisierung der Mitarbeitenden.

Um auch solches Wissen aufzubauen und Erfahrungen zu teilen, können sich nun alle Akteure aus dem Open-Data-Umfeld in einem eigenen Forum austauschen.

Wie gute APIs und zusätzliche Tools für den Umgang mit Daten aussehen sollen, kann man sich bei der neuen Version der Genesis Datenbank als auch bei Open-Source-Wetter-API Open-Meteo abschauen.

Linked Open Data

Katharina Brunner von BR Data macht uns in ihrem Blog auf Julien A. Raemys Dissertation und seine Beschreibung des LOUD-Ansatzes aufmerksam. Dieser Ansatz erweitert Linked Open Data (LOD) um den Aspekt der Benutzerfreundlichkeit (Usability), was sich in folgenden 5 Prinzipien manifestiert:

  • Wähle die passenden Abstraktion für die jeweilige Zielgruppe
  • Sorge für einen leichten Einstieg
  • Versetze Dich in die Nutzer hinein, und verbessere so kontinuierlich die Verständlichkeit
  • Dokumentiere durch sprechende Beispiele
  • Strebe nach konsistenten Umsetzungsmustern, vermeide unnötige Sonderlocken

Schleswig-Holstein und das Kraftfahrt-Bundesamt (KBA) arbeiten beim Thema Linked Open Data schon längere Zeit zusammen. Nun wurde eine offizielle Kooperationserklärung unterzeichnet.

Open Data Adventskalender

Eine schöne Tradition zur Weihnachtszeit sind Adventskalendar. Einige Open-Data-Portale hatten die Idee aufgegriffen, um jeden Tag entweder einen schon bestehenden Datensatz vorzustellen oder gar extra einen neuen Datensatz offen online zu stellen. Dieses Jahr gibt es aus der Schweiz und aus Frankreich eine tägliche Überraschung.

In Deutschland bietet München.Digital, das IT-Referat der bayrischen Hauptstadt, bzw. konkret sein KI Competence Center (KICC) über die Adventszeit Coding Challenges als Gewinnspiel an.

Weihnachtsmärkte

Auf dem münchner Geoportal gibt es dieses Jahr auch das erste Mal eine dezidierte Karte, auf der alle Weihnachtsmärkte im Stadtgebiet und näheren Umland dargestellt sind. Die Daten lassen sich auch vom Open-Data-Portal der Stadt herunterladen. Die Anwendung selbst basiert auf dem Open-Source-Geoviewer(-Baukasten) Masterportal.

Ursprünglich gestartet mit einer Weihnachtsmarkt-App war das ODIS Berlin 2022, die Open-Source-Anwwendung wird aber aktuell gehalten und man hat sich dieses Jahr die Mühe gemacht, alle App- und Daten-Texte auch auf Englisch zu übersetzen, für eine internationale Stadt wie Berlin durchaus angemessen.

In Leipzig geht die vom Berliner Vorbild abgeleitet App (ebenfalls Open Source), auch ins 3. Jahr. Hier sind neue Features die Volltextsuche, verlinkte vorausgefüllte Fahrplanauskünfte und exportierbare Kalendereinträge. Außerdem ist die nun über den Apple Store bzw. über den Google Playstore beziehbar.

Karten

Christian Paul hat pro Berliner Bezirk GPX-Dateien bereitgestellt, die die Positionen der in OpenStreetMap erfassten Stolpersteine enthalten, bei denen aber noch weitere Beschreibungsdaten fehlen. Die Hoffnung ist, dass Menschen sich in ihre mobile OSM-Editor-App laden, um diese Stellen im Reallife aufzusuchen und die Daten dort abzulesen und direkt über die App in OpenStreetMap nachzupflegen. Dazu gehören auf Verlinkungen auf bestehende Seite wie auf stolpersteine-guide.de oder auch Wikipedia, über die zu den Listen pro Stadt navigiert werden kann und eventuell auch Inkonsistenzen abgeglichen werden können.

Ähnlich funktioniert das OSM Traffic Sign Tool 2, einst vom Prototype Fund gefördert. Es unterstützt dabei, Verkehrszeichen korrekt in die OpenStreetMap einzutragen. Und man kann gleichzeitig festgehalten, welche Regeln diese implizieren.

Ultra v3 ist eine Web-basierte integrierte MapLibre-GL-JS-Entwicklungsumgebung, um Karten aus Daten unterschiedlicher Datenformate über Overpass-Queries zusammenstellen und stylen zu können. Daniel Schep erklärt, welche neuen Formate durch das neue Konzept der Query-Providers in der aktuellen Version unterstützt werden.

Stefan Oderbolz beschreibt auf seinem Blog, wie er mit Protomaps, speziell mit deren PMTiles sowie MinIO (gehostet auf fly.io) eine dynamische Tiles-basierte Karte für die Anzeige aller Einbahnstraßen Europas erstellt hat.

Passend dazu lassen sich mit dem Python-Paket OSMnx leicht Straßen-Netzwerke aber auch andere räumliche Daten von OpenStreetMap herunterladen, modellieren, analysieren und visualisieren.

Das sich die Darstellung von Straßennetzen auch für ein Spiel eignet, beweist die App Road Network Detective. Man muss hier rundenbasiert raten, zu welcher Stadt das zufällig gezeigte Netz gehört. Diese mit R-Shiny erstellte Anwendung war ein Beitrag zum Tag 2 des 30-Day-Map-Challenge Diese Challenges-Aktion wird jeden November ausgerufen. Jeden Tag gibt es neue Vorgaben.

Für die Tag-12-Herausforderung hat Wahlatlas seine Zenus-2022-Auswertungen um eine Darstellung der Gebäude nach ihrer Fertigstellung erweitert, hier am Beispiel von Heidelberg zu sehen.

Mobilität

Im Rahmen des Verkehrswende-Projekts “Auf Rädern” haben Schüler:innen der Stadt Essen jeweils eine senseBox:bike, eine mobile und modulare Messtation für Umweltdaten, auf ihr Fahrrad geschnallt. Wie der reset-Artikel weiter berichtet, haben sie damit viele Sensor-Daten zu z.B. Überholabstände vorbeifahrender Autos, Erschütterungen durch Radwegeschäden und Geschwindigkeiten aufgezeichnet als auch das Anhalteverhalten an Ampeln oder im Stau über die Box getaggt. Die aus diesen Daten abgeleitete Karten zeigen evidenzbasiert die Problemstellen. Darauf aufbauend wurden “Wunsch”- bzw. “Maßnahmenkarten” für einen besseren Radverkehr abgeleitet, die der Stadt übergeben werden.

Neben der grafischen Visualisierung kann man Daten auch klanglich darstellen, wie das Projekt Noisy City an Hand der verschiedenen Verkehrslautstärken in Brüssel eindrucksvoll beweist, Im Thread von Frau Nora kann man noch mehr über (Sonifikation) lernen.

Auf der Seite Deutschlandnetz bewirbt das Bundes-Verkehrsminsterium die von ihm geplanten landesweiten 9.000 E-Mobilität-Schnellladepunkte. Das StandortTOOL zeigt dabei neben den Planungsdaten auch die aktuellen Daten des Ladesäulenregisters an (die Ladesäulen.Daten können am Ende dieser Seite als xlsx- oder csv-Datei heruntergeladen werden).

Klima

CO2-Bilanzierung

Während die Klimaarbeit der Stadt Münster von der EU-Kommission mit dem “Mission Label” für die vermeintliche Vorbildwirkung des “Klimastadt-Vertrag Münster” ausgezeichnet wurde, hat das OKLab vor Ort in seinem Klimawatch-Projekt die CO2-Emissions-Daten der letzten Jahre nachgetragen und diese belegen, dass diese zwar sinken aber viel, viel zu langsam, um überhaupt realistisch das Klimaneutralitätsziel bis 2030 erreichen zu können.

Bei der im eben verlinkten Toot bereits angeteaserten Stadt handelt es sich um Frankfurt am Main, deren jährlichen CO2-Emissionen nun ebenfalls auf Klimawatch getrackt werden.

Zu den angesetzten CO2-Emissionen muss man zudem wissen, dass diese in Deutschland nach BISKO, also dem Territorialprinzip, bilanziert werden. Wie dieser Beitrag bei climactity vor einigen Jahren schon ausführte, fehlen bei der Berechnung die Emissionen, die bei der Produktion der aus dem Ausland importierten Güter (und Vorprodukte) entstanden sind (Verursacherprinzip). An der über die Jahre steigenden Prozentzahl (24% für 2022) bei der Verrechnung von exportierten und importierten Emissionen auf Our World in Data sieht man, dass wir mit unserem Konsum für mehr Emissionen verantwortlich sind, als in unserem Land verursacht werden (und dabei sind die Transportemissionen durch Schiffe und Flugzeuge nicht mal drin).

Klima in Zahlen

Schöngerechnet ist auch die Klimafinanzierung, wie eine Recherche von FragDenStaat belegt. Denn ein Großteil der Summe, die als Klimafinanzierung berichtet wird, sind Kredite, die in Ländern des Globalen Südens zu mehr Schulden führen. Ein weiteres Problem ist, dass der Begriff Klimafinanzierung nicht klar in der UN-Klimarahmenkonvention definiert wurde, so dass auch Projekte angerechnet werden, deren Klimaschutz-Beitrag sehr zweifelhaft sind. Das lässt die nun bei der Weltklimakonferenz 300 Millionen US-Dollar, die, wenn auch dreimal so hoch wie bisher, deutlich unterhalb der Forderungen der betroffenen Länder liegen, in noch schlechteren Licht erscheinen.

Tino Eberl hat monatsweise analysiert, in wie vielen Sendungen der öffentlich-rechtlichen Rundfunk über den Klimawandel und artverwandte Themen berichtet hat - in deutlich mehr, als viele erwartet haben. Durch die erhebliche Erweiterung der als relevant erachtenden Suchbegriffe ergeben sich nun auch bei Neuanalyse für 2023 höhrere Werte.

Ein aktueller Bericht des Global Commission on the Economics of Water warnt, dass bis zum Jahr 2050 mehr als die Hälfte der weltweiten Nahrungsmittelproduktion durch ein aus den Fugen geratener Wasserkreislauf gefährdet sein könnte. Wie man in der Besprechung auf heise weiterlesen kann, kritisiert der Bericht, dass bei den Wasserschutzmaßnahmen das “grüne Wasser” vernachlässigt werde, also die Feuchtigkeit in Böden und Pflanzen, welches für etwa die Hälfte der Niederschläge verantwortlich ist.

Klimaschutz und Klimaanpassung in der Umsetzung

Das Zentrum Klimaanpassung hat mit “Klimaanpassung integriert voranbringen” einen Praxisleitfaden für Kommunen veröffentlicht. Darin wird auch die Notwendigkeit der Datenerhebung als Vorbereitung und Erarbeitung von Strategien und Konzepten betont, die gegebenenfalls noch durch weitere Gutachten wie Klimamodellierungen ergänzt werden sollte. Luftbilder mit Infrarotkanal können beispielsweise Datengrundlage für ein Vegetations- oder Entsiegelungskataster sein. Kombiniert mit Laserscandaten ließe sich auch ein Gründachkataster aus ihnen aufbauen. Die Starkregengefahrenkarte in Erkrath entstand beispielsweise aus den bestehenden Datensätze verschiedener Fachbereiche: dem Kanalnetzmodell vom Abwasserbetrieb, Gebäudedaten (ALKIS, Grundstückskataster) vom Fachbereich Stadtplanung und Vermessung sowie Daten zu Bauwerken an Gewässern (Brücken, Durchlässe, Verrohrungen) vom Bergisch-Rheinischen Wasserverband. Kriterien für klimaangepasste Stadtplätze lassen sich so aus der Synthese der Konzepte, Fachdaten und Karten (wie Stadtentwässerungskonzept, Klima- und Windkarten sowie Überschwemmungskarten) aller Ämter ableiten. Weitere Beispiele für Maßnahmen und Projekte findet man in der KomPass-Tatenbank. Möchte man lokal selbst aktiv werden, sollte man unbedingt in die Datenbank zu Fördermöglichkeiten für Klimaanpassung schauen.

Lesestoff kommt auch vom Institut für ökologische Wirtschaftsforschung (iöw): Umwelt im Quartier beschreibt, wie Bestandsquartiere nachhaltig transformiert werden können.

Energie

Das Forschungsprojekt Partizipation im digitalisierten Energiesystem durch soziale Innovationen (PaDiSo) hat drei Jahre lang Kommunen in Sachsen-Anhalt bei ihrer lokalen Umsetzung der Energiewende begleitet. Zum Abschluss des Projekts sind die gewonnenen Erkenntnisse nun in die Handreichung “Die regionale Energiewende gestalten” eingeflossen. Um die für Kommunen empfohlene strategische Nachahmung umzusetzen, hat beispielsweise das Akteursnetzwerk Energieavantgarde Anhalt das Format der “Kommunalen Lernwerkstätten” entwickelt. Außerdem ist eine Karte zu sozialen Innovationen im Energiesystem entstanden, auf der man nach Akteuren und Aktionsformaten filtern kann. Weitere Materialen kann man über die Projektseite beziehen.

Das Forschungsprojekt Sustainable energy Positive & zero cARbon CommunitieS (SPARCS) beschäftigte sich auch damit, wie nachhaltige, energiepositive und klimaneutrale Viertel erreicht werden können, konkret durch digitale Lösungen im Bereich der Energieversorgung. Auch dieses Projekt ist im November ausgelaufen. Zum Abschluss gibt es dazu einen Bericht zu Konzept und Arbeitshilfen.

Ernährung

Bereits im Oktober fragte Marian, ob es in Deutschland eine Open-Data-Lebensmitteldatenbank gäbe. Die Daten der “Bundeslebensmittelschlüssel”-(BLS)-Datenbank vom Max Rubner-Institut stehen leider nicht offen. Gleiches gilt für die Food Database (FDDB). Ein vergleichbares offizielles Angebot zur USDA FoodData Central Datenbanken in den USA fehlt also noch für Deutschland.

Allerdings gibt es mit Open Food Facts eine Community-basierte Alternative, die für Deutschland aktuell über 300 Tausend Produkte enthält, weltweit sind es aktuell über 3,5 Millionen Produkte aus 150 Ländern. Mehr als 100 Tausenden Freiwillige haben Zutaten, Allergene, Nährwertangaben und weitere Informationen, die auf den Produktetiketten zu finden waren, in dieser Lebensmitteldatenbank zusammengetragen. Die verschiedenen Möglichkeiten, an die Rohdaten zu kommen, sind auf der Daten-Seite beschrieben. Auf dem Blog findet man auch Beispiele, wie die Daten bereits für Forschungsvorhaben genutzt worden sind.

Im Unterprojekt Open Prices werden zudem Preise gecrowdsourct (aktuell über 56 Tausend) (über die Settings hinter dem Burger-Menü kann man die Sprache auf Deutsch und das Land auf Deutschland stellen, wobei man dann trotzdem noch extra nach dem Land filtern muss). Auf der Community sind alle bekannten Nachnutzung der Daten in anderen Apps sowie die REST API verlinkt.

Ein weiteres Teilprojekt ist Hunger Games, eine Sammlung von Minispielen, mit denen man z.B. Angaben auf den gescannten Etiketten bestätigen muss.

Der Quellcode der Apps ist Open Source (und sucht jederzeit noch helfende Hände).

Citizens Science

Die NASA-Sonde Juno war fünf Jahre zum Planeten Jupiter unterwegs. Dass einige der veröffentlichen Fotos so spektakulär daherkommen ist auch Bürgerwissenschaftlern und anderen Weltall-Enthusiasten zu verdanken, die das Rohbildmaterial durch Bildbearbeitungs-Foo veredelt haben.

In nur einzigen Nacht haben mehr als 2 Tausend Freiwillige in Mailand etwa 64 Tausend widerrechtlich geparkte Autos kartiert, d.h. allein in dieser Nacht sind Mailand damit 5,4 Millionen € Bußgelder entgangen.

Der österreichische Wissenschaftsfonds fördert zwei Jahre lang fünf Projekte im Rahmen ihres FWF-Programms Top Citizen Science.

Openness

Wikimedia Deutschland wird 20 Jahre alt und feiert dies mit einer eigenen Geburtstagsseite.

Von digital courage gibt es schon seit einiger Zeit die Wissensreihe kurz&mündig, die selbst scherzhaft “Pixi-Bücher für Erwachsene” nennen. Nele Hirsch und Jöran Muuß-Merholz haben ein Heft zu Open Educational Resources (OER) beigesteuert, das entweder physisch über den Shop oder digital als pdf bezogen werden kann.

Wirtschaft und Medien

Sven Thomsen macht auf den Bürokratiekostenindex vom Statistischen Bundesamt aufmerksam. Dieser Index soll die bürokratische Belastung von Unternehmen aktuell als auch auch deren Entwicklung über den Zeitverlauf quantifizierbar machen. Im Mittelpunkt stehen also Informationspflichten, für die Unternehmen “Daten oder sonstige Informationen beschaffen, übermitteln oder verfügbar halten müssen”. Sie lassen sich reduzieren durch den Abbau von Schriftformerfordernissen, die Reduktion von Meldepflichten als auch durch die Digitalisierung des Austauschs. Für Sven kommen allerdings dabei Maßnahmen, die darauf abzielen, von “Dokumenten” auf “Daten” zu wechseln, viel zu wenig vor.

Der Begriff “Nachrichtensteppe” wird von der neuen Wüstenradar-Studie genutzt, um Regionen in Deutschland zu beschreiben, in denen (bald) kaum noch lokaler Journalismus vorhanden ist. Auf einer Karte kann man sich die Situation (Stand 2023) konkret anschauen. Mehr Hintergründe zur Studie liefern Deutschlandfunk und Telepolis.

Auch wenn die Lage noch nicht so schlimm wie in den USA ist, wo gerade der Horrorclown die Wahl wieder gewonnen hat und gerade sein Kabinett direkt aus der Geisterbahn zusammenstellt, sind laut der Studienfazit auch in Deutschland negative Effekte auf demokratische Meinungsbildungsprozesse durch eine schwindenden Lokalberichterstattung (deren Lücke dann zum Teil Anzeigenblätter mit gleichgeschaltenen rechten Inhalte füllen) zu erwarten.

Eine weitere bedenkliche Entwicklung sind Medien, die man einst mit seriösen Journalismus verbunden hat, in den letzten Jahren aber irgendwie falsch abgebogen sind, sei es durch Besitzerwechsel, Personalwechsel (bzw. dessen Radikalisierung) oder sonstige Einflussnahme und nun Desinformationen und rechtes, autoritäres Gedankengut verbreiten, wie der Volksverpetzer zusammengestellt hat.

Offene Parlamente

Die Suchmaschine und interaktive Videoplattform für Parlamentsdebatten, Open Parliament TV, hat den Ehrenpreis für digitales Engagement der Thomas-Dehler-Stiftung und Load e.V. erhalten. Die Laudatorin und ehemalige Bundesjustizministerin Sabine Leutheusser-Schnarrenberger hob dabei den Beitrag des Projekts zu Transparenz und Glaubwürdigkeit der parlamentarischen Demokratie hervor.

Auch in Magdeburg geht es hinsichtlich offener Parlamentsdaten voran: Die OParl-Schnittstelle des Magdeburger Ratsinformationssystems wurde nun aktiv geschaltet.

Transparenz

Kreditwürdigkeitsdaten

Die selbst ernannte Krawallinfluencerin hat mal wieder zugeschlagen: das Startup “it’s my data”, das Vermietern Kreditwürdigkeitsdaten von potenziellen Mietern bereitstellt, hatte eine seiner APIs nicht ausreichend geschützt. Dadurch waren die Daten von Arvato Infoscore, einem Mitbewerber der Schufa, von dem das Startup die Daten bezieht, exponiert.

Wie der Tagesspiegel berichtet, kann man nun (nachdem man sich bei der App der Schufa-Tochter Bonify registriert hat), einsehen, welche Unternehmen in den vergangenen zwölf Monaten über die eigene Kreditwürdigkeit angefordert haben, und welche Daten (z.B. Kreditkarten, Girokonten, laufenden Ratenkrediten und Immobilienkrediten) die Schufa überhaupt über einen selbst speichert. Wenn man hier Fehler entdeckt, darf man diese selbst aktualisieren oder korrigieren lassen.

In ihrem Kommentar bei Netzpolitik vertritt Anna Biselli die Auffassung, dass der unkontrollierte Datenhandel hinter personalisierter Werbung generell Gift für unsere Gesellschaft ist. Ihrer Meinung nach sollte die EU ihn zu beenden, da nationale Gesetze ein globales Problem nicht lösen könnten

Transparenz reformieren

Die Konferenz der Informationsfreiheitsbeauftragten in Deutschland (IFK) fordert auf ihrer Tagung am 27. November 2024 in Leipzig die Weiterentwicklung der Informationsfreiheit zu fortschrittlichen Transparenzgesetzen. Es wurde außerdem auf ein progressives Transparenzgesetz für Niedersachsen gedrängt und das Aus für das Bundesweite Transparenzgesetz bedingt durch die Aufkündigung der Ampelregierung bedauert.

Auch FragDenStaat fordert aus den schlechten Erfahrungen beim Umgang mit der Fördermittelaffäre im Bundesbildungsministerum Lehren zu ziehen und die Regelung der Informationsfreiheit ins 21. Jahrhundert zu heben. So müssen aus seiner Sicht auch Chats, SMS oder Non-Paper auf Anfrage herausgegeben werden, sofern darin enthaltenen Informationen amtlicher Natur sind. Außerdem sollten konkrete Vorgaben zur ordnungsgemäßen Aktenführung gesetzlich festgeschrieben werden sowie Richtlinien und Aktenordnungen, die bisher nur von Papierakten ausgehen, auch andere Speicherformen als veraktungswürdig einstufen.

Transparenz in der Praxis

FragDenStaat hat Dokumente zum Bau der Gaspipeline Nord Stream 2 gesammelt und veröffentlichen diese nun vollständig, unter anderem Dokumente zur Gründung der Stiftung Klima- und Umweltschutz Mecklenburg-Vorpommern, ein Scheinkonstrukt, um die Sanktionen der USA zu umgehen.

Die FDP hat den als D-Day betitelten Plan für den Koalitionsbruch schnell noch selbst ins Netz gestellt, um der Veröffentlichung von Table Media zuvorzukommen. Vielleicht sollte man wirklich mal analog zu Ärzten oder Rechtsanwälten auch für Politiker ein Berufsverbot verhängen, auf Grund von nachgewiesener Unzuverlässigkeit oder Unwürdigkeit, z.B. durch permanentes Lügen und weiteren Beiträgen zur Förderung von Demokratieverdrossenheit. Am besten verbunden mit einem Medienauftrittsverbot, damit man die Hackfr… ach egal).

Ein ZDF-Film hat gut verständlich die Steuerprivilegien der Superreichen erklärt. Der Verband “Die Familienunternehmer” war davon nicht so angetan und hat einen fünfseitigen offenen Brief an das ZDF verfasst, in dem den Journalisten Aktivismus, Einseitigkeit und technische Fehler vorgeworfen wurden. Das Netzwerk Steuergerechtigkeit hat nun ihrerseits einen offenen Brief als Antwort darauf veröffentlicht.

Open Source

Fördern und Gründen

Nach 16 Runden in acht Jahren sollte beim Prototyp eigentlich Schluss sein, nun aber die frohe Kunde: das Förderprogramm geht bis mindestens 2029 weiter. Es gibt allerdings ein paar Änderungen: es gibt nur eine Förderrunde pro Jahr, die 6 Monate dauert, die aber für ausgewählte Projekte noch um 4 Monate verlängert werden kann, [der Förderschwerpunkt bewegt sich weg von Civic Tech und Data Literacy hin zu Datensicherheit und Softwarebausteine] (die Gründe dafür werden in einem Extra-Beitrag erläutert), die Förderung für Teams (Größe maximal 4 Personen) ist nun bis zu 95.000 € möglich. Am 11.11. ist die Bewerbungsphase für den neuen Jahrgang gestartet. Weitere Informationen dazu findet man hier.

Damit ist nicht nach Ende des Förderzeitraums heißt “Klappe zu, Affe tot”, ist es wichtig, sich schon frühzeitig Gedanken, um die weitere Finanzierung zu machen. Eine Option ist das Gründen einer Organisation, die das FOSS-Projekt dann weiter betreut und die Einnahmen verwaltet. Dennoch gibt es einige Besonderheit gegenüber proprietärer Software, vor allem eine Organisationsentwicklung, die nicht nur das Kernteam, sondern auch die erweiterte Entwickler:innen-Community einbezieht und das Projekt rechtlich absichert.

Mirko Böhm von der Linux Foundation Europe erklärt im Gespräch mit heise, wie bei Open-Source-Projekten/-Organisationen auch die Anerkennung von Gemeinnützigkeit und die damit verbundenen Steuererleichterungen helfen könnten, was aber auch dabei zu beachten ist.

Digitale Souveränität

Aline Blankertz, Referentin für Politik und öffentlicher Sektor bei Wikimedia Deutschland, spricht im Breitband-Podcast vom Deutschlandfunk darüber, wie Plattformräte dazu beitragen, die Macht von Big Tech zu begrenzen und deren große Plattformen wie Google Maps, digitale Handelsplätze und Co. stärker im Sinne von Gemeinwohl und Nutzendeninteressen zu formen.

Daniela Schacht und Alexander Peschel vom Open Source Kompetenzzentrum (OSK) im ITDZ Berlin sowie Markus Sperl vom CityLAB Berlin sprechen im Interview über den im November durchgeführten zweiwöchigen User Acceptance Test, mit dem geprüft werden soll, inwieweit openDesk, eine vom Zentrum für Digitale Souveränität (ZenDiS) entwickelte Open-Source-Kollaborationssuite, die als Plattform für die Ablage und das Sharing von Dokumenten dienen soll, aber auch Projektmanagement- und Chat-Funktionalität bietet, den Bedürfnissen Bedarfen der Mitarbeitenden der Berliner Verwaltung bereits entsprechen würde.

Auch Schleswig-Holstein plant mit neuen Open-Source-Kollaborationsplattformen, den Umstieg auf LibreOffice und sogar mit einem Wechsel auf Linux, wie man der am 25.11. veröffentlichen Open-Source-Strategie entnehmen kann.

Im Podcast “Dicke Bretter” wurde mit Daniel Gerber über seine Zeit als Grünen-Abgeordneter, zuständig für Digitalthemen, in der vergangenen Legislaturperiode in Sachsen gesprochen. Trotz des konservativen Koalitionspartners CDU konnte ein Transparenzgesetz auf die Beine gestellt werden, in dem auch die Open-Source-Umsetzung der zugehörigen Transparenzplattform, auf der dann die Informationen veröffentlicht werden sollen, geregelt ist. Außerdem wurde eine Open-Source-Strategie formuliert, für die zunächst über alle Ministerien erhoben wurde, welche Software wo eingesetzt wird. Dabei ergab sich, dass aktuell nur 13,5 Prozent der gesamten Software-Landschaft in der sächsischen Staatsverwaltung Open-Source-Software ist und auch nur 13 Prozent der Menschen, die mit Software zu tun haben, überhaupt Open-Source-Software benutzen. Darauf aufbauend wurde dann in der Strategie festgelegt, dass bis Stichtag 30. Juni 2028 von den mehr als 6.000 Einträgen aus der Bestandsaufnahme in Zukunft 20 Prozent Open-Source-Software sein sollen. Positiv zu erwähnen ist auch der Sächsische Digitalpreis, mit dem Open-Source-Lösungen im Freistaat in verschiedenen Kategorien ausgezeichnet werden und somit auch Sichtbarkeit, Bewusstsein und Anreize für das Thema Open Source schaffen. Geschafft in der letzten Regierungsperiode wurde leider nicht das E-Government-Gesetz, das den digitalen Austausch innerhalb der Behörden hätte regeln sollen.

Da in der öffentlichen Verwaltung immer mehr Daten anfallen, überlegen Bund und Länder, die diese bisher üblicherweise in selbst betriebenen Rechenzentren ablegen, doch auf Cloud-Systeme kommerzieller Anbieter zu wechseln, da diese versprechen, dass Behörden und Ämter mit ihnen erheblich Kosten einsparen könnten, da sie nur dafür bezahlen müssten, was sie am Ende auch tatsächlich nutzen. Dennoch haben einige Bundesländer erhebliche Bedenken, ob das wirklich stimmt, und kritisieren die Entscheidung des Bundes-CIO Markus Richter, der SAP-Tochter Delos-Cloud-Lösung, die auf Microsoft Azure und Microsoft 365 basiert, in der Verwaltungscloud-Strategie des Bundes so viel Raum einzuräumen. Aus ihrer Sicht widerspricht dieser sich abzeichnende Vendor-Lockin dem Ziel, die digitale Souveränität zu stärken.

KI

Die KI-Ideenwerkstatt für Umweltschutz ist vor zwei Jahren gestartet, über das Thema Künstliche Intelligenz (KI) zu informieren und aufzuzeigen, wie sie für alle zugänglich wird und wie man sie gemeinwohlorientiert und umweltgerecht gestalten kann. Auf dem Eröffnungspanel zur Jubiläumsveranstaltung führte unter anderem Friederike Hildebrandt von Bits und Bäume aus, dass “das beste Mittel gegen Techkonzerne und Machtmonopole, Communities sind”. Sie erschaffen die Alternativen. Für Rainer Rehak vom [Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF e.V.)] müssen schon die Entscheidungen, was wir mit KI überhaupt machen wollen, immer wieder neu reflektiert werden. Thorsten Kluß von der KI-Ideenwerkstatt findet dafür den Ansatz von Extreme Citizen Science, also Bürgerwissenschaftler schon beim Formulieren der Forschungsfrage miteinzubeziehen, sehr geeignet.

Auch in der Wikipedia-Community wird lebhaft über den Einsatz von KI diskutiert. So ist für den Wikipedianer Wortulo das Einstellen von Artikeln in die Wikipedia, “die komplett mit KI erzeugt wurden, ist ein No-Go”. Jemand, der kein Experte auf dem Gebiet, müsste jede Aussage einzeln nachprüfen, Einzelnachweise müssten eh manuell nachgepflegt werden und dann ist aus Qualitätssicht besser, den Artikeltext gleich ganz selbst zu schreiben. Anders ist die Lage, wenn es um die sprachliche Verbesserung von Artikeln geht: in den Augen von Salino01, z.B. Tools wie Wortliga helfen, mit “KI Texte sprachlich zu vereinfachen, stilistisch zu verbessern und Rechtschreib-, bzw. Grammatikfehler zu entfernen”. Ein weiterer Anwendungsfall kann die Unterstützung natürlichsprachig formulierter Suchanfragen sein, wie sie der Wiki-Bot bereits anbietet. Wichtig für die Wikipedianer ist in jedem Fall, dass ihr Ehrenamt als ein sinnstiftendes Hobby erhalten bleibt, und nicht beim z.B. Bekämpfen von KI-basierten Vandalismus verbrannt wird.

Reproduzierbarkeit ist ein zentrales Kriterium für Open-Source-Software. Damit könnten man KI-Modelle, zu denen die Trainingsdaten nicht mit veröffentlicht werden, nach Ansicht von Jürger Geuter, lediglich als Freeware klassifizieren. Denn gerade die Trainingsmodelle bilden einen entscheidenden Wettbewerbsvorteil. Damit stellt sich auch die Frage, welche Ziele denn durch die Definition von Open-Source-KI überhaupt angestrebt werden. Allein technische Standards und Anwendungen zu etablieren oder auch für mehr Wettbewerb und Fortschritt, indem wichtige Erkenntnisse mit allen geteilt werden müssen, statt sie in Monopolen konzentriert zu lassen, wie es Zuzanna Warso, Forschungsdirektorin der gemeinnützigen Organisation Open Future fordert. Die Diskussion über die Open-Source-KI-Defintion geht also erstmal weiter.

Zur Klärung des Rechtsstreit zwischen OpenAI und der New York Times und anderen großen Zeitungen über das Einbeziehen urheberrechtlicher Inhalte, durften Rechtsvertreter der Kläger bereits 150 Stunden damit verbringen, auf zwei von OpenAI eigens bereitgestellten virtuellen Maschinen Trainingsdaten zu durchsuchen. Auf einer der Maschinen wurde bereits durchsuchte Daten angeblich durch einen versehentlichen Fehler von OpenAI gelöscht und konnten nur unvollständig wiederhergestellt werden.

Auch wenn die Europäische KI-Verordnung seit Mitte des Jahres vorliegt, sind ihre Vorschriften doch sehr vage gehalten. Das Gesetz sieht aber eine Norm vor, die gerade erarbeitet wird. Bis Ende April 2025 soll ein Abschlussbericht vorliegen. Neben dieser Norm soll es noch sogenannte “Praxisleitfäden”, z.B. für ChatGPT, geben, die die schwammigen Vorgaben der Verordnung in konkrete Regel überführen sollen. Wie bei Netzpolitik weiter nachzulesen ist, nahmen bei der ersten Plenarsitzung zur Erarbeitung eines ersten solchen Leitfadens beinahe 1.000 Interessierte teil. Völlig unklar, wie diese sich innerhalb von fünf Monaten einigen sollen. Insgesamt wird der gesamte Prozess zur Erarbeitung als zu intransparent wahrgenommen, zumal die Verordnung selbst keine Prozessvorgaben enthält. “Laura Lazaro Cabrera vom Center for Democracy and Technology, würde jedenfalls “gerne sehen, dass die Vorsitzenden transparent machen, worüber in den Treffen mit den Anbietern gesprochen wurde”.

China hat nun mit DeepSeek-R1 nun ein eigenes KI-Sprachmodell am Start. Wie OpenAIs o1 unterstützt es Reasoning und soll damit akkurater Antworten liefern. Es soll auch Open Source gestellt werden, also eher Freeware, siehe die Diskussion oben. Erste Tests bei heise offenbarten aber auch Schwächen. Zudem wurden Fragen zur Weltpolitik, wenn denn Antworten nicht ganz verweigert wurden, aus klar chinesischer Perspektive beantwortet.

Wobei das vielleicht gar nicht so schlimm ist, denn wie Joan Westenberg auf ihrem Blog ausführt, nimmt das Leseverständnis und generell die Fähigkeit zu kritischem Denken über alle Generationen hinweg stetig ab (man nennt es auch Brainrot). Dann fallen uns solche Inkonsistenzen und Einseitigkeiten in den Antworten der Chatbots eh nicht mehr auf.

Derweil berichteten Datenarbeiter:innen erstmals bei einer Anhörung vor dem Europäischen Parlament in Brüssel über die prekären und ausbeuterischen Arbeitsbedingungen, denen sie in der KI-Branche ausgesetzt sind. Schöne Neue Welt.

Recap

Die Online-Konferenz “The Tech We Want” fand zwischen 17. und 18. Oktober statt, auf der 43 Vortragende aus 23 Ländern mit über 700 registrierten Teilnehmenden diskutieren konnten, wie man Software praktisch so baut, dass sie nützlich, verständlich, langlebig auf das Lösen relevanter Probleme abzielt. Nun ist die Nachdokumentation der einzelnen Panels verfügbar:

In der Aufzeichnung des Netzpolitischen Abends vom 5. November ist u.a. Max Banks (LobbyControl) Vortrag über das Lobbynetzwerk von Bigtech enthalten.

Auf dem Hackathon hack4GDI_DE an der Hochschule Mainz sind spannende Geodaten-Lösungen zu Radmobilität und Stadtklima entstanden.

Die Vorträge der SWIB-Konferenz (Einsatz von Semantic Web in Bibliotheken) sind in dieser Youtube-Playlist gesammelt.

Sonstiges

Popkultur als Datenvisualisierungen zeigt “The Pudding”.

Auch vom eGovernment Podcast gibt es eine neue Monatsrückschau.

Call for Participation

Veranstaltungen