Digitalstrategie Deutschland
Der Beirat Digitalstrategie Deutschland waren in den vergangenen zwei Jahren damit beauftragt, die 19 Leuchtturmprojekte der Digitalstrategie Deutschland zu begleiten. Sein nun erschienene Abschlussbericht geht allerdings mit der Digitalpolitik der Bundesregierung hart ins Gericht. So war aus Sicht der Beiratsmitglieder schon der gewählte Leuchttürme-Ansatz falsch, da er davon ablenkt hat, überhaupt einmal eine übergreifende Vision und eine damit verbundene Gesamtstrategie zu formulieren. Erst aus einer solchen ließe sich eine operativer Umsetzung (in Form von Projekte oder Daueraufgaben) ableiten. Diese Maßnahmen können dann im Sinne der Strategie priorisiert und miteinander verzahnt geplant werden.
“Sind die Ziele noch im Blick?” fragte sich Dr. Henriette Litta, als sie als Geschäftsführerin der Open Knowledge Foundation Deutschland (OKFN) für die Zivilgesellschaft im Beirat saß und auch der Abschlussbericht konstatiert für die Leuchtturmprojekte, dass bei ihnen oftmals die klar definierten Wirkungsziele gefehlt haben, also bis wann für welche Zielgruppe welcher gesellschaftlicher Mehrwert erzielt werden soll. Seine Erreichung und damit der Projekterfolg lassen sich schließlich erst an Hand quantifizierbarer Kriterien (also erhobenen validen Daten) bestimmen. Misst man diese Metriken fortlaufend im Projekts, können frühzeitig Ziele und Umsetzung korrigiert werden. Deswegen sollten beispielsweise mit Zielgruppen (Stakeholdern), nachdem man sie klar definiert und priorisiert hat, regelmäßig Nutzertests mit dem aktuellen Entwicklungsstand durchgeführt werden.
Der Beirat kritisiert ebenfalls, dass finanzielle Mittel hauptsächliche für Projekte vergeben werden. Es scheint hier immer noch die falsche Annahme vorzuliegen, dass das dann “fertige” Produkt keiner weiteren Finanzierung bedarf. Software-Entwicklung und -Betrieb wird immer noch zu sehr mit dem starren Bau einer Brücke verglichen, statt mit der flexiblen Zellregeneration, bei der sich Zellen ständig erneuern und ggf. sich durch geänderte Anforderungen auch funktionell umprogrammieren können. Übertragen auf die Digitalstrategie heißt das, dass es für eine langfristige Ressourcenplanung auch geeignete Betriebsmodelle, Vergabemodelle und Rechtsformen braucht.
Eine weitere Baustelle bleibt der Datenaustausch zwischen den öffentlichen Stellen. Dieser sollte aus Sicht des Berichts durch gemeinsame Standards (im Bericht wird hier auf das Data Space Rule Book verwiesen) sowie durch Kompetenzaufbau zu Daten und Datenökosystemen, z.B. in Datenlaboren, verbessert werden.
Übergreifende Herausforderungen bleiben immer noch fehlende “zuverlässige, ressortübergreifende Kollaborationsplattformen”, die Doppelentwicklung von Services, Standards und Tools, da schon existierende Angebote entweder unbekannt, schwer zugänglich oder kompliziert sind. Hier wird vom Beirat ein “zentraler, nutzerfreundlicher Werkzeugkasten” vorgeschlagen, in dem relevante Ressourcen (z.B. Projekte mit Ansprechpersonen, Leitfäden, Mustervorlagen, Schulungsunterlagen, ressortübergreifende Tools und deren Zugänge) kuratiert sind.
Laut dem im Netzpolitik-Artikel zitierten Beiratsmitglied Alexander Rabe habe generell “eine koordinierte Steuerung gefehlt”, so lief das teils große Engagement in den einzelnen Ministerien ins Leere. Die Parteien der Ampel-Koalition hatten sich erst nach sieben Monaten im Amt auf eine hochgradig komplexe und kleinteilige Aufteilung der Zuständigkeiten für Digitalvorhaben geeinigt. Der nächsten Regierung empfiehlt der Beirat daher eine mit eigenen Digitalbudget ausgestattete “steuernde, zentrale Instanz”. Ob das unbedingt ein eigenes Digitalministerium sein muss, darüber gingen die Meinungen im Beirat auseinander.
Auch die OKF hat digitalpolitische Forderungen zur Bundestagswahl 2025 formuliert. Im Forderungskatalog werden unter anderem konkret das immer noch fehlende Bundes-Transparenzgesetz und der fehlende Rechtsanspruch auf Open Data, der Teil des E-Government-Gesetzes sein sollte, angesprochen. Des Weiteren braucht es mehr partizipative Formate und Prozesse, um engagierte Menschen vor Ort einzubinden. Generell sollte auf weniger Projektförderung und mehr Strukturförderung gesetzt werden. Dazu gehört auch die Stärkung des digitalen Ehrenamts. Dadurch wird auch die Expertise der Zivilgesellschaft zugänglicher, z.B. als Teil von Open-Source-Communities bei der Förderung von Open-Source-Ökosystemen und helfen Digitalkompetenzen in (kommunalen) Verwaltungen aufzubauen, die diese auch brauchen, um die digitalen Transformation ihrer Strukturen vollziehen zu können.
Stefan Heumann, für Agora Digital Transformation ebenfalls Teil des Beirats, stört sich auf LinkedIn an der Phrase ]“Wir haben kein Erkenntnis- sondern ein Umsetzungsproblem”. Die Kommentare und auch DrüKos thematisieren dazu aber auch die real existierenden strukturellen Probleme, Fehlanreize, Beratungsresistenz, aber auch fehlende Leadership, also Mandat und Mut, zum einen Entscheidungen zu treffen, die die Privilegien derer beschneiden, die aktuell von den kaputten Strukturen profitieren, als auch durch gute Kommunikation und Organisation die Angst vor Veränderung zu nehmen. Und der Weg von Erkenntnis zur Umsetzung ist kein Wasserfall, manche Erkenntnis lässt erst durch Umsetzung(-sversuche) erlangen. Durch iteratives Durchlaufen solcher Rückkopplungsschleifen steigern im besten Fall Erkenntnis und verbessern die Umsetzung. Setzt natürlich (Teil-)Organisationsstrukturen voraus, in denen eine solche Agilität gelebt werden kann und in denen der Postenproporz kaum eine Rolle spielt.
Eine Studie (pdf) der Friedrich-Naumann-Stiftung hat Digital-Lotsen-Programme analysiert und sieht sie als “weiches Management-Instrument”, um die digitale Transformationen in den Behörden zu begleiten.
Digitale Souveränität
In der öffentliche Anhörung “Open Source” im Ausschuss für Digitales des Deutschen Bundestages ging es am 4. Dezember um Open-Source-Projekte in der öffentlichen IT und welche Potenziale der Staat hier noch heben kann. Denn die laufende Rahmenverträge mit großen IT-Firmen belaufen sich derzeit noch auf 13,6 Milliarden Euro, wohingegen die geplanten 34 Millionen Euro für das ZenDiS noch nicht final beschieden sind. Dabei waren sich im Großen und Ganzen die Beteiligten über die Vorteile von Open-Source einig (Verringerung der Abhängigkeit zu Herstellern proprietären Software, offene Software kann von allen verwendet, verstanden, verbreitet (bzw. nachgenutzt), an konkrete Bedürfnisse angepasst, interoperabel gemacht und verbessert werden).
Allerdings auch mit Blick auf diese Zahlen besteht für die Gesellschaft für Informatik (GI) weiterhin die “Gefahr, dass Deutschland zu einer digitalen Kolonie wird”, denn aus ihrer Sicht hat die Abhängigkeit von digitalen Monopolen deutlich zugenommen und mit dem Nicht-Erreichen der einst gesetzten Ziele der Ampel-Koalition hinsichtlich Open-Source und Digitale Souveränität (also nicht wirtschaftlich und geopolitisch erpressbar zu sein) auch Glaubwürdigkeit verloren.
Digitale Souveränität ist ein Anliegen sowohl des Sovereign Cloud Stack (SCS) als auch der GovStack-Initiative. In der Arbeitsgruppe “Cloud-Infrastruktur” durfte der SCS an der Spezifikation des GovStack-Building Block-Frameworks mitwirken, die nun veröffentlicht wurde. Die SCS-Software genügt dabei bereits den geforderten Pflichtanforderungen der Spec und gilt somit als eine Referenzimplementierung.
Den Streisand-Effekt konnte man als Reaktion auf die Forderung von Elon Musk, nicht für die Wikipedia zu spenden, weil sie ihm zu woke ist, bewundern: wie der Spiegel berichtet ist das Spendenaufkommen mit Verweis auf die Wikimedia Foundation Fundraising Data sowie des Wikimedia Deutschland Spendentickers in den Tagen nach dem Aufruf merklich gestiegen ist. Wie Ralf Stockmann so schön sagte: “Jetzt können wir alle einmal durchatmen, dass Musk nicht einfach die Wikipedia kaufen kann”.
Um die Stabilität, Erweiterung und Modernisierung der Kernsoftware von OpenStreetMap für mindestens zwei Jahre absichern zu helfen, investiert der Sovereign Tech Fund 384 Tausend Euro.
Open Source
In Folge 115 des Captain it’s Wednesday (CIW) Poadcasts erklärt Patricia Leu das Förderprojekt Prototype Fund, was es mit dem New Prototype Fund auf sich hat und wie sich der Prototype Fund vom Sovereign Tech Fund unterscheidet. Auch beim Netzpolitischen Abend war die Neuauflage des Prototype Funds Thema. Im monatlichen Open Knowledge Network Call Ende November wurde der Prototype Fund ebenfalls vorgestellt, diesmal jedoch von Marie Kreil, im gleichen Call kam auch Verena Kontschieder vom Schweizer Prototype Fund zu Wort.
Eine neue Runde gibt es auch beim Prototype Fund Hardware, in der zweiten Runde sind diese sechs Teams dabei.
Durch zunehmende autoritäre, isolationistische Tendenzen in einigen Staaten droht das Internet in Teilnetze, sogenannte Splinternets, zu zerfallen. Wie man auch technologisch diesem Phänomen begegnen könnte, wird seit einem Jahr auf SplinterCons diskutiert. Die letzte Konferenz fand vom 9. bis zum 11. Dezember 2024 in Berlin statt. Der Prototyp Fund war dabei und hat seine Eindrücke aufgeschrieben. Denn auch hier kann offene Software helfen, um z.B. den Bewohnern solcher Länder zu ermöglichen, die Zensurversuche ihrer Regierungen zu umgehen und sich so ihre digitale Souveränität zu erhalten.
Datenzugang in der Verwaltung
Das Grundgesetz verbietet eigentlich Mischverwaltung, d.h. die Bundes- und Landesverwaltungen müssen eigenständig arbeiten und auch die Verwaltungszuständigkeiten sind voneinander getrennt zu halten. Über den auf der letzten Ministerpräsidentenkonferenz beschlossenen Staatsvertrag soll nun aber eine IT-Infrastruktur aufgebaut werden, in der alle öffentlichen Stellen, unabhängig welchem Ressort und welcher Verwaltungsebene sie angehören, Daten untereinander austauschen können. Mit diesem Nationalen Once-Only-Technical-System (NOOTS) soll die Registermodernisierung und Verwaltungsdigitalisierung angeschoben werden, da Bürger und Verwaltung Daten nur ein einziges Mal übermitteln müssen und nicht bei einer anderen Verwaltungsebene erneut angeben müssen, sofern sie es der jeweiligen Behörde erlauben, die Daten in den Registern abzufragen.
In der Nationalen Bildungsplattform, die nun “Mein Bildungsraum” heißt, sollten einst Lehrmaterialien und ganze Kurse liegen, man sollte eine Zeugnisse aus Schule, Uni und beruflicher Weiterbildung dort verwalten können. Inzwischen ist die Agentur für Sprunginnovationen in Leipzig (SPRIND) für die Plattform zuständig und diese konzentriert sich allein auf die “Zertifizierung und Verwaltung von Bildungsnachweisen und Daten”. In einem MDR-Artikel wird dies kritisch gesehen, zum einen, weil die eigentliche Idee einer Bildungsplattform beerdigt scheint, zum anderen weil eine GmbH des Bundes eine Lösung für digitale Zeugnisse entwickeln soll, obwohl das Land Sachsen-Anhalt bereits im Rahmen des Online-Zugangsgesetzes (OZG) aktiv an einer Lösung arbeitet.
Damit ist schonmal klar, dass das BMBF den Ko-Pionier-Preis nicht gewinnen wird. Mit diesem Preis werden im kommenden März erstmals Verwaltungen ausgezeichnet, die bestehende Lösungen aus anderen Verwaltungen nachnutzen.
Open Access
Wie man ganz leicht freie Lern- und Lehrmaterialien (Open Educational Resources (OER)) mit Github, Github Pages und Jupyter Books erstellen kann, zeigen Felix Körber, Michael Ernst, Peer Herholz, Jannika Hollmann in ihrer Kurs “Creating & sharing interactive learning materials”.
Wie sich offene Kultur-Erbe-Daten sowohl institutionsintern als auch extern nachnutzen lassen und wie GLAM-Institutionen die Nachnutzung generell erleichtern und fördern können, diskutiert der Vortrag von Alexander Winkler vom digiS.
Der erste Tag im Jahr ist gleichzeitig auch der Tag der Gemeinfreiheit (Public Domain Day). Gefeiert wird der Umstand, dass 70 Jahre nach dem Tod einer Person zum Jahresende das Urheberrecht an ihren Werken erlischt und damit gemeinfrei wird. Zu Beginn dieses Jahres sind das unter anderem Werke von Frida Kahlo und Henri Matisse, die beide 1954 verstorben sind.
“Amtliche Dokumente müssen frei sein”, findet FragDenStaat und veröffentlicht mit Verkehrsblatt, Steuerblatt, und Nachrichten für Luftfahrer weitere Amtsblätter des Bundes, die bisher nur kostenpflichtig zugänglich waren.
Offene Parlamentsdaten
Wie Dénes Jäger, Open-Data-Koordinator bei der OKF, überrascht festgestellt hat, wurde offensichtlich der Parlamentsspiegel aktualisiert und ermöglicht nun tatsächlich den Zugang zu Dokumenten aus den Landesparlamenten. Wunder geschehen.
Auch in der Schweiz ist ein standardisierter Zugang zu Parlamentsdaten ein Thema: Opendata.ch arbeitet an einer einer solchen API und lädt zur Mitarbeit ein.
Open Data
Dass inzwischen mehr wissenschaftliche Arbeiten offen statt mit Zugangsbeschränkungen veröffentlicht werden, ist eine der Haupterkenntnisse des The State of Open Data 2024 Special Reports.
Dass es aber rechtlich riskant sein kann, Wissen im Netz frei zur Verfügung zu stellen, zeigen drei Fälle aus der Rechtsgeschichte von Wikipedia.
Anlässlich des 200-ten veröffentlichten Datensatz auf dem Open-Data-Portal Münster reflektiert das Portal über die letzten fünf Jahre Open-Data-Initiative in Münster, wie z.B. die zum Zeitpunkt der Veröffentlichung deutschlandweit einzigartigen Energieverbrauchsdaten städtischer Gebäude oder die Live-Positionen aller Stadtwerke-Busse, blickt aber auch in die Zukunft, in der sie verstärkt auch Visualisierungen zu ihren Datensätzen anbieten möchte.
Vielleicht ist für sie auch das Projekt Startercode interessant, das sein Ursprung 2023 im Kanton Zürich fand, inzwischen auch von Kanton Thurgau, Basel, opendata.swiss und München adaptiert wurde und nun von Tim Fangmeyer für Berlin umgesetzt wurde, wie er auf LinkedIn beschreibt. Mit der Integration kann man direkt aus dem Datenkatalog-Eintrag des jeweiligen Open-Data-Portals mit der Datenanalyse starten, da eine entsprechende Code-Vorlage schon den notwendigen Rahmen vorgibt.
Auch die Stadt Wien ist an einem niederschwelligen Zugang zu ihren offenen Verwaltungsdaten (Open Government Data (OGD)) interessiert, sei es für Schüler:innen im Unterricht oder auch für Hackathons, und stellt dafür eine Präsentation und Praxisbeispiele mit Klimadaten, dem Baumkataster Wien und den Vornamen der Neugeborenen in Wien mit einem Anleitungsdokument zur Verfügung.
Moritz Hennemann, Direktor am Institut für Medien- und Informationsrecht der Universität Freiburg, plädiert dafür, künftig Einzelgesetze in einem Datengesetzbuch zu bündeln, um so den “Datenrechtsdschungel entflechten”.
Statistiken zu Notrufe in Berlin wie z.B. die Reaktionszeiten regional aufgeschlüsselt findet man neuerdings auf Berlin Emergency Response Tracker.
Sucht und Drogen haben eine erhebliche gesellschaftliche Relevanz. Belastbare Daten liefert das Datenportal des Bundesdrogenbeauftragten, aber auch der jüngst veröffentlichte REITOX-Jahresbericht für Deutschland 2024 (konkret REITOX Bericht Drogen (pdf)) der Deutsche Beobachtungsstelle für Drogen und Drogensucht (DBDD) bietet Einblicke in den Drogenkonsum in Deutschland, z.B. dass der Trend zu einem steigenden Konsum von Kokain geht. Zumindestens scheint die Opioidkrise nicht auf Deutschland (noch nicht) überzugreifen.
Datenvisualisierungen
Die Popularität von Vornamen in den USA bzw. in Frankreich über die vergangenen Jahrzehnten kann man sich in Karim Douiebs Baby Name Trend kreativ visualisieren lassen.
In welchen Ländern DIN A4 und wo das US-Letter-Format verwendet wird, zeigt die folgende Karte.
Rakibul Haque hat einen Netzwerkgraphen aus Begriffen aufgespannt, die in Artikeln auf tagesschau.de von Anfang 2023 bis Ende 2024 vorkamen. Die Größe der Knoten ergibt sich dabei aus der Häufigkeit der Worte und sobald zwei Worte in einem Artikel vorkommen, wird eine Verbindungslinie zwischen ihnen gezogen. In diesem Modus kann man auch interaktiv nach Schlagworten suchen und zwischen den Relationen navigieren.
Statistiken
Am 5. Dezember war der jährliche Tag des Ehrenamts und passend dazu wurden ein Tag zuvor die aktuellen Zahlen zu den Bundesfreiwilligendienstleistenden auf dieser Seite des Bundesfamilienministeriums veröffentlicht. Sie wurden gleich aufgeschlüsselt nach Jahren und Bundesländern mit Datenwrapper visualisiert, die Daten enthalten weitere Ausdifferenzierungen nach Geschlecht und Alter.
Gleichzeitig wurde auch die Ehrenamtsstrategie des Bundes (pdf) veröffentlich, in der erstmals auch das Digitale Ehrenamt erwähnt und als eigene Form des Engagements anerkannt wird. Bei Wikimedia findet man jedoch, dass auch konkrete Maßnahmen zu dessen Förderung hätten ausformuliert werden müssen.
In einer Studie hat der Paritätische Wohlfahrtsverband neu errechnet, dass, wenn man die Wohnkosten berücksichtigt, viel mehr Menschen als bisher angenommen armutsgefährdet sind.
Wahlatlas macht darauf aufmerksam, dass weitere 150 Tabellen in die Datenbank zum Zensus 2022 Eingang gefunden haben. Aus diesen lässt sich beispielsweise ablesen, dass fast die Hälfte aller Neubauten mit einer Zentralheizung erneuerbare Energiequellen nutzen.
Energie
Wie kann man errechnen, ob sich eine Solaranlage für das eigene Dach oder den Balkon lohnt? Dies zeigt der folgende Vortrag auf dem Kongress an Han der Seite OpenPV, die für diese Berechnung offene 3D-Gebäudedaten nutzt.
Denn erneuerbarer Storm ist generell auf dem Vormarsch: so kamen 2024 fast 63% des Stroms in Deutschland aus regenerativen Quellen.
Der Strompreis für den Großteil der Industriebetriebe lag dabei mit knapp 17 Cent pro Kilowattstunde in diesem Jahr so niedrig wie zuletzt 2017, wie die aktuelle Strompreisanalyse des BDEW ergeben hat. Malte Kreutzfeldt hat das noch weiter eingeordnet.
Von ihm wurde auch erklärt, warum am 6.11. und am 12.12. die Strompreise an der Börse kurzzeitig extrem hoch waren und trotzdem die Bundesnetzagentur mit ihrer Aussage “Die sichere Stromversorgung war zu keinem Zeitpunkt gefährdet” recht hat. Seine Quellen hat er nochmal hier zusammengetragen.
Klima
Der CO2-Emissionsrechner “E-Tool Kultur”, ein Kooperationsprojekt der Städte Leipzig und Dresden gehört zu den Preisträgern des “eku-Zukunftspreis 2024 für Energie, Klima, Umwelt”. Der Rechner wurde speziell für den Kulturbetrieb entwickelt und steht nun allen Kultureinrichtungen und -veranstaltern im Bundesgebiet dauerhaft und kostenfrei zur Verfügung.
Mit der Deutschen Anpassungsstrategie an den Klimawandel 2024, die das Bundeskabinett im Dezember beschlossen hat, gibt es nun erstmals messbare Ziele für die Vorsorge vor Klimafolgen.
Welche positiven Effekte man erzielen kann, wenn man die richtigen Maßnahmen ergreift und konsequent durchzieht, sieht man an Paris, wie dieser Mastodon-Nutzer mit Verweis auf die Analyse vom Anfang des letzten Jahres erinnert.
Trotzdem lassen sich europaweit immer noch fast 240 Tausend Todesfälle auf eine zu hohe Feinstaubbelastung in der Luft zurückführen, wie aus dem Bericht der Europäische Umweltagentur EEA hervorgeht. Des Weiteren konnte man für 2022 70 Tausend Tote auf die Ozonbelastung und 48 Tausend Tote auf die Belastung von Stickstoffdioxid zuordnen.
Auf Thru.de, dem zentralen deutschen Portal für transparente und frei zugängliche Emissions- und Abfalldaten, kann man unter anderem recherchieren, welche und wie viele Schadstoffe Betriebe, Kläranlagen oder der Verkehr in die Umwelt freisetzen.
Und doch versuchen sich vor allem Ölkonzerne weiterhin aus ihrer Verantwortung zu stehlen und gar zu betrügen, indem sie Klimaprojekte vortäuschen, um so vermeintlich doch ihre Klimaziele zu erreichen, wie ZDF Frontal aufgedeckt hat.
Wie Denkfabriken (Thinktanks) systematisch versuchen, Trumps klimafeindliche Pläne auch nach Deutschland zu bringen, legt eine Recherche von correctiv offen.
Auf dem Environmental Justice Atlas werden weltweit sozio-ökologische Konflikte dokumentiert, also Konflikte hinsichtlich Landnutzung (z.B. Waldrodung für Ackerland und/oder Viehzucht), Vermüllung (z.B. durch Übertourismus), Luft- und Wasserverschmutzung (z.B. durch Bergbau), Gesundheitsrisiken durch schlechte Arbeitsbedingungen.
Gesundheit
Die elektronische Patientenakte (ePA) für alle steht weiter in der Kritik. So werden ab Mitte Januar 2025, wenn man nicht aktiv widerspricht (Opt-Out), medizinische Befunde, Medikationslisten und weitere Gesundheitsdaten von rund 73 Millionen Krankenversicherten in Deutschland über Praxis- und Krankenhausgrenzen hinweg in einer zentralen Akte zusammengeführt. Dabei legen Analysen des CCC, die hier im Vortrag vorgestellt werden, noch erhebliche Sicherheitsmängel offen, die zum Teil schon länger bekannt sind.
Nach Stecken der Gesundheitskarte bekommt eine Arztpraxis 90 Tage lang Zugriff, eine Apotheke drei Tage lang Zugriff. Weitere Fragen zur ePA werden hier beantwortet. Ein Patient kann also steuern, ob er einer Praxis oder einer Apotheke den Zugriff generell erlaubt, kann dies aber nicht feingliedrige pro eingestellten Dokument konfigurieren. Da Eltern für ihre Kinder die ePA verwalten, kann das bei Jugendlichen zu Konflikten führen.
Generell ist der Gesundheits(-daten)markt am Wachsen (z.B. Europäischer Gesundheitsdatenraum (EHDS)) und weckt die ein oder andere Begehrlichkeit, wie auch schon im eben verlinkten Artikel angesprochen. Leider nimmt manche Software es mit dem Datenschutz und Datensicherheit nicht allzu genau, wie der Kuketz-Blog an Hand von Doctolib zeigt. Leider gibt es inzwischen Arztpraxen, die Termine nur noch über Doctolib vergeben.
Nichtsdestotrotz kann aber sagen, dass die Gematik relativ offen E-Rezept und ePA entwickelt, der Quellcode findet sich auf Github. Mit dem Fast Healthcare Interoperability Resources (FHIR) wird auch ein einheitlicher Standard genutzt, um alle relevanten Daten in der Domäne modellieren zu können (z.B. Patienten, Medikamentenverschreibung, -austausch, -abgabe, -abrechnung), für den es auch in vielen Programmiersprachen Bibliotheken gibt. Die aktuellen Versionen der FHIR-Profile und Beispiele finden sich auf dem Simplifier Portal. Die FHIR-Daten lassen sich auch als im RDF-Format beschreiben. Inzwischen gibt es auch einen zentraler Terminologieserver, um Kodiersysteme und Werteliste und Mappings als verlässliche Referenzquelle bereitzustellen. In dem Zusammenhang ist vielleicht auch die kuratierte Liste von Open-Source-Software interessant. Auch die Referenzimplementierung des Telematik-Infrastruktur-Messengers (TIM), für den Datenaustausch im Gesundheitswesen gedacht und auf dem Matrix-Protokoll basierend, soll Open-Source werden.
Mobilität
Ein weiteres Datenleck, das auf dem Chaos Communication Congress präsentiert wurde (die Grafiken aus dem Vortrag findet man hier), betrifft den Volkswagen-Konzern. Wegen eines Softwarefehlers standen über Monate hinweg Daten von VW-, Audi-, Skoda- und Seat-Fahrzeugen, insgesamt 800 Tausend Autos, ungeschützt im Netz. Bei 460 Tausend davon waren sogar präzise Standortdaten einsehbar gewesen sein. Aus den Bewegungsprofilen waren Rückschlüsse auf das Leben der Menschen möglich (z.B. Wohnort, Arbeitsort, (intimes) Freizeitverhalten). Daniel Molkentin sieht in diesem Zusammenhang schon den Umstand, dass “ausnahmslos alle Hersteller ganz nebenbei Daten ihrer Fahrer sammeln” als das eigentliche Problem an.
Auch in Hamburg vorgestellt wurde Transitous, ein offener Routingdienst für öffentliche Verkehrsmittel, der europaweit funktionieren soll.
In einer ersten Vorschau von streetcritic.org kann man schon die Funktionalität, Radwege hinzuzufügen und zu bewerten, testen.
Die Statistiken für Sicherheit im Straßenverkehr in der EU wurden für das Jahr 2023 freigegeben, This Lucas hat sie hier im Mastodon-Thread analysiert.
Fedora beschreibt auf ihrem Blog, mit welchen Daten und welchen (Software-)Komponenten sie die Online-Karte erstellt hat, die für Kiel zeigt, “wie viel Platz für den motorisierten Individualverkehr und für Rad- und Fußverkehr zur Verfügung steht”.
Karten
Wer schon immer mal wissen wollte wie kleinteilig die Flurstücke in Schleswig-Holstein sind, kann das mit der neuen interaktiven Flurstücksauskunft des OKLab Flensburg erkunden (ein Klick auf die jeweilige Fläche zeigt die Detailinformationen).
Land Matrix ist eine unabhängige Initiative, die Daten zu großen Grundstückskäufen in Schwellenländern sammelt und teilt, um mehr Transparenz zu solchen Land Grabbing herzustellen.
Mit Any Map Puzzle lässt sich für einen beliebigen Kartenausschnitt ein Schiebe-Puzzle generieren und spielen. Mit dem letzten Update kann nun auch die Zoom-Stufe variiert werden.
KI
Im Projekt Automation on the Move hat AlgorithmWatch 24 von der EU in Auftrag gegebene Forschungsprojekte in einer Datenbank gesammelt und hinsichtlich ihrer Risiken bewertet. Darunter waren auch Systeme zur automatisierten Überwachung der EU-Außengrenzen. Wie bei Netzpolitik nachzulesen ist, hat die griechische Grenzschutzforscherin Lena Karamanidou herausgefunden, dass der griechische Grenzschutz eines der Systeme bereits im operativen Einsatz hat, auch andere Projekte wurden schon produktiv eingesetzt. AlgorithmWatch spricht sich daher gegen die unkontrollierte Nutzung von KI im Migrationskontext aus, da aus ihrer Sicht Risiken (z.B. Personen werden ungerechtfertigt blockiert oder überwacht wegen Falschklassifizierungen in der Software) nur unzureichend in den jeweiligen Forschungsprojekten abgewogen werden.
Im Vortrag “Gemeinwohlorientierte Forschung mit KI: Missbrauch eindämmen durch Zweckbindung für KI-Modelle” stellten Rainer Mühlhoff and Hannah Ruschemeier Fälle vor, in denen KI-Modelle und/oder Daten daraus, ursprünglich für gemeinwohlorientierte Projekte gesammelt, nachträglich für teilweise bedenkliche kommerzielle Ziele eingesetzt wurden. Konkret ging es um ein Unternehmen, das sich an einer Studie beteiligt hatte, in der depressive Menschen unter anderem an Hand von Stimm-Biomarkern erkannt werden sollte. Gleichzeitig bietet aber das Unternehmen Software für den Human-Resource-Bereich an, um eine automatisierte Risikobewertung auf Grund der Stimme durchzuführen, ob ein Bewerber depressiv ist. Die Forscher fordern daher eine “Zweckbindung für KI-Modelle”.
In der Dezember-Folge Podcasts “Statistisch gesehen” (alternativ auch auf Youtube) ging es um die Transkription-Applikation TranscriboZH, die speziell für den Kanton Zürich entwickelt wurde, um den Anforderungen bezüglich Amtsgeheimnis und dem Vermeiden einer cloudbasierten Lösung gerecht zu werden. Die Lösung nutzt maschinelles Lernen, um das gesprochene Wort automatisch zu transkribieren. Im Sinne von “Eating your own dog food” wurde der Podcast selbst mit der Anwendung hier transkribiert (pdf).
“I finally turned off GitHub Copilot yesterday” schreibt David Chisnall auf Mastodon und begründet auch warum, der KI-Assistent ihm am Ende mehr Arbeit gemacht als abgenommen hat. Denn beim Programmieren geht es vor allem darum lesbaren, wartbaren, Bug-freien Code zu schreiben und wie ein Kommentator so schön schrieb, generell aufgeblähten Copy-Paste-Code zu vermeiden, statt solchen Boilerplate-Code sich nun von der Maschine (potenziell falsch) generieren zu lassen.
Recap
Die geförderten Basisdienste für die Nationale Forschungsdateninfrastruktur (Base4NFDI) konnten sich Anfang Dezember auf der Services Roadshow präsentieren, die Mitschnitte sind nun auf Youtube zu finden, wie z.B. die Vorstellung der Knowledge Graph Infrastructure (KGI4NFDI).
Die Highlights der MediaWiki-Konferenz werden auf dieser Seite versammelt.
“Linked Data im Zeitalter der generativen Künstlichen Intelligenz - Neue Perspektiven oder überholte Vision?” war die Leitfrage des Symposiums am Bundesinstitut für Risikobewertung (BfR). Die Präsentationen der beiden Tage sind auf der Veranstaltungsseite verlinkt.
Viele Vorträge auf dem Chaos Communication Congress 38C3 können in der Mediathek nachgeschaut werden (alternativ auch auf Youtube).
Sara Petti schaut auf das vergangene Jahr im Open Knowledge Netzwerk zurück, vor allem, was in den Communities der einzelnen Länder alles passiert ist. Der strategische Fokus der Open Knowledge Foundation für 2025 liegt auf:
- definieren, welche ethischen Werten Technologie folgen soll
- weiter offene Werkzeuge bauen
- Maßnahmen ergreifen, das Engagement der Community langfristig zu erhalten
- mit guten Vorbild vorangehen und offene Technologie bei uns selbst adaptieren
Call for Participation
- Data Reuse Days 2025, bis 12.01.2025 Sessions vorschlagen
- Re:publica 2025, bis 15.01.2025 Einreichungen möglich
Veranstaltungen
- Montag, 13.01.2025, 19:00-22:00, WikiBär Wikipedia, Köpenicker Straße 45, 10179 Berlin: Code for Berlin 📅
- Donnerstag, 16.01.2025, 09:00-18:00, Wilhelm von Humboldt-Saal im Haus Unter den Linden der Staatsbibliothek zu Berlin, Unter den Linden 8, 10117 Berlin und auch online: Initiative News-Infographics-Analytics-Maps (NIAM 2025) 📅
- Mittwoch, 22.01.2025, 09:00-17:00, online: Staat in die Zukunft 📅
- Donnerstag, 23.01.2025, 09:00-12:00, online: Klimaatlas BW – Release Veranstaltung 📅
- Donnerstag, 23.01.2025, 10:00-11:30, online: Indikatoren nachhaltiger urbaner Mobilität 📅
- Montag, 27.01.2025, 11:00-15:00, Ständehaus Merseburg, Oberaltenburg 2, 06217 Merseburg: Feierlicher Launch des Portals umwelt.info 📅
- Dienstag, 28.01.2025, 19:30-21:00, online: OSM-Verkehrswende #65: Kacper Goliński talks about veloplanner.com 📅
- Freitag, 31.01.2025, 09:00-18:00, online: EU Open Source Policy Summit 2025 📅
- Freitag, 31.01.2025, 18:42, bis Sonntag, 02.02.2025, 16:00, WIR-Haus, Wilhelmstraße 189, 42489 Wülfrath: Hack im Pott 📅
- Samstag, 01.02.2025, 09:00, bis Sonntag, 02.02.2025, 17:00, Université libre de Bruxelles (ULB) Solbosch Campus, Avenue Franklin Roosevelt 50, 1050 Brüssel und auch online: Free and Open Source Developers European Meeting (FOSDEM 2025) 📅
- Dienstag, 11.02.2025, 14:00-15:30, online: Offenheit reicht nicht aus – Auf dem Weg zu einer lebendigen Datenkultur 📅
- Regelmäßige OKLab-Treffen
- Flensburg: jeden Mittwoch, 18:00, Aktivitetshuset, Hinterhaus, Norderstraße 49, Flensburg 📅
- Köln: jeden zweiten Montag, 19:00, Hackländerstr. 2 (Wikipedia Lokal K) 📅
- Leipzig: jeden Mittwoch, 19:00, Peterssteinweg 14 (Basislager) 📅
- Münster: jeden Dienstag, 19:30, Wolbeckerstr. 36 (Café Drei:klang) 📅
- Niederrhein: jeden Dienstag, 20:00, online 📅