Moral Ambition statt Moral Hazard – Out in the Open September 2024

Eigene Aufnahme (Parking Day am 20.9. in der Eisenbahnstraße, Leipzig)
07.10.2024 von Jörg Reichert (Code for Leipzig)

OpenData

Am 5. August trafen sich die Vertreter:innen der verschiedenen Länder des weltweiten Open Knowledge Netzwerks. Beim Treffen, das Sara Petti hier im Blog nun dokumentiert hat, ging es darum, wie die Zusammenarbeit innerhalb aber auch darüber hinaus erweitert und strategisch intensiviert werden könnte. Neben den Dauerthemen der immer noch ausbaufähigen Kenntnisse beim Umgang mit Open Data (Tools) und der ungenügenden Fördermittelausstattung ging es auch um Strategien beim Umgang mit Big Tech. Im Rahmen ihrer meist nicht nachhaltigen Geschäftsmodelle kolonisieren diese zunehmend Daten, d.h. sie greifen die freien Daten der Communities gerne für ihre Zwecke ab, tragen aber selbst nichts zur Community bei. Im Gegenteil, es wird Open Washing betrieben, indem sie Openness versuchen im Sinne ihrer Machtinteressen umzudeuten, und die Anliegen von informationeller Selbstbestimmung zu unterlaufen. Nur über gute Geschichten (Story Telling), die unsere Werte transportieren, und die wir nicht müde werden dürfen, immer wieder zu erzählen und gegen die Narrative der Industrie zu positionieren.

“Diskussionsräume öffnen” und sich bewusst einlassen auf eine Reise zu ungeplanten Erkenntnissen in der Welt der offenen Daten ist beispielsweise der Ansatz, den das ODIS in Berlin gewählt hat, um Verwaltung zu überzeugen, auch dann Daten freizustellen, wenn noch kein perfekt ausgearbeiteter Anwendungsfall als Begründung geliefert werden kann.

Mit “Wir wollen, dass offene Daten in hoher Qualität künftig der Normalfall sind und als Nebenprodukt des Verwaltungshandelns weitestgehend automatisch erzeugt werden”, begründete die Digitalisierungsministerin von Rheinland-Pfalz, Dörte Schall, das im Kontext der vorgestellten Open-Data-Strategie ebenfalls neu eingerichtete zentrale Open-Data-Portal in ihrem Bundesland.

Deutlich länger gibt es die Wikimedia Commons, mit über 100 Millionen gemeinfreien und frei lizenzierten Fotos, Audio- und Videodateien das größte freie Medienarchiv der Welt - es wurde am 7. September 20 Jahre alt. Mitgründer Erik Möller blickt im Interview auf die Anfänge zurück.

GUI bono - GovData, seit 2013 Deutschlands nationales Metadatenportal für Open Government Data, hat eine Generalüberholung bekommen. Dem GeoObserver ist gleich aufgefallen, dass dadurch nun auch die hochwertigen Datensätzen (HVD - High Value Dataset) gesondert gekennzeichnet werden und explizit gefiltert werden können.

Statistikdaten

Der neue Anstrich der Haupt-Datenbank des Statistischen Bundesamtes, GENESIS-Online, steht schon einige Zeit als Beta-Version zum Testen bereit, jetzt wurde angekündigt, dass in der zweiten Oktoberhälfte offiziell auf die neue Oberfläche umgeschaltet wird. Mit der Umstellung ändern sich auch einige Datenformate und APIs, diese Änderungen müssen Nutzende bei sich entsprechend nachziehen.

Das Statistisches Bundesamt weist außerdem auf neue Kartendarstellung für Eigentümerquote, Leerstandsquote, Durchschnittsalter und weiteren Themen in ihrem Zensus-Atlas hin. Auch beim NDR hat man die Leerstands-Daten speziell für Norddeutschland in einer interaktiven Karte näher ausgewertet und sich regionale Ungereimtheiten von entsprechenden Experten bzw. Ansässigen einordnen und aufklären lassen.

In der jüngsten Kolumne “Fix my chart” auf dem Datawrapper-Blog wird gezeigt, wie man die Zusammenhänge, die aus vier einzelnen Diagramme nur schwer abzuleiten sind, durch geeignete Farbgebung, Beschriftung und Verschränkung der Skalenverläufe doch anschaulich einordnen kann.

Wahlen

Auch für die Ergebnisse der vergangenen Wahlen gibt es viele grafische Auswertungen und Interpretationsangebote.

Sachsen

Auf der interaktive Karte vom Tagesspiegel sieht man an Hand Farbe und Farbintensität, wo welche Partei besonders stark (oder schwach) abgeschnitten hat. Die Ergebnisse lassen sich nach Erst- oder Zweitstimme und nach Gemeinde- oder Wahlkreis aufgeteilt entweder für die jeweils stärkste Partei oder aber explizit für eine ausgewählte Partei darstellen. Für jede dieser Kombination kann man über den Jahres-Schiebebalken sich die Verteilung in den vergangenen Landtagswahlen betrachten. Hier ist auch der Blick auf die Wahlbeteiligung im jeweiligen Wahljahr nicht unwichtig (z.B. 2014: 49%, 2024: 75%), um auch den Anteil an Nichtwählern nicht außer Acht zu lassen, da diese in der Farbgebung der Karte nicht vorkommen. Bei bestimmten Parteien ist zudem ein klares (Groß-)Stadt-Land-Gefälle zu erkennen.

Der MDR bietet zusätzlich eine Übersicht an, an welche Parteien (inklusive der Gruppe der Nichtwählenden) eine Partei gegenüber der letzten Wahl Stimmen verloren haben bzw. von welchen sie auch Stimmen hinzugewinnen konnte (laut repräsentativer Wählerumfrage). Hier kann man vermuten, dass sich einige Wählerwanderung auch nur aus taktischen Gründen ergeben haben, um zu verhindern, dass eine bestimmte Partei stärkste Kraft wird.

Alle offiziellen Daten dieser und vergangener Landtagswahlen sind auf dem Wahlportal des Freistaats zusammengetragen, für den Download der Rohdaten gibt eine eigene Seite.

Im Kontext der zunächst nicht richtig berechnete Sitzverteilung im sächsischen Landtag durch die Auswahl des falschen Algorithmus in Wahlsoftware, fordert der Chaos-Computerclub (CCC), dass öffentlich gemacht werden sollte, welche Wahl- und Auswertungssoftware zum Einsatz gekommen ist, besser noch sollte der Quellcode offengelegt werden, ebenso Dokumentation und Auditberichte, um so Implementierung und Fehler nachvollziehen zu können. Leider wurde schon die Auskunft nach genutzten Software “aus Gründen der Sicherheit” vom Sächsischen Landeswahlleiter verweigert.

Neben der inzwischen nachgewiesenen Wahlmanipulation in einem Wahlkreis sind solche intransparenten “Berechnungsfehler” nicht förderlich für die Demokratie.

Thüringen

Analog zu Sachsen gibt es vom Tagesspiegel die interaktive Karte und vom MDR die Übersicht zur Wählerwanderung. Die Bewegungsmuster sind trotz unterschiedlicher Regierungspartei sehr ähnlich zu denen in der Wahl in Sachsen. In Thüringen gibt ebenfalls ein Wahldatenportal. Bei den Erststimmen ist das (Mittelgroß-)Stadt-Land-Gefälle hier auch erkennbar. Dafür ist bis auf das Eichsfeld im Nordwesten die Karte bei den Zweitstimmen komplett blau gefärbt. In Sachsen waren wenigsten die Bereiche in und um die Großstädte anders gefärbt.

Brandenburg

In der interaktiven Karte verteilen sich die gewonnenen Wahlkreise sowohl nach Erst- als auch Zweitstimmen etwa hälftig auf SPD und AFD.

Bei der Wählerwanderung kann man analog zu den Wählerzugewinne der CDU in Sachsen, die Zugewinne der SPD hier in Brandenburg zum Teil als taktische Wahlentscheidung vermuten. Die Rohdaten zur Landtagswahl findet man hier zum Download.

Österreich

Die interaktive Karte vom ORF zeigt, dass FPÖ und ÖVP etwa gleichviel Fläche als stärkste Partei gewinnen konnte, nur Wien konnte die SPÖ für sich entscheiden.

Im Sankey-Diagramm des Standards kann man die Balken der Parteien jeweils links (für Stimmverluste an andere Parteien bzw. ans Nichtwahllager) und rechts (für Stimmzugewinne bzw. Stimmerhalt) anklicken. Neben dem deutlichen Stimmgewinnen der FPÖ von ÖVP als auch Nichtwählern fallen generell die Verluste aller Parteien, am stärksten bei der SPÖ, an die Nichtwähler auf.

Alle Details zur Nationalratswahl kann man im österreichischen Open Data Portal herunterladen.

In diesem Kontext ist auch Roland Schmidts Blog werk.statt.codes interessant, der schon seit einige Jahren Parlamentsdaten analysiert. Im Beitrag vom September geht es um die Ordnungsrufe österreichisches Parlament, also geahnte Verstöße gegen die “Würde des hohen Hauses” durch Beleidigungen, rassistische Sprache und ähnliches. Die FPÖ und ihre Vertreter führen hier in allen Statistiken, bei den Wahlen hat es ihnen bezeichnenderweise am Ende nicht geschadet.

Einordnung

Der Rechtsruck setzt sich weiter fort. Nicht nur in Ostdeutschland, wie manche Kommentare sich es leicht machen, sondern europaweit, eigentlich, mit Blick auf die USA, weltweit. Ursachen sind begründete oder weniger begründete Ängste vor Abstieg, Wohlstandsverlusten (bzw. fehlenden Aufstiegschancen) und Veränderungen generell.

Multiple Krisen (Klimakrise, Kriege, Migration, marode Infrastruktur, Investitionsstau, Strukturwandel, Wandel der Arbeitswelt) überfordern und Menschen (und eben auch die Politik) entwickeln Strategien sich (psychisch) selbst zu schützen, indem sie verdängen, Schuldige / Sündenböcke suchen und/oder in Aktionismus verfallen.

Gerade aber die Politik sollte bessere Strategien finden. Für Stefan Brink liegt es an den fehlende Überzeugungen der Politiker bzw. dem fehlenden Rückgrat seine Überzeugungen zu vertreten. Man kürzt bei jenen, die eh schon wenig haben, von denen man aber auch nur geringen Widerstand erwartet, und ist zu feige , sich mit den bestehenden Machtstrukturen und Besitzstandswahrern anzulegen (und z.B. eine Vermögenssteuer einzuführen). Carla Sippmann ermahnt, die Ursache nicht allein in der Desinformation durch (Sozialen) Medien und Populisten zu sehen, sondern endlich ihre Wähler wahr- und ernstzunehmen, ohne ihnen dabei nach dem Mund zu reden. Politik(-er)verdrossenheit und die Vertrauenskrise ist hausgemacht.

Medien

Geleakte interne Dokumente der kremlnahen Agentur SDA zeigen, mit welchem Aufwand Russland versucht, durch gezielte Desinformationskampagnen westliche Demokratien zu destabilisieren, indem z.B. Zukunftsängste geschürt werden.

Der am 26. September 2024 zur öffentlichen Anhörung freigegebene Staatsvertragsentwurf zur Reform des öffentlich-rechtlichen Rundfunks sorgt für einige Diskussionen. So soll die Sparten- und Hörfunkangebote deutlich reduziert werden, dabei sollen auch die Kultursender arte und 3sat zusammengelegt werden, obwohl diese unterschiedliche Konzepte (deutsch-französisch vs. D-A-CH-Region) verfolgen. Der Nutzer scammo hat dies zum Anlass genommen, die Kosten von 3sat und der Geschäftsleitung der ARD-Anstalten gegenüber zu stellen. Die Kosten für Gagen und Produktionsfirmen von z.B. Politik-Talkshows werden dagegen nicht hinterfragt. Da könnten auch einige “zusammengelegt” werden, zumal sie eh wenig Vielfalt in Themen- und Gästewahl bieten. Auch ein weiteres Problem bleibt ungelöst: das Verbot der Presseähnlichkeit, das Verlage vor vermeintlich unzulässigen Wettbewerb durch die frei zugänglichen Online-Inhalte der Öffentlich-Rechtlichen schützen soll, soll erhalten bleiben und sogar gestärkt werden, aus Sicht von Leonhard Dobusch von Netzpolitik einfach nur ein absolutes “Retro-Konzept”. Noch bis 11. Oktober können Sendeanstalten, Verbände, aber auch alle Bürgerinnen und Bürger über das hier verlinkte Kontaktformular Anmerkungen zur geplanten Reform hinterlassen.

Transparenz

In einem Jahr, am 28.09.2025, ist Bundestagswahl. Laut dem Koalitionstracker, ein gemeinsames Projekt von FragDenStaat und Wikimedia, sind gerade mal 23% der 271 im Koalitionsvertrag formulierten Vorhaben vollständig umgesetzt, 11% unvollständig, 32% sind noch in Arbeit, hier weiß man allerdings nicht, wie viele davon wirklich kurz vor der Fertigstellung stehen. Auch die Relevanz von umgesetzten und noch offenen Vorhaben sollte man sich im Detail jeweils anschauen.

Mit der Umsetzung von Transparenz scheitert man in Sachsen schon beim Transparenzgesetz selbst: die per IFG-Anfrage angeforderte Akte “Umsetzung des Transparenzgesetzes” lieferte das Innenministerium nahezu geschwärzt. In den 180 Seiten war einzig die ursprüngliche IFG-Anfrage, die auch in der Akte vermerkt wurde, noch lesbar. Um das Beste aus dieser Dreistigkeit zu machen, gibt es diese Akte nun gegen Spende als limitierten Kunstdruck.

Noch dreister ist der Versuch, durch Absenken der Aufbewahrungsfristen für Buchungsbelege und Rechnungen auf 8 Jahre, das Vernichten von Beweismitteln in der CumCum- und CumEx-Steueraffäre quasi zu legalisieren. Dabei verjährt schwere Steuerhinterziehung erst nach 15 Jahren. Von den geschätzten 28,5 Milliarden Euro wurden bisher nur ein Bruchteil zurückgeholt. Das Zurückholen der restlichen Milliardengewinne aus den illegalen CumCum-Geschäften würden durch das Inkrafttreten des Gesetzes unmöglich gemacht. Nun kann das Gesetz nur noch im Bundesrat gestoppt werden: eine entsprechende Petition wurde von Finanzwende initiiert.

Auch die Aufklärung der Fördermittelaffäre im Bildungsministerium wird weiter behindert. Für den Journalisten Dr. Jan-Martin Wiarda sind behördliche Chats nicht privat, da sich die Kommunikation in den Ministerien immer mehr auf Messenger-Dienste verlagere und sich so persönliche und dienstliche Inhalte zunehmend vermischen. Die Entscheidung aber was privat und was amtlich ist, und damit veröffentlicht werden muss, wird von den Institutionen selbst getroffen. Die Chat-Leaks in der BMBF-Fördermittelaffäre zeigen, dass solche Chatverläufe zur Aufklärung der Affäre und im Sinne der Kontrolle transparenten Regierungshandelns beitragen könnten. Aktuell läuft ein Eilverfahren, die Chats vor Löschung zu bewahren.

Für seine digitale Kommunikation betreibt Sachsen-Anhalts Landesregierung das sogenannte Landesdatennetz. Betreiber des Netzes ist die Telekom-Tochter T-Systems. Deren Vertrag lief eigentlich schon 2021 aus und wurde bis 2023 zweimal verlängert, das Land hatte sich trotzdem aber nicht rechtzeitig um einen neuen Betreiber gekümmert, so dass T-Systems als sogenannte “nachvertragliche Leistung” da Netz nun zu teuren Übergangskosten bis 2026 weiterbetreibt. Umfang und Kosten dieser Leistungen werden aber geheim gehalten, nur den ursprünglichen Vertrag von 2016 findet man auf FragDenStaat.

Unternehmen der öffentlichen Hand in Schleswig-Holstein sind verpflichtet, Bezüge von Mitgliedern ihrer Geschäftsführungs- und Aufsichtsorgane, also z.B. Vorstand der Sparkasse oder der Chef der Stadtwerke, zu veröffentlichen. Diese so genannte Vergütungsoffenlegung findet man neuerdings machinenlesbar als JSON-Datei auf dem Open-Portal des Landes.

Wirtschaft

Nach einer repräsentativen Umfrage unter 1200 kleinen und mittleren Unternehmen in Deutschland hat sich die Lage vor allem im verarbeitenden Gewerbe und im Handel deutlich verschlechtert. Eine schwache Auftragslage und fehlende Fachkräfte senken die Anreize für Investitionen bei den Unternehmen oder treiben sie ganz in die Insolvenz. Es fehlen wirtschaftspolitische Impulse wie z.B. eine höhere staatliche Investitionstätigkeit, zu erneuernde Infrastruktur gäbe es ja genug.

Die zunehmende Monopolbildung und der damit einhergehenden Macht- und Vermögenskonzentration tragen mit dazu bei, dass für die kleine und mittlere Betriebe nichts mehr übrig bleibt. Lobbycontrol fordert nicht nur deswegen zusammen mit über 70 Organisationen in einem neuen Manifest, im Original “Beyond Big Tech: A manifesto for a new digital economy”, dass unter strikter Anwendung des aktuellen Wettbewerbs- und Kartellrechts die mächtigen Tech-Konzerne entflechtet werden müssen, um so die Kontrolle über Daten und Technologien zu demokratisieren.

Eine aktuelle Studie, die Telepolis bespricht, hat errechnet, dass eine Vermögenssteuer für Superreiche über zwei Billionen US-Dollar bringen. Jedes Land würde im Durchschnitt mehr als sieben Prozent an zusätzlichen Einnahmen erzielen. Die Studie belegt außerdem, dass nur 0,01 Prozent der reichsten Haushalte umgezogen sind, nachdem in Norwegen, Schweden und Dänemark entsprechende Vermögenssteuerreformen verabschiedet worden sind. Weitere Untersuchungen zeigen zudem, dass trotz großem Vermögenszuwachs beim reichsten Prozent der US-Bevölkerung in den letzten 40 Jahren deren Investitionstätigkeit nicht gestiegen ist, Investitionen wurden nur durch Vermögenssteuern begünstigt. Die derzeitige extreme Vermögensungleichheit, wie sie z.B. in der World Inequality Database dokumentiert wird, senkt dagegen nachweislich die Lebenserwartung. Hängt also am politische Willen, die soziale Ungleichheit aktiv zu bekämpfen, statt sich an angeblich nicht arbeitswilligen Bürgergeld-Empfängern abzuarbeiten.

Rente

Die Partei, die gerade in Sachsen mit 0,9% weniger Stimmen als die Tierschutzpartei bekommen und damit dort auch die staatliche Parteienfinanzierung verloren hat, bringt ihr Lieblingsprojekt an den Start: die Aktienrente, also eine gewaltige Verschiebung öffentlicher Mittel, unserer Steuergelder, an den Kapitalmarkt mit entsprechenden Verlustrisiken. Dabei wurde schon 1952 im Mackenroth-Theorem formuliert, dass die Leistungen und Güter, die die Rentner benötigen, nur in der Gegenwart durch die Arbeitenden erbracht werden können. Nimmt die Zahl der Arbeitenden und damit die Zahl der angebotenen Güter und Leistungen ab, dann nützt auch kein angespartes Kapital.

Gesundheit

Das Geld nicht arbeitet, sondern nur Menschen, spürt man auch in der Pflege. In Deutschland waren Ende 2020 rund 4,5 Millionen Menschen auf Pflege angewiesen, bis 2050 werden 6,5 Millionen Pflegebedürftige bei 9,1 Millionen Über-80-Jährigen erwartet. Aus den Daten vom März kann man die 1,62 Millionen Pflegekräfte für 2019 und die für 2049 prognostizierten Bedarf an 2,15 Millionen Pflegekräfte dagegenhalten und der sich abzeichnenden Versorgungslücke von 690.000 Pflegekräften.

Die Versorgung mit Ärzten sieht nicht besser aus: Ärztemangel, niedrige Löhne und Überstunden: In Europas Krankenhäusern herrscht Flaute.

Die Karte im folgenden Artikel zeigt pro Bundesland die Anzahl der Hausärzte pro 1000 Einwohner, wobei die Karte nicht berücksichtigt, wie innerhalb eines Bundesland die Ärzte örtlich verteilt sind und welche Wege Menschen auf sich nehmen müssen, wenn sie auf dem Land wohnen. Außerdem kann man hier auch nicht die Ärzte sehen, die bald selbst in Rente gehen ohne einen Nachfolger gefunden zu haben.

Auf eine noch viel zu wenig beachtete Fehlentwicklung macht Michael Peters von Finanzwende aufmerksam: Seit etwa 2015 steigt in Deutschland die Anzahl der Übernahmen von Arztpraxen durch Finanzinvestoren, insbesondere durch Private-Equity-Firmen. Diese werden dann durch die Gründung von investorengeführten Medizinische Versorgungszentren (iMVZ) zu großen Ketten ausgebaut. Da Arztpraxen und MVZ gegenüber den jeweiligen Kassenärztlichen Vereinigungen nur bis zur ersten Ebene offenlegen müssen, wem sie gehören, verwischen sich die Spuren zu den tatsächlichen Besitzverhältnissen. Eine durch die Kassenärztliche Vereinigung Bayern beauftragt aufwändige Recherche offenbarte, dass bereits 2019 zehn Prozent aller MVZ in Bayern Private-Equity-Firmen gehörten. NDR-Recherchen aus 2022 ergaben, dass investorengeführte MVZ der Augenheilkunde in Städten wie Kiel und Augsburg bereits eine monopolartige Stellung besitzen. Studien aus den USA belegen, dass in investorengeführte Krankenhäuser die Qualität der Gesundheitsversorgung sinkt, und in von Finanzinvestoren übernommenen Pflegeheimen die Sterblichkeitsraten stiegen.

Die Folge 54 des Data Science Podcasts “datenleben” befasst sich mit Gesundheitsdaten und Datensicherheit, auch mit der Frage, ob Rabatte und Prämien wirtschaftlichen Druck auf die Verbraucher ausüben, z.B. Fitness- und Aktivitätsdaten mit der Krankenkasse zu teilen.

Mobilität

Ab 2026 sollen in Frankfurt am Main im neuen Verkehrsleitinformationssystem (VLIS) die Daten über alle Mobilitätsalternativen schnell, integriert und datenschutzkonform als “Open Data” zur Verfügung stehen. Bis dahin bleiben die Digitalanzeigen für Parkhäuser im Stadtgebiet schwarz, weil das alte System mit unsicherer Software aus den 1990er-Jahren arbeitet, die bereits 2022 von der restlichen Systemlandschaft isoliert wurde, so dass Mitarbeitende der Stadt die Anzahl freier Parkplätze seitdem händisch eingeben musste. Aufwand den man sich nun seit Ende September ganz spart. Das neue Parkleitsystem muss nun erst ausgeschrieben werden.

Auf dem Carto Blog wird beispielhaft an den Taxi-Bewegungsdaten aus Porto in Portugal gezeigt, wie man mit der Python-Bibliothek Moving Pandas und dem Data Warehouse Snowflake und der Carto-Plattform Mobilitätsdaten hinsichtlich Auslastung und Routenoptimierung analysieren kann.

Nachhaltige Mobilität

Das Reallabor MobiQ zeigt mit seinem in einem dreijährigen Forschungsprojekt entstandenen Handbuch in zehn definierten Schritten, wie Bürger*innen gemeinsam ihre Mobilität organisieren und nachhaltig verbessern können.

In einem Analyse-Angebot der Was-wäre-wenn-Plattform kann man sich auf einer Karten anzeigen lassen, wie weit die eigene Stadt vom Ideal der 15-Minuten-Stadt entfernt ist. Die Auswertung erfolgt auf Basis von offenen Daten zu Orten in der Stadt, Einwohnerdaten und Anwendung von Routingalgorithmen.

Fahrrad

Aktuell kann bis Ende November auf der Seite vom ADFC die Fahrradfreundlichkeit der eigenen Stadt bewerten und damit beitragen, dass Radfahren in Deutschland sicherer und angenehmer wird. Dazu muss aber pro Stadt abhängig von der Einwohnerzahl ein Abstimmungsquorum erreicht werden, damit die Bewertungen auch in die Gesamtauswertung einfließen dürfen. Wie viele Menschen pro Stadt derzeit abgestimmt haben, lässt sich hier einsehen.

In einem Video erklären Verkehrswissenschaftler der TU Dresden, wie die Daten der Radfahrkampagne “Stadtradeln” zur Verkehrsplanung beitragen und welchen Vorteil eine Radverkehrssimulation für die Stadtplanung hat.

Verkehrssicherheit

Beim Crowdsourcing-Projekt “Achtung, Schulweg!” von Stuttgarter Zeitung und Correctiv wurden bislang gut 200 Hinweise auf zugeparkte und damit potenziell gefährliche Schulwege gegeben. Das diese existieren, liegt unter anderem daran, dass die Stadt zu wenig in der Schulweg-relevanten Zeit vor 8 Uhr kontrolliert, das hat jedenfalls die Auswertung von ca. 1 Million Strafzetteln aus den Jahren 2022 und 2023 in Stuttgart hinsichtlich Gefährdung durch zugeparkte Schulwege ergeben, zu denen die Stadtverwaltung auf Anfrage Open Data zur Verfügung gestellt hat.

Nach dem Einsturz der Carola-Brücke in Dresden hat MDR Data recherchiert, wo die anderen mehr als 400 maroden Brücken in Sachsen, Sachsen-Anhalt und Thüringen stehen, also rund jede 20. Brücke. Und die Brücken, die von den Gemeinden verwaltet werden, sind nicht mal in die Auswertung eingeflossen, da diese nicht zentral verwaltet werden und daher auch keine Benotung vorliegt. Eine Umfrage bei kommunalen Tiefbauämtern im Jahr 2021 ergab, dass sich in Ostdeutschland fast jede vierte in “nicht ausreichendem” oder “mangelhaftem Zustand” befindet.

OpenSource

Jedes Jahr am dritten Samstag im September wird der “Tag der Software-Freiheit” gefeiert. Der Softwerke Magdeburg e. V. listet hier ihre fünf liebsten Argumente für freie & quelloffene Software.

Prototype Fund

Weil der Prototype Fund auf eine Laufzeit von acht Jahren ausgelegt war, die sich nun dem Ende neigen, werden in einer Blogreihe die wichtigsten Inhalte des Handbuchs “Funding for Future” und ein paar neuere Erkenntnisse geteilt, im zweiten Teil geht es um die Herausforderung der Nachhaltigkeit in der Innovationsförderung. Um ein Fortbestehen auch über den Förderzeitraum zu ermöglichen, sollte man sich frühzeitig um Sichtbarkeit und den Aufbau einer Community kümmern. In der Knowledge Base wurden eine Reihe von Kommunikationsstrategien dazu zusammengetragen, mit denen ihr anderen helft, eure FOSS-Projekte sicher und langfristig zu nutzen, zur Entwicklung beizutragen oder da weiterzumachen, wo ihr aufgehört habt.

Doch noch sind die 8 Jahre jedoch nicht rum, es gibt eine letzte Förderrunde, die eben gestartet ist und bis nächsten Februar läuft.

Open Source in der Öffentlichen Verwaltung

Auf Basis des Cloud-Dienstes Azure des US-Konzerns Microsoft soll von der SAP-Tochter Delos Cloud eine datenschutz­konform Cloud aufgebaut und betrieben werden. Aus dem Rahmen­vertrag zwischen Innenministerium und SAP geht hervor, dass SAP bis zu 700 Mio. Euro damit verdienen kann. Eine stattliche Summe, da waren die über 110 Lobbytreffen zwischen Bundesregierung, Microsoft und SAP in zweieinhalb Jahren doch ein guter Invest. Aus Sicht der Open Source Business Alliance (OSBA) wird damit die digitale Zukunftsfähigkeit wider besseres Wissen demontiert. Dabei entkäme man mit Open Source Lösungen diesem “Political Lock-In”, also der Abhängigkeit öffentlicher Einrichtungen von Produkten und Dienstleistungen großer nicht-nationaler Anbieter, die die digitale Souveränität und politische Unabhängigkeit gefährden.

Vorbild sollte hier stattdessen Thüringen sein: dessen Landesrechenzentrum ist zuständig für die Thüringer Verwaltungscloud (eine vollautomatisierte private Hochleistungs-Cloud auf OpenStack-Basis mit 400-Gigabit-Netzwerken, 3 Petabyte Software-Defined-Storage (all-flash!) und 12.000 CPU-Kernen) und setzt dabei, im Einklang mit dem E-Government-Gesetz Thüringen, fast ausschließlich auf Open-Source-Software.

Ein paar zaghafte Versuche aus der Umklammerung proprietärer Software herauszukommen gibt es dann doch: Mitte Oktober soll die openDesk Version 1.0 vorgestellt werden, eine vom Bund finanzierte Open-Source-Alternative zu Microsoft-365.

Lisa Reiber hat ihre Erfahrungen geteilt, wie man Open Source in der öffentlichen Verwaltung einführt, ihr Vortrag auf der PyCon im April diesen Jahres kann man nun nachschauen.

Open Source in der Praxis

Mit günstigen Komponenten wie Einplatinencomputer und Elektromotoren sowie Open-Source-Software versuchen Projekte wie Acorn, moderne Farm-Roboter auch für Kleinstbetriebe verfügbar zu machen.

Damit Open-Source-Software-Komponenten sich gut miteinander integrieren lassen, sollten sich alle Beteiligten an bestimmte Regeln halten. Mit der Open Regulatory Compliance Working Group wurde nun eine Arbeitsgruppe gegründet, die genau solche Regularien für Open-Source-Ökosysteme erarbeiten soll.

Die Hintergründe zum Versuch, die xz-utils Bibliothek zu kompromittieren, werden in diesem Simplicissimus-Video-Essay sehr anschaulich und verständlich erklärt und zeigen die Vorteile aber auch die Schwächen des Open-Source-Ansatzes.

DuckDB, ist eine Datenbank, die In-Process und In-Memory läuft, und im Gegensatz zum vergleichbaren SQLite auf Analyse großer Datensätze optimiert ist (vergleichbar mit Apache Spark) und den SQL-Standard vollumfänglich unterstützt. Nun ist sie in Version 1.1.0 erschienen.

Open Access

Auf die Frage von Ben F. Maier, ob es vergleichbare frei zugängliche Magazine wie Journal of Open Source Software, gäbe, bekam er die Hinweise auf Culture Machine, einem experimentellen kostenlosen kulturwissenschaftlichen Magazin, First Monday, einem Magazin über Internet-Forschung und dem International Journal of Communication. Weitere Open Access Magazine und Artikel findet man im Directory of Open Access Journals (DOAJ).

Auch in Deutschland gibt es solche Magazine, z.B. das eco@work. Der Verlag oekom weist Bücher, die auch als Open-Access verfügbar sind, explizit aus. Aber auch Publikationen von Organisationen wie Digital die Welt retten? von Bits und Bäume oder auch Leitfaden Datenschutz bei Mastodon von der Stiftung Datenschutz stehen ohne Zugangsbeschränkung frei im Netz.

Im Kontext von Weltraum-Forschungsdaten macht Robert Simmon sich Gedanken darüber, wie man diese potenziellen Nutzern und (Hobby-)Forschern zugänglich machen könnte. Seine Vorschläge sind auch auf andere Datendomänen anwendbar.

Open Science

In einem Open-Access-Artikel werden Forschende dazu aufgerufen, generell neben den Daten und den Quellcode, mit dem sie ihre Forschungsauswertungen erstellt haben, zu teilen, damit andere Forschende die Ergebnisse leichter nachvollziehen, reproduzieren und kontrollieren können. Im konkreten Fall ging es um Ungereimtheiten bei der Analyse von Fettleibigkeit in Indien. Der Autor des Artikels hat seine eigenen Berechnungen im Sinne seines geforderten Sharing-Gedankens auf Github gestellt.

Im Interview berichtet Prof. Dr. Hanna Hottenrott vom Leibniz-Zentrum für Europäische Wirtschaftsforschung (ZEW) über ihre Erfahrungen mit dem Open-Science-Ansatz. Sie ermutigt zu mehr Transparenz. Denn wenn man den Veröffentlichungsprozess strategisch plant (wann wird was öffentlich geteilt, welche Teile hält man zunächst noch zurück) und dokumentiert (z.B. über Diskussionspapiere und Zwischenberichte, über die dann klar wird, wer als erstes an einem Thema gearbeitet hat), reduziert man das Risiko, ausgenutzt zu werden oder andere Nachteile im Konkurrenzkampf (um Forschungsmittel) zu erleiden, und kann trotzdem schon wertvolles Feedback von anderen Forschenden bekommen. Eine aktuelle Studie zu Open-Science-Praktiken in Wirtschaftswissenschaften zeigt zwar eine wachsende Akzeptanz, jedoch hemmen hohe Publikationsgebühren, rechtliche Bedenken und fehlende Transparenz-Anreize die Umsetzung in der Breite.

Wer mehr über aktuelle Fragestellung in der Open Science erfahren möchte, kann sich auch die dokumentierten Sessions vom letzten Open Science Barcamp, das Anfang September in Potsdam stattfand, zu Gemüte führen.

Citizen Science

Es gibt neues Open-Access-Buch über bürgerwissenschaftliche Ansätze, die Durchsetzung und Einhaltung von Umweltgesetzen zu überwachen.

Bürgerwissenschaft-Interessierten fehlen oftmals für den Einstieg die geeigneten Ansprechparter. Mit ihrer Expert*innen-Datenbank versucht nun die Citizen-Science-Plattform mit:forschen! Projekt auf Bundeslandebene diese sichtbarer zu machen und so den persönlichen Austausch in der Community zu stärken. Man kann sich aber auch selbst als Experte dort registrieren.

Kultur

Günter Junkers berichtet von seinen Eindrücken vom ersten Tag der Tagung “Digital History & Citizen Science” in Halle, bei der es um digitale Methoden und neue Erkenntnisse zwischen digitaler Quellenerschließung, Forschung und eben auch Bürgerwissenschaften ging, Plattformen wie Wikidata und Factgrid wurden lobend erwähnt.

Auch das Internet selbst ist inzwischen über 30 Jahre alt und es rückt langsam in den Fokus, wie man die über die Jahre dort publizierten Inhalte für die Nachwelt erhalten kann, denn Inhalte verändern sich, werden auch wieder gelöscht, Web-Domänen abbestellt. Allein sich auf das Internet Archive zu verlassen (siehe jüngste Urheberrechtsklagen) oder zu hoffen, dass Youtube-Videos auch noch in 10 Jahren online stehen, wird zu wenig sein. Auch Web-Technologien ändern sich, wie kann man sich Adobe-Flash-Inhalte und andere alte Formate von alten Web-Seiten anschauen? Tim Sherratt nennt es den Liebesbrief an zukünftige Historiker, wenn man neben den Inhalten auch solche Metadaten sammelt und bereitstellt (also wie z.B. wie funktionierte damals der Suchindex).

Bei den diesjährigen Grimme Online Awards sind auch wieder Projekte nominiert, die mit Daten Geschichten erzählen.

Die auf dem Kultur-Hackathon GLAMhack 2024 entstandenen Projektideen und -prototypen kann man sich über die Waben auf der Webseite ansehen.

Klima

Wenn man über Satellitendaten identifizierte Umweltprobleme (z.B. Flächenversiegelung, zu wenig grün, Wasser- und Luftverschmutzung, Vermüllung) mit räumlich verorteten soziodemografischen und sozioökologischen Daten kombiniert, lassen sich stadtplanerische Entscheidungen hin zu einer sozial gerechteren und ökologisch nachhaltigeren Stadt ableiten, meint Dr. Nicolai Moos in seinem Beitrag auf Civic Data Lab. Im Artikel werden auch unter anderem auf die Climate Stories Map, die über Crowdsourcing Auswirkungen des Klimawandels auf die Stadt Berlin aufzeichnet, und den Climate Data Entrepreneurial Club verwiesen, ein Projekt mit dem Ziel, Schüler*innen im Alter von 16 bis 19 Jahren beim Kompetenzaufbau in den Bereichen Datenanalyse und Künstlicher Intelligenz, der Arbeit mit Satellitendaten und Unternehmergeist mit Lernmodulen und Hackathons zu unterstützen.

OpenPV wurde runderneuert. Die Funktionalität ist aber geblieben, man kann also weiterhin das Solar-Potential für fast jedes Gebäude in Deutschland berechnen und bekommt einen Jahresertrag und jährliche Einnahmen für eingezeichneten PV-Anlagen.

Hitze

Laut EU-Klimadienst Copernicus waren die Sommermonate Juni, Juli und August im globalen Durchschnitt so warm wie nie seit Beginn der Wetteraufzeichnung.

BR Data hat für Bayern analysiert, dass Regensburg (im wahrsten Sinne des Wortes) ein Hotspot hinsichtlich Hitzetage (Tag mit > 30°C): so gab es zwischen 1991 bis 2020 durchschnittlich neun solcher heiße Tage pro Jahr mehr als im Vergleichszeitraum von 1961 bis 1990, und damit mehr als in jedem anderen bayerischen Landkreis.

Eine Analyse von Satellitenaufnahmen für die Städte Hamburg, Leipzig und Stuttgart hat ergeben, dass trotz allem die Flächenversiegelung zunimmt. Dabei ist es in stark versiegelten Stadtteilen durchschnittlich bis zu sieben Grad heißer als in den anderen Vierteln. Eine Gefahr für die Gesundheit der Menschen.

Als Reaktion enthält das Hamburger Klimainformationssystem nun auch Daten zu Hitzetoten. Die Daten sind nicht wenig überraschend gestiegen. Die Stadt erarbeitet aktuell einen Hitzeaktionsplan. Aus diesem wird dann wohl auch hervorgehen, dass man mehr schattige Plätze braucht.

Aus dem anfangs erwähnten Copernicus-Bericht geht auch hervor, dass der Tempo der Meereserwärmung sich seit 2005 fast verdoppelt hat.

Hochwasser

Durch das sich verändernde Klima werden nicht nur Hitzeperioden häufiger sondern steigt auch durch Starkregen die Hochwassergefahr. Über das länderübergreifendes Hochwasserportal kann man sich über die aktuelle Hochwasserlage in Deutschland informieren. Alternativ kann man auch Pegel Online oder das Länderübergreifende Pegelportal nutzen. Für Österreich werden die Hochwasserrisikogebiete auf der Plattform HORA dargestellt.

Laut der Hochwasserstudie des UfU sind fast 400.000 Menschen in Deutschland in den kommenden Jahren von Hochwasser bedroht. In der Studie wird aber auch auf Gewässer und Flüsse eingegangen, die besonders bei Dürren betroffen sein werden.

Talsperren helfen dabei, den Wasserabfluss zu beeinflussen. Bei Hochwassergefahr können sie Wasser zurückhalten und in langen Trockenperioden kontrolliert Wasser abgegeben (um z.B. trotzdem Schifffahrt zu ermöglichen). Die Füllstände der Talsperren werden auf dieser Seite nur unregelmäßig gepflegt (letzter Stand 29.12.2023), für aktuelle Daten muss man die Talsperren einzeln bzw. pro Bundesland oder Region abfragen, z.B. für Thüringen, für den Ruhrverband oder die Harz-Wasserwerke.

Entstanden beim Hochwasser 2013 rund acht Milliarden Euro an Schäden in elf Bundesländern, waren es im Jahr 2024 bis Mitte August bereits über 4 Milliarden Euro in nur zwei Bundesländern.

Kipppunkte

Kipppunkte sind kritische Schwellenwerte. Einmal überschritten, kommt es zu unumkehrbaren Veränderungen im Klimasystem. So würde das vollständige Abschmelzen des grönländischen Eisschildes den Meeresspiegel um etwa sieben Meter steigen lassen. Kippvorgänge können sich wie Dominosteine gegenseitig auslösen. Johan Rockström erklärt im TED-Task wo wir aktuell hinsichtlich der Kipppunkte stehen. Wir müssen schnell handeln, die heutige Klimapolitik beeinflusst die kommenden Jahrhunderte. Der Planetary Health Check Report 2024 sagt voraus, dass wir zwingend in den nächsten fünf Jahren den Kurs ändern müssen, um einen für uns gesunden Planeten zu erhalten. Mehr Inhalte gibt es in den Live-Streams vom Extrem-Wetter-Kongress.

Artenvielfalt

Laut einer Studie geht die Artenvielfalt in Deutschland weiter zurück. Haupttreiber sind dabei der Verlust von Lebensräumen und die Intensivierung der Landwirtschaft.

Eine Liste von Vögeln, die mehr als 10 Jahre nicht mehr gesichtet (und damit vermutlich ausgestorben sind) wurde jüngst veröffentlicht. Die Liste basiert auf der Datenbank Macaulay Library. Mit der eBird App kann man selbst zur Vogelbeobachtung beitragen.

Vermüllung

20 Jahre Forschung zu Mikroplastikverschmutzung: wir brauchen dringend Lösungsansätze, denn bei einem weiterso, wird sich die Belastung durch Mikroplastik bis 2040 verdoppeln.

Umsetzung

“Wenn man sich auf Desinformation im Bereich Klima konzentriert, geht dies oft auf Kosten konstruktiver Gegenmaßnahmen”, meint die Sozialwissenschaftlerin Holly Buck. Stattdessen sollte man Menschen in Workshops, Fokusgruppen, mit Fragebögen und Diskussionsrunden vernetzen und beteiligen, die sich selbst nicht unbedingt mit “der Klimabewegung” identifizieren würden. Dort sollte man Wertekonflikte und Vertrauensfragen offen ansprechen, und geäußerte Bedenken und Sorgen ernst nehmen, sie aufarbeiten (und ausräumen), statt diese in Anflug elitärer Arroganz einfach als “Klimaleugnung” abzutun.

Die interaktive Webseite MappingZero zeigt, wie stark und klimasozial konkrete Maßnahmen, abhängig von gewählten Umsetzungsstartzeitpunkt und Ausbaustufe, wirken können, und kann somit als Argumentationshilfe gegenüber der Politik dienen.

Der CO₂-Grenzausgleichsmechanismus der EU, Carbon Border Adjustment Mechanism (CBAM), ist seit Ende letzten Jahres in Kraft. Bei Importen muss nun angegeben werden, welche Emissionen bei der Herstellung dieser Materialien und Vorprodukte verursacht worden sind. Es drohen den importierenden Unternehmen bei fehlerhaften Berichten empfindliche Strafen, bis zu 50 Euro pro nicht gemeldeter Tonne CO₂. So sollen exakte Informationen über die Emissionsintensität der Produkte entlang der Lieferketten erhoben werden. Auf deren Grundlage wird dann ab 2026 etappenweise eine CO₂-Abgabe eingeführt. Importeure müssen dann denselben CO₂-Preis zahlen wie Unternehmen, deren Lieferketten komplett in Europa liegen. Unternehmen beklagen sich nun aber, dass der ihnen und ihren Lieferanten aufgelegte Aufwand, die notwendigen Daten überhaupt zu erfassen (da Lieferanten diese teilweise nicht erfassen oder sich weigern, diese herauszugeben), nicht verhältnismäßig zu den geringen Klimaauswirkungen sei und wünschen sich Bagatellgrenzen.

Energie

Energiewendung als Wettbewerb zu organisieren, die Idee ist schon über 20 Jahre alt, die alte Seite Solarbundesliga existiert sogar noch, auch wenn sie seit 2018 nicht mehr genutzt wird. Seit 2021 wurde die Idee vom Wattbewerb neu belebt. Martin Hundhausen erzählt über die Historie beider Projekte und die inzwischen erzielten Erfolge.

Franz Alt, frühere Chef von “Report Mainz” nennt in seinem Gastbeitrag für Klimareporter sieben gute Gründe für erneuerbare, dezentrale Energien. Er berichtet auch von den Benediktinermönchen der Abtei Münsterschwarzach bei Würzburg, die es in den Jahren 2000 bis 2008 geschafft, mit regenerativen Energien komplett energieautark zu werden.

Das Bündnis Bürgerenergie kritisiert den Gesetzentwurf des Bundeswirtschaftsministerium, der das Energierecht im Bereich der sogenannten “Endkundenmärkte” modernisieren soll, als ungenügend, es fehlen attraktive finanzielle Beteiligungsmöglichkeiten sowie eine Stärkung der Bürgerenergie. Ein Problem sind auch die mehr als 800 Stromnetzbetreiber, da aktuell immer nur innerhalb eines Betreibernetzes Energy Sharing erlaubt ist, und manche der Netze nicht größer als ein Dorf sind.

Der Mitschnitt der Abschlusspräsentationen der Energy Hack Days zeigt die Ideen und Prototypen rund um Energiedaten, die während der beiden Hackathon-Tage entstanden sind.

Karten

Die 3D-Meshes, die dem Digitalen Zwilling NRW zu Grunde liegen, stehen als Open Data zur Verfügung.

Für Österreich gibt es optisch sehr ansprechende Hintergrundkartenstile als QGIS-Projekt.

Das Open-Source-Projekt VersaTiles möchte sich als eine kostenfreie Alternative zu kommerziellen Kartendiensten wie Mapbox oder Maptiler zu etablieren.

Das Projekt OpenFreeMap, das auch Open Source ist, beschränkt sich bewusst auf das Hosten von Vector-Tiles. Wie auch VersaTiles gibt es bei den öffentlichen Instanzen keinen Request-Begrenzungen, keine API-Keys, keine Registrierung. Die Kosten sollen aus Spenden gedeckt werden.

Mit osm2pgsql lassen sich die Daten aus OpenStreetMap in eine PostgreSQL/PostGIS importieren, um so z.B. Raster oder Vector-Tiles erzeugen zu können. Nun ist fünf Jahre nach der ersten Version, die Version 2.0.0, mit vielen Verbesserung, aber auch einigen Breaking Changes.

KI

Wikimedia Deutschland startet in Kooperation mit DataStax und Jina AI die Umsetzung eines semantischen Suchkonzepts, das die offen lizenzierten Daten von Wikidata für Entwickler*innen von KI-Anwendungen leichter nutzbar machen soll.

Anwendungsfälle

Mit der kostenlosen Lösung Simba der Forschungsgruppe Public Interest AI kann man sich entweder über eine Internet-App eigene Texte vereinfachen lassen oder über eine Browser-Erweiterung, die automatisch Texte auf Webseiten zusammenfasst.

Eine neue Studie beschreibt, wie mit Hilfe von KI und einem Konnektom Aktivitäten einzelner Neuronen vorhergesagt werden können, ohne dazu eine einzige Messung in einem lebenden Gehirn durchführen zu müssen.​

303 bisher unbekannte Geoglyphen, riesige Linien- und Reliefzeichnungen in der Nazca-Wüste in Peru, konnten durch Machine Learning entdeckt werden.

Werkzeuge

Die Open-Source-KI PDF2Audio lässt sich, nutzen um PDFs in deutschsprachige Podcasts und weitere Sprachen zu transformieren. Auch Zusammenfassungen und Vorträge können User erstellen.

Causal Machine Learning ist ein Zweig des Machine Learnings, der sich auf Ursache-Wirkungs-Zusammenhänge in Daten konzentriert. Causal ML ist eine entsprechende Bibliothek für Python.

Das Deepfake-o-Meter soll die Erkennung KI-generierter Medien erleichtern.

Produktivitäts-Boost durch Github Pilot und Co?

Eine Studie unter 800 Entwicklern, die in großen Software-Teams arbeiten, hat ergeben, dass die Verwendung von GitHub-Copilot zu keinen wesentlichen Produktivitätssteigerung geführt haben. So haben Test- und Kontrollgruppe gleich viele Pull-Requests (PRs) in ähnlicher Zeit geschlossen. Der Umfang des geschriebenen Codes nahm zwar zu, dafür enthielten die PRs der Testgruppe 41% mehr Bugs und CVEs. Generierter Code muss sorgfältiger durchgesehen werden, mehr Code ist meist auch kein Qualitätsmerkmal, da effizient geschriebener Code meist lesbarer, performanter, wartbarer und weniger fehleranfällig ist. Es ist nicht zu bestreiten, dass die Chat-Tools eine gute Inspirationsquelle sein können und auch Neulingen einen schnellen Einstieg und erste Erfolge ermöglichen. Am Ende sind die Entwickler ihre Organisationen für die Codequalität verantwortlich und nicht die KI, denn sie entscheiden selbst, ob und unter welchen Bedingungen sie solchen Code in ihre Code-Basis aufnehmen.

Und man sollte nicht vergessen, wie die Chatbots funktionieren: was sie nicht in ihrem Datenbestand finden, erfinden sie sich zum Teil neu, indem sie Muster, die sie aus anderen Code-Bibliotheken gelernt haben, auf die angefragte Code-Bibliothek anwenden, obwohl diese das Feature vielleicht (noch) nicht unterstützt oder anders implementiert hat.

Fehlentwicklungen

In einem beispiellosen Betrugsfall drohen einem Mann in den USA bis zu 60 Jahre Gefängnis: er hatte massenweise KI-Musik generiert, diese bei Streaming-Diensten hochgeladen, und anschließend über ein Bot-Netzwerk gestreamt, um die Vergütung von den Plattformen dafür einzustreichen, über 10 Millionen US-Dollar seit 2017.

Robyn Speer pflegte mit wordfreq eine Python-Bibliothek, die die Wort-Häufigkeiten für verschiedene natürliche Sprachen aus verschiedenen Quellen zusammenträgt (wertvolle Informationen für die Verarbeitung für natürlicher Sprache (NLP)). Pflegte, weil er sich nun im September entschlossen hat, die Daten nicht weiter zu aktualisieren. Als Gründe nennt er zu einem, dass KI-generierte Inhalte zunehmend die Wortstatistiken verfälschen und zum anderen, weil viele Quellen, die einst kostenlos zugänglich waren, auf Bezahlmodelle umgestellt haben. Zu Kosten, die nur große Unternehmen bereit sein werden zu zahlen.

Urheberrecht

Der gemeinnützigen Verein LAION, der eng mit der Firma Stability AI verbandelt ist, darf weiterhin urheberrechtlich geschützte Bilder für KI-Training anbieten, da das Landgericht Hamburg im ersten KI-Urheberrechtsprozess in Deutschland die Klage eines Fotografen abgewiesen hat.

In einem Selbstversuch hat sich herausgestellt, dass die KI-basierte Suchmaschine Perplexity rigoros auch Inhalte hinter Bezahlschranken aufsaugt. Die Verlage fürchten, dass niemand mehr bereit sein wird, für Zeitungsabonnements zu zahlen, wenn man so auch an die Inhalte kommen kann.

Für Kristian Köhntopp, ist die Grenze zwischen Menschen gemachten Werk, das urheberrechtlich geschützt ist, und technikgetriebenen Nichtwerk, dass keinem Urheberschutz unterliegt, ist völlig unklar.

Korrektur

Dénes Jäger von der Open Knowledge Foundation und Damian Paderta schlagen vor, geschickt auf der aktuellen KI-Hype-Welle mitzureiten, und die Ausschreibungen und Fördermittelprogramme, die eigens für zu entwickelnde KI-Lösungen (für die Verwaltungsmodernisierung) aufgelegt worden sind, so für sich umzubiegen und so weit auszulegen, dass in ihnen die tatsächlich notwendigen Grundlagen geschaffen werden, wie mehr maschinenlesbare Daten und interoperable Standards. Getreu dem Motto: egal, aus welchem Fenster der Kunde das Geld rausschmeißt, Hauptsache man steht mit dem Auffangtuch darunter. Und kann dann sinnvolle Dinge mit den so gewonnenen Ressourcen tun.

Die aktuelle Definition von Open Source würden sowohl Metas Llama 3.1 und Googles Gemma erfüllen, da sie bewusst wichtige Informationen zurückhalten, wie die Trainingsdaten und den Code für das Training, das es unmöglich macht, die Modelle zu reproduzieren. Daher schlägt die Open Source Initiative (OSI)eine neue Definition “Open Source AI”, die eben solche Aspekte auch einfordern.

Recap

Von der Netzpolitik Bildet Netze Konferenz existieren zwei zwei Livestreams. Von den Datenspuren 2024 stehen die Videos auf media.ccc, unter anderem auch der Vortrag zu 8 Jahre FOSS Förderung. Der Abschlusspitch vom Münsterhack kann man sich hier ansehen. Auch Code for Münster hat ein Projekt beigesteuert.

Und sonst so

Der 38. Chaos Communication Congress (38C3) hat das Thema “Illegal Instructions” und wird vom 27. bis 30. Dezember 2024 im Hamburger CCH stattfinden.

Veranstaltungen

Call for participation