Solastalgie – Out in the Open August 2024

Eigene Aufnahme (31.07.2024 in Darmstadt)
09.09.2024 von Jörg Reichert (Code for Leipzig)

Linked Open Data im Praxistest

Anderthalb Jahre haben mehrere Einheiten der Züricher Verwaltung Erfahrungen mit Linked Open Data (LOD) gesammelt. Die Ergebnisse diskutieren Rebekka Plüss (Staatsarchiv) und Laure Stadler (Fach- und Koordinationsstelle OGD des Statistischen Amts) in einer Podcastfolge, die neben dem Abschlussbericht auch hier mit verlinkt ist. So wurde festgestellt, dass die Publikation von Linked Open Data grundsätzlich machbar ist, und diese so veröffentlichten Daten auch genutzt werden, allerdings ist der Aufbereitungsaufwand in vielen Fällen höher als der Bedarf, so dass die OGD vorerst auch keine dezidierte Linked-Data-Infrastruktur zur Verfügung stellen wird. Ein Problem der kritischen Masse, denn Linked Data ist immer noch ein Nischenthema. Dadurch gibt es zu wenige vordefinierte Ontologien, die als Anknüpfungspunkte für die eigene Ontologie dienen können. Sowohl für diejenigen, die die Daten als Linked Open Data veröffentlichen wollen als auch für jene, die diese Daten später nutzen wollen, ist die Lernkurve sehr steil. Das liegt auch an der ungenügenden Werkzeugunterstützung. Die vorhandenen Tools abstrahieren zu wenig von den Grundlagen, unterstützen die Nutzer zu wenig durch geeignete Usability, (Teil-)Automatisierung und intelligenten Vorschlägen bei der Dateneingabe (bzw. auch sinnvolle Verknüpfung auf Konzepte bestehender Ontologien). So fällt es schwer, den Kreis an Linked-Data-Interessierten zu erweitern, wenn alles noch so mühsam und nicht selbsterklärend ist. Der Wert von Linked Open Data wurde aber prinzipiell erkannt. So hofft nun man nun auf den Prototypen der Bundeskanzlei, mit dem die Haltung von Stammdaten als Linked Open Data getestet werden soll. In dessen Rahmen ist auch sowohl der weitere Aufbau von LOD-Wissen und eine Speicher-Infrastruktur geplant. Je mehr Verwaltungen Linked Open Data veröffentlichen, desto größer die Motivation auch für andere Verwaltungen diese Datentechnologie ebenfalls bei sich zu adaptieren. Als Inspiration kann der bei der Evaluation entstandene Datensatz über die Zürcher Ehedaten der frühen Neuzeit dienen, der über Github abrufbar ist.

In einer Hands-On-Session wurde auf der Wikimania in Katowice mit dem Open Data Editor, ein Werkzeug vorgestellt, das das Leben zu mindestens von Open Data Publishern erleichtern soll. Mit diesem können Techniker aber eben auch Nicht-Techniker Datensätze erstellen ohne dabei eine einzige Zeile Code schreiben zu müssen. Die so erzeugten Datensätze folgen dennoch den FAIR-Prinzipien, sind also qualitativ hochwertig.

Für die potenziellen Nutzer von offenen Daten, speziell aus dem Forschungsbereich, schwebt Andrea Bertino ein verbessertes Vorschlagssystem bei der Suche vor. In seinem Artikel aus der Zeitschrift “Bibliothek Forschung und Praxis” stellt er sich die Frage, wie das Konzept “Serendipität”, also die “Gabe, unerwartete, zufällige oder glückliche Entdeckungen zu machen”, auch bei der Suche in offenen Daten helfen kann. Viele Vorschlagsalgorithmen neigen zu Verzerrungen, wie z.B. dem Confirmation Bias oder dem Popularity Bias. Speziell im Open Data Umfeld kommt noch der Metadata Quality Bias hinzu, also wenn Einträge nicht gefunden werden, weil bei ihnen Metadaten fehlen oder fehlerhaft sind, und dadurch keine relevanten Verbindungen zu anderen Daten hergestellt werden können. Einige der identifizierten Maßnahmen für mehr Serendipität sollen nun für den Open Data Navigator Prototypen, eine Entdeckungsplattform für Open Data, die im Rahmen des Schweizer Connectome-Projekts entstanden ist, umgesetzt werden.

Metadatenqualitätsmanagement bleibt aber oftmals Handarbeit, wie auch in diesem Fall, in dem Lizenzangaben der Datensätze bei der Aggregation verloren gegangen oder auch schon unbewusst ungünstig vom Ersteller gesetzt worden sind. Durch Nachfrage kam es zu einer zügigen Korrektur. Für vorbildlich bereitgestellte Daten gibt es dann auch Kudos.

Neue und kommende Open Data (Portale)

Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) hat eine neue Leitlinie zur Veröffentlichungen von Open Data in seinem Geschäftsbereich veröffentlicht. Eine Open Data Plattform soll später unter open.ble.de erreichbar sein, bisher existiert mit OpenAgrar nur ein Publikationsserver.

Dagegen sind nun offene Daten von und aus Bamberg auf bamberg.bydata.de neuerdings einzusehen.

Für Verwaltungen, die sich noch mit dem Konzept Open-By-Default schwer tun, gibt der Musterdatenkatalog Orientierung, welche Daten überhaupt als Open Data veröffentlichen können bzw. welche gegenüber anderen Kommunen bei ihnen noch in der Veröffentlichung fehlen (oder noch nicht entsprechend mit einem Musterdatensatz annotiert sind). Mit der letzten Aktualisierung des Katalogs Ende August sind 70 Kommunen und 5.000 weitere offene Datensätze hinzugekommen, so dass nun 30.000 Datensätze enthalten sind (ohne dass hierbei Quantität unbedingt für Qualität spricht).

Wenn man sich für die Standorte von Schwimmbädern interessiert, findet man für die Kategorie “Bad und Freibad” aktuell 69 Treffer im Musterdatenkatalog (teilweise Standorte, teilweise Besucherzahlen, teilweise als Teil aller Sportstätten, aber auch offensichtliche Fehltreffer mit “Tennisanlagen”). Für z.B. Kiel gab es hier allerdings keine Suchtreffer. Dafür wird man aber in der Liste aller Schwimmbäder in Schleswig-Holstein (Stand 2023) fündig. Diese ist seit Ende August auf dem Open Data Portal des Bundeslandes zu finden.

Seit 15.8.2024 sind in der Zensusdatenbank die Ergebnisse zu Haushalten und Familien verfügbar, also Daten zu deren Größe und Struktur sowie zu deren Wohnsituation, z.B. die Nettokaltmiete oder die Wohnfläche.

Mit den Herausforderungen und modernen Lösungsansätzen, statistische Daten so zu anonymisieren, dass sie auch in Zeiten von Big Data keine Rückschlüsse auf Einzelpersonen zulassen, beschäftigt sich der Forschungsartikel “Anonymization: The imperfect science of using data while preserving privacy”.

KI Guidelines

Handlungsempfehlungen (pdf) für offen und gemeinwohlorientierte KI-Technologien im Bildungsbereich wurden innerhalb der Veranstaltungsreihe “Forum Offene KI in der Bildung” erarbeitet. In ihnen werden Infrastruktur und Zugang zu bestehenden KI-Systemen beansprucht, mit der langfristigen Perspektive, solche System auch selbst hosten zu können. Des Weiteren wird im Sinne einer offenen Bildungspraxis gefordert, Lernressourcen zu KI unter offenen Lizenzen zu stellen und mittelfristig auch eine Veränderung der Lern- und Prüfungskultur anzustreben (also mehr kritisches Denken statt Auswendiglernen).

Für die Züricher Verwaltung gehört zu einem verantwortungsvollen Einsatz von KI auch, transparent zu machen, wo KI überall zum Einsatz kommt und welche Techniken dazu verwendet werden. In einem sogenannten Automatische-Entscheidsysteme-(AES)-Verzeichnis sollen diese Informationen gepflegt werden. Eine Auswahl von KI-Projekten, die im Kanton Zürich in den Verwaltungen schon im Betrieb oder in Entwicklung sind, kann man dieser Liste entnehmen. Einige der Machine Learning Projekte stehen auch Open Source auf Github.

Retrieval-Augmented Generation (RAG)

Bei einem Retrieval-Augmented Generation (RAG) System kann nicht nur auf die Trainingsdaten des Modells zurückgreifen sondern auf (externe) Datenquellen, wie Datenbanken oder indexierten Internetseiten. Tutorials für den geschickten Einsatz von RAGs werden hier offen gesammelt. kotaemon ist beispielsweise ein solches RAG-basiertes Open-Source-Werkzeug, um lokal mit seinen PDF-Dokumenten chatten zu können (und hat dabei auch noch eine bedienbare Nutzeroberfläche).

Gefahren der KI

Forschung hat inzwischen gezeigt, dass Generative KI, wenn man sie zu viel auf ihren eigenen Daten (versehentlich) trainieren lässt, deutlich schlechter wird bzw. die Diversität aus der realen Welt verloren geht.

AlgorithmWatch und CASM Technology haben getestet, ob KI-Chatbots Fragen zu den Landtagswahlen korrekt und unvoreingenommen beantworten. Fazit: für diesen Anwendungsfall sollte man solche Werkzeuge besser nicht nutzen. So waren in den Antworten Informationen teilweise veraltet, falsch zugeordnet oder gar frei erfunden und falsch. Zu selten wird angezeigt, dass für eine Frage keine oder zu wenige Informationen vorliegen und der Bot sie daher nicht beantworten kann. Problematisch auch, wenn in der Antwort die Quellen fehlen, Informationen zwar richtig aber unvollständig sind oder die Priorisierung innerhalb der Antwort nicht nachvollziehbar ist bzw. auch mit der realen Gewichtung nicht übereinstimmt. Wenn die Frage selbst schon falsche Informationen und Annahmen bzw. auch schon ein gewisses Framing enthält, wird das meist nicht durch den Bot korrigiert sondern eher bestätigt und verstärkt. Zu mindestens haben einige Chatbots generell schon die Beantwortung von Fragen zu Wahlen und anderen politischen Themen abgelehnt oder verlinken statt einer Antwort auf externe Quellen.

Wie heise berichtet, hat eine Untersuchung von BestBrokers ergeben, dass eine einzige Anfrage an ChatGPT 2,9 Wattstunden verbraucht, das ist zehnmal mehr als die 0,3 Wattstunden einer einfachen Google-Suchanfrage. Der Strombedarf für das Training des LLMs ist dabei noch nicht mal miteinbezogen, man geht davon aus, dass dieses bei GPT-4 100 Tage gedauert hat und über 62 Tausend kWh verbraucht hat. Da davon auszugehen ist, dass aktuell der Strom hauptsächlich aus nicht regenerativen Quellen stammt, wird also neben der monetären Kohle auch viel fossile Kohle verbrannt. Die Umwelt freut sich.

Citizens Science

Es gibt einen Aufruf des von der EU-geförderten Projekts CitiObs an bürgerwissenschaftliche Initiativen (Citizen Science), sich ihrer Allianz anzuschließen. In ihr bekommt man exklusiven Zugang zu nützlichen Werkzeugen, kostengünstigen Sensoren, Trainingsmaterial und Workshops. Vor allem aber soll es um die Vernetzung der einzelnen Initiativen gehen, auch mit lokalen FabLabs und Makerspaces. Im Fokus stehen Messungen von Umweltdaten wie Luftverschmutzung, Lärm, Hitze und Wasserqualität.

Bürgerwissenschaftler waren es auch, die ein Objekt im Weltall identifiziert haben, das sich mit einer Geschwindigkeit von 1.600.000 Kilometer pro Stunde durch die Milchstraße bewegt, unter ihnen auch der Nürnberger Hobby-Astronom Martin Kabatnik.

Um einen Crowd-Sourcing-Aufruf handelt es sich auch bei #unsereFlüsse, bei dem Bürger Daten zum Umfeld von Bächen zuliefern sollen.

Open Source

Von den 542 erteilten Software-Entwicklungsaufträge im Verkehrs- und Digitalministerium von Volker Wissing (FDP) sind ganze drei Open Source. Dabei stand doch im Koalitionsvertrag “Entwicklungsaufträge werden in der Regel als Open Source beauftragt, die entsprechende Software wird grundsätzlich öffentlich gemacht”. Insgesamt ist von der vom Bund beauftragten Software gerade mal drei Prozent quelloffen. Also weiterhin Kein Public Money, public code beim Bund. Auch in den Rechenzentren geht man immer noch den Weg des geringsten Widerstands und setzt weiterhin auf VMWare als Virtualisierungslösung, auch wenn es seit der Übernahme der Firma durch Broadcom Ende 2023 zu drastischen Preissteigerungen kam, teilweise um das Zwölffache. Digitale Souveränität sieht anders aus, dabei gäbe es Alternativen, mit OpenStack auch im Open-Source-Bereich.

Gleiches Spiel im Gesundheitswesen: von den 800 Millionen Euro zur Digitalisierung des öffentlichen Gesundheitsdiensts flossen die Gelder hauptsächlich in kurzfristige Lösungen, bei denen man sich weiterhin “zu sehr von Microsoft abhängig” macht, entsprechend ausgeliefert ist man beim Aushandeln von Preisen und Lizenzgebühren. So wurde beispielsweise für ein und dieselbe Software für den Einsatz in allen landeseigenen Gesundheitsämtern von den Bundesländern elfmal Fördermittel beantragt. So entstehen weiter Doppelstrukturen statt langfristiger, krisensicherer, interoperabler Systeme.

Besser läuft es für die Weiterentwicklung und der Betrieb der Enterprise Edition von openDesk, eine Open-Source-basierte Office & Collaboration Suite für die Verwaltung: diese ist nun für die nächsten zwei Jahre abgesichert. openDesk kann dann entweder im SaaS-Angebot StackIT, dem Cloud Provider der Schwarz Gruppe, betrieben oder auch selbst im eigenen Rechenzentrum laufen gelassen werden. Auch in der Selfhosting-variante bekommt man professionellen Service und Support.

Für Kommunen gibt es mit der Smart Village App einen Open Source App Baukasten. Was diese App alles kann, hat Philipp Wilimzig in dieser Folge vom eGovernment Podcast ausführlich besprochen.

Das Hohenzollern-Gymnasium in Sigmaringen, das Georg-Büchner-Gymnasium in Seelze und der Landkreis Harz sind bisher gallische Dörfer, wenn es darum geht, alle Schulen mit Freien Betriebssystemen und Anwendungen auszustatten. Getreu dem Prinzip “Technik folgt Pädagogik”. Die ehrenamtliche Initiative cyber4edu zeigt, dass für alle benötigten Arbeitswerkzeuge entsprechende freie Open-Source-Software verfügbar ist. Besser also in Personal und in den Aufbau digitaler Kompetenzen investieren, statt das Geld in Lizenzen zu versenken.

Mittels der Kräfte von Open Source und Open Hardware ist es Thomas Megel aus Halle (Saale) gelungen, ein vollautomatisiertes Kopiergerät für 3D-Objekte zu bauen. Dazu wurden der Open-Hardware-3D Scanner OpenScan Mini aus dem OpenScan-Projekt und ein Prusa MK3S+ 3D-Drucker kombiniert und mit der Verarbeitungs-Pipeline OpenScanCloud, die dank Spenden, weiterhin kostenlos angeboten werden kann, verbunden.

Open Science

Im Open Economics Guide bietet die ZBW einen übersichtlichen Katalog von über 100 aktuellen Open-Science-Tools an.

Im Rahmen des BMBF-geförderten Projekts open-access.network 2 entstand die Handreichung “Neue Formen der Open-Access-Finanzierung”. Auf dem Blog des Projekts wird sich außerdem damit beschäftigt, wie man mit dem OER-Policy Kit Hürden für das Konzept der Open Educational Resources (OER) an Hochschulen überwinden kann, in dem sie die entsprechenden Schritte aus dem Leitfaden umsetzen.

Auf dem Barcamp Kiel wurde das Partyspiel “Research Data Scarytales” vom Thüringer Kompetenznetzwerk Forschungsdatenmanagement vorgestellt. Es soll auf spielerische Art illustrieren, welche Folgen Fehler im Datenmanagement haben können. Dazu wird für die jeweils wahre Geschichte ein verklausulierter Satz präsentiert, wie z.B. “Nachdem er seine Dateien geteilt hatte, war sein Team nicht mehr gut auf ihn zu sprechen.” und die Teilnehmenden müssen durch Fragen an den Spielleiter, der die Auflösung kennt, enträtseln, was konkret schief gelaufen ist.

Karten

Der GeoObserver gratuliert OpenStreetMap zum 20. Geburtstag. 10 Millionen Kontributoren beteiligen sich inzwischen an der Google-Maps-Alternative. Auch der ursprüngliche Schöpfer Steve Coast hat sich zum Jubiläum der Wiki-Map zu Wort gemeldet.

Doch noch immer gibt es auch bei OpenStreetMap weiße Flecken. So werden nun die Daten des Statistischen Bundesamtes genutzt, um zu erkennen, wo in Deutschland noch Gebäude in der OpenStreetMap fehlen. Tools und Apps wie MapRoulette und StreetComplete motivieren zusätzlich, solche Leerstellen zu füllen.

Die Daten von OpenStreetMap ermöglichen auch die Existenz freier Android & iOS Offline-Karten-Apps wie z.B. Organic Maps und NavigatorFree.

Was braucht es, um eine Karte zu zeichnen, in der die Kreise in Schleswig-Holstein in verschiedenen Farben dargestellt werden? Natürlich erstmal die Polygone der Kreise. Aber die Shape-Datei ist mehrere Megabyte groß, in GeoJSON konvertiert wird es nicht weniger. Unpraktisch für eine Web-Anwendung. OpenNorth zeigt, wie man die Datenmenge sinnvoll reduzieren kann.

Eine anschauliche Präsentation des Landschaftsraumes und der Siedlungsstrukturen in Österreich bietet der neue Datensatz “Landcover Austria” an Hand komplexer Kartenbilder auf dem Open Data Portal Österreich.

Wie heißen die Berge in meinem Sichtfeld und wie hoch sind sie? Das kann die iOS-App “Mont” von Thomas Weibel live in der Kamerasicht auf dem Handy anzeigen. Der Open-Source-Quellcode umfasst gerade mal 11kb.

Energie

Um den Energieverbrauch von (OpenSource-)Software zu senken, gibt es von Vlad einen Aufruf, sich doch dem informellen Forschungskollektiv lowcarbon.software anzuschließen (im Mastodon-Thread des Aufrufs selbst gibt es noch diverse Hinweise auf schon bestehende Initiativen und Ansätze).

In der Web-Anwendung Electricity Maps bekommt man live die CO2-Emissionen auf einer Karte visualisiert, die allein durch Stromverbräuche entstehen. Die Anwendung des gleichnamigen dänisch-französischen Startups steht auch Open Source auf Github. Die Daten selbst stammen aus öffentlich zugänglichen Datenquellen von Stromnetzbetreibern, Behörden und anderen Institutionen. Die Datenbank als auch der Zugang zur REST-API sind allerdings kostenpflichtig.

Mobilität

Der DELFI e.V. veröffentlicht schrittweise seit dem 01.08.2024 deutschlandweite Prognosedaten des ÖPNV (Pünktlichkeitsdaten) auf der Mobilithek. Erst am Ende des Jahres wird der Zugang unbeschränkt gewährt, da aktuell noch regional deutliche Unterschiede hinsichtlich Vollständigkeit und Qualität bestehen.

Auch die Deutsche Bahn wurde durch das Bundeskartellamt verpflichtet, Verspätungsdaten, Daten über Zugausfälle, aktuelle Gleisangaben und Informationen zu Großstörungen in Echtzeit an Mobilitätsplattformen weiterzugeben, und hat entsprechende Verträge mit diesen abgeschlossen.

Im Zentralen Haltestellenverzeichnis (ZHV), ebenfalls von DELFI, gibt es nun für ca. 1.500 Haltestellen mastscharfe Angaben. Entsprechend konnte auch der Vergleich der ZHV-Daten mit den Daten in OpenStreetMap aktualisiert werden. Welche Seite recht hat, muss in jedem Fall einzeln geprüft werden.

Als wie Fahrradfreundlich wird Deutschland wahrgenommen? Dazu hat Pascal aus dem Datawrapper-Team die Daten aus der 2022-Umfrage visuell ausgewertet und auch mit den Daten von 2012 verglichen.

Klima

David McCandless veröffentlicht seit 15 Jahren auf Information is beautiful (und inzwischen auch auf Mastodon) regelmäßig anschauliche interaktive Visualisierungen zu unterschiedlichen Themen, wie z.B. diese zum exponentiellen Anstieg von Emissionen aus fossilen Brennstoffen über die letzten 100 Jahre.

Offener Zugang zu (Forschungs-)Daten ist notwendige Bedingung, um die Klimakrise lösen zu können. Initiativen wie Open goes COP und Open Climate Data wollen bei Verhandlungen in kommenden Klimakonferenzen versuchen, dieses Anliegen mit auf den Tisch zu bringen.

So hat eine Studie des Potsdam-Instituts für Klimafolgenforschung offengelegt, dass von 1.500 Politikmaßnahmen gerade mal 189 die Emissionen tatsächlich gesenkt haben.

Eine vom Bundeswirtschaftsministerium in Auftrag gegebene Studie, um Art, Höhe und Auswirkung von klimaschädlichen Subventionen zu ermitteln, wurde, obwohl schon November 2023 abgeschlossen, nun erst, neun Monate später (nach Abschluss der Haushaltsverhandlungen), für die Öffentlichkeit freigegeben. Aus ihr geht unter anderem hervor, dass die 35,8 Milliarden Euro Subventionen und Begünstigungen (wie z.B. das Dienstwagenprivileg und die Entfernungspauschale) im Jahr 2020 hochgerechnet bis 2030 zu insgesamt 156 Mio. Tonnen klimaschädlichen Emissionen in den Sektoren Energie, Verkehr, Industrie und Landwirtschaft führen.

Stattdessen versuchen Staaten weltweit zivilgesellschaftliches Engagement, auch im Umweltbereich, immer mehr einzuschränken, auch in Deutschland.

Mit 28,9 Grad medianer Oberflächentemperatur war das Mittelmeer so warm wie noch nie. Der Weltklimarat bezeichnet das Meer als einen Hotspot des Klimawandels.

Mit dem Online-Tool CityTree der Technischen Universität München (TUM) kann man simulieren, welche Stadtbaumarten an welchen Standorten besonders gut wachsen. In der Simulation kann man zwischen 34 Städten und 12 Baumarten wählen. Je nach gewählter Bodenart, Lichteinfall und Bodenversiegelung werden mit biologischen, physikalischen und chemischen Gleichungen berechnet, wie der Standort und das Klima das Wachstum und die Ökosystemleistungen der Baumart beeinflussen. Als Datengrundlage wurden dafür 5600 Stadtbäume deutschlandweit analysiert.

Geschichte

Historische Fotos mit dem heutigen Zustand digital überblenden kann man in Zeitsprung Weimar. Stetig kommen weitere Fotopaare hinzu.

Auch in Regensburg soll mit dem Projekt Inklusives Welterbe historische Sehenswürdigkeiten über eine digitale Anwendung barrierefrei und niederschwellig erlebbar werden.

Transparenz / Investigativrecherchen

Im August ist das Lobbyranking 2024 von Transparency International Deutschland veröffentlicht worden. Aus ihm geht hervor, dass 13 der 16 Bundesländer nicht einmal die Hälfte der Kriterien des Lobbyrankings erfüllen. Ein schlechtes Signal beim ohnehin schon bröckelnden Vertrauen in demokratische Institutionen. Das Handelsblatt hat zudem analysiert, welche Verbände den größten Einfluss haben, weil sie z.B. besonders häufig in Leitmedien zitiert werden. Auch eine 46.000 Euro teure Anzeigenkampagne des Finanzministerium steht im starken Verdacht, mit Steuergeldern Wahlwerbung für die FDP betrieben zu haben.

Sportwetten im Amateurfußball sind in Deutschland verboten - und doch werden sie auf internationalen Wettportalen angeboten, auch in deutscher Sprache. Doch woher kommen die Daten über Freistöße, gelbe Karten und Tore in Echtzeit? Offensichtlich müssen sogenannte Daten-Scouts vor Ort sein, entsprechende Informationen erheben und an die Seiten der Buchmacher weiterleiten. Statt vom Deutschen Fußballbund (DFB) mussten diese Missstände erst durch ein Team aus Investigativ-Journalisten und Datenexperten aufgedeckt werden.

Und sonst so?

Die eGovernment Podcast Monatsschau bespricht weitere Digitalthemen, die im August relevant waren.

Auf der Webseite Free Public APIs findet man über 300 zusammengetragene frei zugängliche REST Endpunkte aus verschiedenen Kategorien (und mit variierender Nützlichkeit und Ernsthaftigkeit), die auch regelmäßig hinsichtlich Verfügbarkeit, Antwortzeiten und Fehlerrate automatisiert überprüft werden.

Veranstaltungen

Call for participation