14 // Netzwerke als Daten
Trockenübungen
- Sind Bilder und multimodale Inhalte ethisch anders zu bewerten? Weshalb (nicht)?
- Welche beiden Formate von Bildern sind gängig?
- Nach welchen vier grundsätzlichen Schritten erfolgt üblicherweise die Spracherkennung?
- Die Erkennung von Videos kann nach drei unterschiedlichen Analyseverfahren erfolgen. Nach welchen?
Praxisübungen
Visuelle Daten
Um selbst mit visuellen Daten aktiv zu werden, bietet sich etwa der MNIST-Datensatz an. Einen Einstieg etwa mit Random-Forest-Algorithmen für Python und R bieten van Atteveldt, Trilling und Arcila.
Um auf Dienstleistende zurückzugreifen, bieten sich folgende Einstiege an:
Audio-Daten
Um selbst aktiv zu werden, geben frei verfügbare Lösungen wie Kaldi Speech Recognition, Mozilla Deepspeech oder Mycroft (das kostenfrei als Software ist, aber kostenpflichtige Assistenzsysteme bietet) gute Anhaltspunkte. Als Datensätze bieten sich für den Einstieg LibriSpeech und Mozilla Common Voice an.
Als Dienstleistende bieten sich etwa an:
Audiovisuelle Daten
Selbst Modelle für die Klassifizierung von Videos zu trainieren, ist gerade im Einstiegsniveau der CCS nicht empfehlenswert. Wer es unbedingt versuchen will, findet mit torchvision als Teil der PyTorch-Bibliothek für Python einen Startpunkt.
Stattdessen bieten sich einige Dienstleistende auch dafür an:
Geo-Daten
Mit Geo-Daten zu arbeiten, ist vor allem eine manuelle Aufgabe der Datenzusammenführung und des Datenmanagements. Dafür gibt es zahlreiche Quellen, die es zu kennen gilt. Sie listen wir hier zunächst auf.
- Informationen zur Welt, etwa Bevölkerungszahlen, finden sich bei der Weltbank oder den Vereinten Nationen.
- Infos zu Deutschland finden sich beim statistischen Bundesamt, regionalere Infos auch bei den zahlreichen statistischen Landesämtern oder manchmal auch städtischen oder institutionellen Open-Data-Portalen, die bei govdata gesammelt werden.
- Kartenmaterial und Verortungen sind auch über APIs zugänglich, etwa bei Google Maps und Google Routes, Apple Maps, mapbox oder der mächtigen OpenStreetMap. Auch Routen lassen sich so berechnen, nicht zuletzt auch bei den Anbietern von Navigations- und Automobilsoftware, etwa here, tomtom, Geoapify oder openroute.
- Außerdem gibt es Kartenmaterial von offiziellen Stellen, etwa beim Bundesamt für Kartographie und Geodäsie oder schlicht über die Suchfunktion von govdata.
Darüber hinaus bieten sich einige Einführungen an, ein technisches Verständnis von den Herausforderungen zu vermitteln:
- Cary Anderson hält einen ganzen Kurs über Kartographie und Visualisierung, mit einem Abschnitt für den Datenjournalismus.
- Jacques Marcoux gibt einen Einblick für Datenjournalist:innen.
- IBM informiert über Geo-Daten und die Aufgaben, die bei großen Datenmengen damit einhergehen.
- Der Geoinformationsdienst (GIS) hält Informationen zu Open-Source-Geo-Daten vor.
Lösungsansätze
Ab hier folgen nun verschiedene Lösungswege zu den oben vorgestellten Übungen. Damit Sie die nicht “versehentlich” überscrollen und so Ihrer Übungsmöglichkeiten beraubt werden, folgt hier zunächst ein visueller Bruch.

Trockenübungen
- In der Regel ja, weil sie näher an menschlichen Kommunikationsmodi liegen und mehr(ere) Sinne ansprechen. Menschen bringen solchen Inhalten deshalb typischerweise mehr Aufmerksamkeit und auch mehr Glaubwürdigkeit entgegen und sind entsprechend anfälliger für derart gestaltete Persuasionsversuche. Verfahren des maschinellen Lernens sind im Umgang mit Bildern und multimodalen Inhalte darüber hinaus aktuell noch etwas fehleranfälliger und bedürfen eines höheren Rechenaufwands.
- Raster- (speichern je Pixel einen Farbwert; zB jpg, png) und Vektor-Format (speichern Formen und Koordinaten, zB svg).
- (1) Schallwellen digitalisieren und in Oszillogramm überführen, (2) Signal in Bestandteile (zB Wörter) zerteilen, (3) Bestandteile abstrahieren und in eine Art Vektor-Abbildung überführen, (4) Vektor-Abbildung mit Referenzdatenbank abgleichen.
- Bei der (1) Standbildanalyse werden einzelne Standbilder analysiert. Bei der (2) Objektanalyse werden spezifische Objekte (Menschen, Tiere …) erkannt und über die Zeit verfolgt. Bei der (3) Bild-Ton-Analyse werden, über die Zeitachse gekoppelt, auditive Signale als Hilfssignal für visuelle Signale zusätzlich eingebaut.