26.03.2026 –, Bof3/Expert:innen (ZHG 006)
Deep Maps sollen ein Gegenentwurf zu als "autoritär" kritisierten thematischen Karten mit einem Einzelautor sein. Stattdessen können in Deep Maps verschiedene Perspektiven dargestellt werden, um diese Multiperspektivität zu Navigieren präsentiert das vorgestellte Projekt einen Ansatz eigene Pfade über diese Karten zu generieren und so Interaktion mit dem eigenen Pfad räumlich nahen Perspektiven anzuregen.
Motivation
Im Rahmen meiner Masterarbeit im Fach Computing in the Humanities an der Universität Bamberg habe ich mich mit der Umsetzung einer Deep Map zur Geschichtsvermittlung auseinandergesetzt. Durch meinen fachlichen Hintergrund in der Denkmalpflege interessierte mich speziell die Darstellung verschiedener Denkmalwerte, also Bedeutungszuschreibungen, die mit einem Gebäude beziehungsweise Gebäudekomplex verknüpft sein können.
In digitalen Karten eröffnet die Möglichkeit verschiedene Themenlayer auf der gleichen Kartengrundlage ein- und auszublenden Spielräume für komplexe Themenvisualisierungen, die in Papierkarten nicht realisierbar sind. Dies inspiriert dazu das Konzept von Deep Maps, das ursprünglich in literarischen Texten entwickelt wurde, um die verschiedenen Perspektiven auf einen Ort oder eine Region darzustellen, auf Kartendarstellungen anzuwenden [1]. Die Multiperspektivität provoziert in der kartografischen Praxis das Problem der visuellen Überfrachtung. Zur Begegnung dieses Problems stellt die vorliegende Arbeit, der Überlegung von [2] folgend, den Ansatz vor, über thematische und individualisierbare Pfade auf der Karte Nutzer*innen an das Explorieren der Karte zu führen.
Beispiele für digitale Karten, die als Deep Maps gelten können, da sie entweder mehrere Perspektiven oder mehrere Informationslayer inklusive Unsicherheiten zulassen, sind unter anderen: Mechthild’s Medieval Mystical Manuscripts Online [3], das Projekt „1935 Harlem Riot Map“ nicht mehr online aber beschrieben in [4] und [2] sowie Queering the Map [5].
Dazu ging es in der Arbeit sowohl um die Datenaufbereitung als auch um die Verarbeitung in ein Format, das sowohl auf einer Karte darstellbar ist, als auch über einen Ranking-Algorithmus geordnet und an den Interessen der Nutzer*innen orientiert zu einer Scroll-Story weiterverarbeitet werden kann.
Konzept / Status / Umsetzung
Die Webanwendung soll Nutzer*innen auf einem Fragebogen basierend eine individuelle Scroll-Story über die digitale Karte anbieten, anhand derer sie die Deep Map entdecken können, indem sie ihrer Scroll-Story folgen, aber auch benachbarte (oder komplett abgelegene) Infopunkte anklicken und so Zusammenhänge und Widersprüche entdecken können.
Die Grundidee war, aus bestehenden Texten Absätze zu extrahieren und sie mithilfe semantischer Ähnlichkeiten Themen zuzuordnen, die als für die Case Study relevant identifiziert wurden. Außerdem sollten zeitliche Einordnungen, räumliche Verortung und Akteur*innen über Named Entity Recognition (NER) extrahiert werden, um die Textexcerpte auf dieser Basis sortieren zu können.
Dies wurde an einer lokalen Case Study über die ehemalige ErBa Spinnerei und ihren Einfluss auf die Stadtgeschichte Bambergs demonstriert. Die eigentliche Deep Map wurde mithilfe mehrerer Veröffentlichungen zur ErBa erstellt, die in Textexcerpte und Bildelemente zerlegt wurden.
Die Textverarbeitung erfolgte in Python mit SpaCy. Die als Orte identifizierten Wörter wurden mit einer simplen GeoNames Abfrage georeferenziert. Entsprechend mussten die Orte manuell nachbearbeitet werden, wie auch andere strukturierte Daten kuratiert und zum Teil ergänzt werden mussten. Dabei wurde auch ein manueller uncertainty Wert eingeführt, mit dem unterschieden wird, ob eine Verortung gewählt wurde, weil der Ort explizit im Text vorkommt oder ob es sich um eine mehr oder weniger gute Einschätzung der nachbearbeitenden Person handelt. Die Nachbearbeitung, speziell zur Verortung erfolgte in QGIS. Besonders hilfreich war hier die schnelle, übersichtliche Darstellung über Label und Kategorisierungen. Zum Teil erfolgte die Nachbearbeitung aber auch direkt im GeoJSON, da der Import und Export der JSON Felder Probleme bereitete (Strings wo JSON sein sollte).
Auf den Textquellen basierend wurden einerseits Quizfragen erstellt, die das Vorwissen der Nutzer*innen ermitteln sollen (Ob zum Beispiel "Industrialisierung" erst erklärt wer-den muss). Andererseits wurden Interessensabfragen bereitgestellt, über die bestimmte Eigenschaften der Textexcerpte gefiltert werden. Zum Beispiel können Nutzer*innen angeben, ob sie besonders an persönlichen Schicksalen interessiert sind, was Textexcerpten mit Personennennungen ein höheres Gewicht gibt.
Anhand der Antworten auf den Fragebogen wird dann eine Scroll-Story mit mehreren Textexcerpten erstellt. Diese wird als Pfad auf der Karte dargestellt, wobei Punkte ohne Koordinaten auf der Linie zwischen dem letzten und nächsten verorteten Kartenpunkt interpoliert dargestellt werden.
Der Pfad beginnt je nach dem eingangs gewähltem Themenfeld mit einem festen Punkt und Textabschnitt, der "These" und sollte mit einer "Synthese", basierend auf den durch den Fragebogen individualisierten Textexcerpten, den "Argumenten“ enden. Dieser Mechanismus konnte auf Grund des redaktionellen Mehraufwandes der Erstellung der Textexcerpte im Rahmen der Arbeit nicht verwirklicht werden. Bereits die Tatsache, dass mit den direkten Textzitaten gearbeitet wurde, die in der Scroll-Story zum Teil se-mantisch nicht gut korrespondieren, ist unbefriedigend. Um dem entgegenzuwirken wurde ein Mechanismus getestet, um beim Ranking zu berücksichtigen, welche Textexcerpte aufeinander aufbauen, also nicht ohne einander vorkommen sollten. Dazu wurden direkt verbundene Excerpte über IDs verknüpft und persönlich kategorisiert, wie viel Vorwissend zum kontextlosen Verständnis des Textes nötig ist. Diese Katergorisierung spielt mit dem über das Quiz abgefragten Level an Vorwissen zusammen - bestimmte Textexcerpte sind nur für "Expert*innen" zu erreichen, um nicht zu verwirren.
In der Kartendarstellung wurde über Leaflet mit der OpenStreetMap als Basiskarte gearbeitet, auf der historische Karten georeferenziert sind. Außerdem sind relevante Gebäudeumrisse dargestellt. Diese wurden, sofern noch vorhanden, über OverPass extrahiert und andernfalls anhand der georeferenzierten Karten nachgezeichnet. Jedes Gebäudepolygon kann über einen Namen und eine ID zugeordnet werden. Erwähnungen der Gebäudenamen sind in den Textexcerpten entsprechen gehighlighted und ein Hover über den Namen löst einen Farbwechsel zum highlighten des Gebäudepolygons aus. Jedes so "entdeckte" Gebäude verändert daraufhin für den Rest der Session sei-ne Farbe, um den Nutzer*innen einen Eindruck zu vermitteln, zu welchen Gebäuden sie schon Informationen gefunden haben.
Zusätzlich sind auch einige kuratierte Themenrundgänge hinterlegt, die Nutzer*innen freischalten, indem ihr persönlicher Pfad mit diesen überlappt. Aktuell bedeutet das, dass sie ein Textexcerpt in ihrer Story haben müssen, das auch in dem Themenpfad vorkommt, perspektivisch sollte das aber über Nähe zu einem Themenpfad möglich sein. Wenn z.B. im Umkreis von 100m eines Zwischenstopps des personalisierten Pfades ein Zwischenstopp eines Themenpfades ist, soll dieser auf einem neuen Layer sichtbar werden.
Die Textexcerpte sind zum Teil manuell mit Bildern verknüpft, die entsprechend in der Textkarte in der Scroll-Story oder im Pop-up auf der Karte dargestellt werden. Zusätzlich sind Named Entitites im Text mit Links hinterlegt worden, die zusätzliche Informationen im Internet verlinken, auch diese Links sind bisher noch handverlesen. Die eigentliche Quelle ist unter dem Textzitat erwähnt und auf einer eigenen Seite der Anwendung kurz vorgestellt.
Ausblick
Ein Prototyp dieser Anwendungsidee ist für die Masterarbeit erstellt und getestet worden, hat allerdings noch viel Verbesserungspotential, sowohl in der Funktionalität als auch in der Visualisierung . Gerade der redaktionelle Aufwand für die Erstellung der Textexcerpte und der strukturierten Daten war ernüchternd, stellt aber ein klassisches Anwendungsfeld großer Sprachmodelle dar, sodass hier Verbesserungen zu erwarten sind. Über diese könnte auch die Verbesserung hin zu einer überzeugenden "These", "Antithese", "Argumente", "Synthese" - Struktur gelingen. Allerdings stehen dem Gegenüber Copyrightaspekte. Für die Abschlussarbeit, die nicht zur Veröffentlichung gedacht war, wurde primär mit geschützten Texten gearbeitet (ohne LLM-Verarbeitung), interessant wäre die Übertragung auf freiverfügbare Quellen wie Wikipedia und lokale Wikis und Webseiten. In diesem Sinn stellt der Prototyp das Grundgerüst für ein dialogisches System mit angeschlossener kartenbasierter Visualisierung dar.
Neben den technischen Aspekten bleibt zu diskutieren, inwiefern sich der Ansatz bei der Menge an redaktionellen Eingriffen, ob durch Mensch oder KI, eignet um die epistemische Gewalt der Einzelautorschaft zu brechen, beziehungsweise durch welche Erweiterungen dies gelingen könnte.
[1] DJ BODENHAMER et al. Deep Maps and Spatial Narratives. Bloomington, UNITED STATES: Indiana University Press, 2015.
[2] S Robertson und LA Mullen. Navigating through narrative. In: Making deep maps: foundations, approaches, and methods. Routledge spatial humanities series. Abingdon: Routledge, 2022, pp. 132–147
[3] https://www.helftamysticism.org (abgerufen am: 2.2.2026)
[4] S Robertson. Toward a Spatial Narrative of the 1935 Harlem Riot. Oct. 2016. https://drstephenrobertson.com/presentation/toward-a-spatial-narrative-of-the-1935-harlem-riot/
[5] https://www.queeringthemap.com/ (abgerufen am: 2.2.2026)
[6] Dornheim, Andreas, Svenja Gierse, und Stefanie Eva Kießling, Hrsg. Erba - verwobene Geschichte: Begleitheft zur gleichnamigen Ausstellung im Rahmen der Landesgartenschau Bamberg 2012 vom 26. April bis zum 7. Oktober. 1 . Aufl. Edition Hübscher. Landesgartenschau, Memmelsdorf. Genniges, 2012.
Nach einem Bachelor in Architektur und einem Master in Denkmalpflege kam Anastasia Bauch während eines zweiten Masters in Computing in the Humanities über das UrbanMetaMapping Projekt mit der Digitalisierung historischer Karten in Kontakt und möchte historische Geodaten digital zugänglich machen, um daraus vernetzte Projekte (Deep Maps?) zu erstellen und der Frage nachzugehen, was eigentlich Deep Maps sind. Aktuell geht Anastasia im Projekt ProSaDi Provenienzketten und deren Unsicherheiten nach.