Accesso libero

Ein neues Gedächtnis für die Verwaltung: born digitals und die Wissenschaft. Ein Tagungsbericht

INFORMAZIONI SU QUESTO ARTICOLO

Cita

Im Umgang mit digitalen Daten hat vor Kurzem ein Narrativ der Krise das andere abgelöst: Nach den Warnrufen, dass uns ein »digital dark age« drohe, steht nun die Überforderung durch die schiere Masse an Daten im Vordergrund.

Terry Kuny: A Digital Dark Ages? Challenges in the Preservation of Electronic Information, in: International Preservation News 17 (1998), S. 8–13; Roy Rosenzweig: Scarcity or Abundance? Preserving the Past in a Digital Era, in American Historical Review 108/3 (2003), S. 735–762; Ana Lúcia Migowski: Digital Dark Age. An Overview for the Humanities and Social Sciences, in: On_Culture 1 (2016), online unter: http://geb.uni-giessen.de/geb/volltexte/2016/12071/ (30. 09. 2022).

Aus dem Blick gerät in beiden Erzählungen, dass das Dokumentieren administrativer Unterlagen im deutschsprachigen Raum bereits um 1900 als Herausforderung betrachtet wurde. Verwaltungsschriftgut durchlief in diesem Zeitraum eine mediale Transformation: Die Schreibmaschine setzte sich schrittweise durch, neue Vervielfältigungsmethoden wie das Durchschlagspapier vereinfachten das Anfertigen von Abschriften, und Verwaltungsreformbewegungen drangen (noch im ersten Viertel des 20. Jahrhunderts) auf die Einführung der losen anstelle der gebundenen Aktenblätter.

Cornelia Vismann: Akten. Medientechnik und Recht, Frankfurt 2000; Michael Moss / David Thomas: How the File was Invented, in: Administory 4 (2019), S. 28–52.

Zugleich übernahmen die staatlichen Archive eine neue Aufgabe: Sie avancierten in der zweiten Hälfte des 19. Jahrhunderts langsam zu Behördenarchiven.

Michael Hochedlinger: Österreichische Archivgeschichte. Vom Spätmittelalter bis zum Ende des Papierzeitalters, Wien 2013, S. 380, 391; Stefan Berger: The Role of National Archives in Constructing National Master Narratives in Europe, in: Archival Science 13/1 (2012), S. 1–22; Markus Friedrich: Die Geburt des Archivs. Eine Wissensgeschichte, München 2013, S. 277–281.

Das archivalische Interesse begann, sich von den mittelalterlichen Urkunden auf die (früh-)neuzeitlichen Akten auszuweiten. Die etablierten archivwissenschaftlichen Methoden der Diplomatik und Paläografie reichten nicht mehr aus, um diese behördlichen Unterlagen zu ordnen.

Mario Wimmer: Revisions and Revisionisms in H.O. Meisner’s Modern Diplomatics of Files. An Essay in the Historical Anthropology of Bureaucratic Mediocracy, in: Administory 4 (2019), S. 87–109.

Archivare bemühten sich daher um eine analytische Klassifizierung und Beschreibung des neuen Verwaltungsschriftguts. Ab dem späten 19. Jahrhundert entwickelte sich dazu ein reger Austausch über archivalische Ordnungsbegriffe und -praktiken.

Mario Wimmer: Die kalte Sprache des Lebendigen. Über die Anfänge der Archivberufssprache (1929–1934), in: Peter Becker (Hg.): Sprachvollzug im Amt. Kommunikation und Verwaltung im Europa des 19. und 20. Jahrhunderts, Bielefeld 2011, S. 45–74.

Eine Neuerung im Archivierungsprozess war es, Unterlagen nicht mehr nach ihrem Inhalt (›Pertinenzprinzip‹), sondern nach ihrem Ursprung zu ordnen. Zwar hatte dieses sogenannte ›Provenienzprinzip‹ eine längere Geschichte, nun wurde es jedoch zu einem explizierten Grundsatz archivalischer Ordnung erhoben: In Frankreich und Belgien war es bereits seit den 1840er-Jahren gebräuchlich, Heinrich von Sybel führte es 1881 verbindlich im Geheimen Preußischen Staatsarchiv ein; S. Muller, J. A. Feith und R. Fruin vertraten es in ihrem 1898 erschienen Handbuch »Handleiding voor het ordenen en beschrijven van archieven«, das im deutschsprachigen Raum breit rezipiert wurde.

Shelley Sweeney: The Ambiguous Origins of the Archival Principle of ›Provenance‹, in: Libraries & the Cultural Record 43/2 (2008), S. 193–213; Hochedlinger: Archivgeschichte, S. 380; Mario Wimmer: Archivkörper. Eine Geschichte historischer Einbildungskraft, Konstanz 2012, S. 69–109, insbes. S. 82–91.

In diesen Bemühungen um eine neue Ordnung spiegelten sich zudem weitergehende Ambitionen des Dokumentierens wider.

Monika Dommann: Dokumentieren. Die Arbeit am institutionellen Gedächtnis in Wissenschaft, Wirtschaft und Verwaltung, in: Jahrbuch für europäische Verwaltungsgeschichte 20 (2008), S. 277–299.

Internationale Organisationen wie das Institut International de Bibliografie strebten danach, die wahrgenommene Überfülle an Schriftgut durch internationale Klassifikationsstandards zu ordnen und zugänglich zu machen.

Stefan Nellen: Das Wesen der Registratur. Zur Instituierung des Dokumentarischen in der Verwaltung, in: Renate Wöhrer (Hg.): Wie Bilder Dokumente wurden. Zur Genealogie dokumentarischer Darstellungspraktiken, Berlin 2015, S. 225–248.

Aber die Versuche, schriftliche Behördenkommunikation zu strukturieren, beschränkten sich nicht auf das Archiv, sondern zielten auch auf die Verwaltung selbst. Dort richteten sie sich etwa auf die Registratur. Die Registratur sollte nun von einem chronologisch operierenden Protokoll zu einem sachlogisch geordneten Registraturplan umgestaltet werden. Diese neue Registraturplanordnung sollte Verwaltungshandeln besser dokumentieren und seine Wiederauffindbarkeit garantieren.

Ebd.

Zugleich sollte diese Ordnung in der Lage sein, auch zukünftige Fälle des Verwaltungshandelns in sich aufzunehmen. Darüber hinaus bildete die (Alt-)Registratur den Schnittpunkt zwischen Behörde und Archiv, sie lieferte die erste Ordnung des Schriftguts, auf die ihre archivalische Erschließung aufbauen konnte.

Die etablierte Ordnung des papiernen Verwaltungsschriftguts war also das kontingente Resultat eng miteinander verflochtener medialer, organisatorischer und konzeptioneller Neuerungsprozesse in Verwaltungen und Archiven. Sie blieb zudem stets fragil. So konstatiert Holger Berwinkel: »Die Kanzleigeschichte des 20. Jahrhunderts ist eine Geschichte abnehmender Verschriftlichung.«

Holger Berwinkel: Zur Kanzleigeschichte des 20. Jahrhunderts. Ein Versuch, in: Holger Berwinkel / Robert Kretzschmar / Karsten Uhde (Hg.): Moderne Aktenkunde, Marburg 2016, S. 29–50, hier S. 30.

Diese Entwicklung bedeutete nicht notwendigerweise, dass die Schriftlichkeit in der Verwaltung zurückging, aber die Dokumentation des Handelns von Behörden verlor an Kohärenz und Wiederauffindbarkeit. Die Einführung von Textverarbeitungsprogrammen und elektronischen Kommunikationsmitteln bedeutete zunächst eine Entformalisierung administrativer Schriftlichkeit.

Ebd., S. 11f.

Bereits 1986 stellte Hermann Bannasch fest, dass der Bedeutungsverlust der Registratur einerseits, das Anwachsen der Unterlagen und ihrer Ausdifferenzierung durch elektronische Datenverarbeitung andererseits bedeutende Herausforderungen für die Dokumentation des Verwaltungshandelns darstellten.

Hermann Bannasch: Archiv und Registratur auf dem Weg in die Informationsgesellschaft. Die Reform des Registraturwesens und die Einführung der elektronischen Bürokommunikation in der Landesverwaltung Baden-Württemberg, in: Der Archivar 39/3 (1986), S. 291–312, hier S. 291–294.

Wie nativ digitales Behördenschriftgut archiviert werden könnte, stand im Zentrum des Workshops »born digitals und die historische Wissenschaft – Annäherungen an eine Quellenkunde für genuin elektronisches Archivmaterial«, der am 30. und 31. August 2022 im Landesarchiv Nordrhein-Westfalen stattfand. Anders als die Rationalisierungsutopien um 1900 drehte sich der Workshop jedoch nicht allein um technische Lösungsansätze. Stattdessen fragte die Tagung konsequent auch nach den Prämissen und Prozessen digitaler Archivierungswerkzeuge und dem Erkenntnisinteresse, das an elektronische Verwaltungsunterlagen herangetragen wird.

Der Workshop wurde organisiert vom Landesarchiv Nordrhein-Westfalen. Die Konzeption der Tagung als Verflechtung technologischer, epistemologischer und methodologischer Fragen wurde im zeitlichen Vorfeld gemeinsam mit einigen der Teilnehmenden in einer Videokonferenz entwickelt. Dr. Frank M. Bischoff (Landesarchiv Nordrhein-Westfalen) und Prof. Dr. Andreas Fickers (Universität Luxembourg) eröffneten den Workshop, der einen Dialog von Archiven und historischer Forschung »auf Augenhöhe« ermöglichen sollte. Damit ging der Workshop über die disziplinären Grenzen hinaus, die gegenwärtige Debatten kennzeichnen.

Dieses Format erwies sich als äußerst fruchtbar. Bereits in den beiden einführenden Vorträgen von Andreas Fickers und Dr. Bettina Joergens (LAV NRW) kamen die technische und analytische Dimension des Umgangs mit genuin elektronischen Unterlagen zum Tragen. Beide Vortragenden betonten, dass die Digitalisierung die Archiv- und Geschichtswissenschaften in ihrem bisherigen Selbstverständnis und ihren Handlungsweisen grundlegend verändere (Fickers). Sie müssten daher ihr methodologisches Handwerkszeug von einer Quellenkunde und -kritik zu einer Datenkunde und -kritik (Jörgens) weiterentwickeln. Dazu bedürfe es der Kooperation und einer gemeinsamen Terminologie. Es brauche daher neue methodologische Zugänge, um Daten in ihrer quantitativen und qualitativen Dimension angemessen analysieren zu können. So regte Fickers dazu an, dass wir Methoden des scalable reading entwickeln müssen, die distant reading in Form von text mining mit close reading, d. h. qualitative Analyse miteinander verbinden. Ebenso sei es jedoch erforderlich, betonte Jörgens, die digitalen Strukturen und die digitalen Archivierungsprozesse zu verstehen, um die Aussagekraft einer Quelle und die dahinterstehenden Authentifizierungsstrategien kritisch beurteilen zu können.

Diese Themen wurden in den folgenden beiden Vortragsgruppen aufgegriffen. Unter dem Titel »Digitalisierung der Verwaltung und Digitalisierung aller künftigen Quellen« behandelte zunächst Dr. Bastian Gillner (LAV NRW) eingehend die Herausforderungen, die sich aus dem Wechsel von der Papier- zur elektronischen Akte ergeben: Der gleichzeitige Verlust eines einheitlichen Trägermediums (Papier) und eines einheitlichen Ordnungsprinzips (Akte) im Sinne einer konsequenten Aktenführung habe einer neuen Unübersichtlichkeit der Überlieferung Vorschub geleistet. Demgegenüber demonstrierte Prof. Dr. Malte Thießen (LWL Institut für westfälische Regionalgeschichte) vor allem die neuen Erkenntnischancen einer historischen Analyse der Digitalisierungsprozesse der Verwaltung. So ließen sich (im Idealfall) anhand der digitalen Dokumentenhistorie die Aushandlungsprozesse in der Verwaltung offenlegen, allerdings hat die Digitalisierung im alltäglichen Verwaltungshandeln diese Überarbeitungsprozesse oft unsichtbar werden lassen. Webseiten und Social-Media-Konten von Behörden ermöglichen es, die neuartige Selbstdarstellung der Verwaltung und ihre Kommunikation nach außen zu untersuchen. Anhand von E-Mail und Messenger-Diensten könne man schließlich Einblick in die internen Kommunikationsstile und Formen der Schriftlichkeit gewinnen. Dieses analytische Potenzial sei jedoch abhängig von der Überlieferungslage. Daher plädierte Thießen für einen Trialog zwischen Historiker*innen, Archivar*innen und den Behörden.

Den »Spezifika elektronischer Unterlagen« waren die nächsten Vorträge gewidmet. Dr. Christine Friederich (Sächsisches Staatsarchiv) beleuchtete drei Spezifika elektronischer Unterlagen und ihre Folgen für die Archivierung: ihre 1) Variabilität, 2) Verteiltheit und 3) Quantität. Im Behördenvollzug sei die Gestalt elektronischen Schriftguts vom Endgerät der Nutzer*innen abhängig. Daher könne das ›look & feel‹ nicht das Ziel der Archivierung sein. Stattdessen werde das Schriftgut in Dateiformate übertragen, die für die Langzeitarchivierung geeignet sind. Elektronische Unterlagen seien deswegen ein stark gestaltetes Archivobjekt. Dazu trage bei, dass elektronische Unterlagen auf unterschiedliche Werkzeuge (z. B. Fachverfahren, E-Akten-Systeme oder E-Mail-Accounts) verteilt seien. Dadurch ließen sich einheitliche, nach dem Provenienzprinzip geordnete Bestände nicht mehr so einfach schaffen. Insgesamt komme dadurch den Daten und Metadaten besonderes Gewicht zu, da Archivbenutzer*innen noch stärker als bisher auf die Überlieferungsqualität angewiesen seien. Dr. Martin Schmitt (TU Darmstadt) trat in seinem Vortrag für die Archivierung von Software ein. Denn Software seien Machtprozesse eingeschrieben, die sich mit den etablierten Quellengattungen zur Anleitung und Implementierung, wie etwa Handbücher oder Schulungsunterlagen, nicht ausreichend fassen ließen. Zudem kann der Code, wie Schmitt anhand seiner Forschung zu den Sparkassen in der Bundesrepublik und der Deutschen Demokratischen Republik demonstrierte, transnationale Austauschprozesse offenlegen, die über andere Quellen nicht sichtbar werden. Es sei daher wichtig, den Programmcode und am besten auch lauffähige Software-Umgebungen zu archivieren. Allerdings sei eine solche Aufbewahrung von entsprechender Hard- und Software nicht allein Aufgabe staatlicher Archive.

Die folgenden beiden Sektionen, die sich über beide Tage erstreckten, widmeten sich unterschiedlichen Typen digitaler Quellen. Dr. Kai Naumann (Landesarchiv Baden-Württemberg) und Dr. Katrin Moeller (Universität Halle) stellten gemeinsam Zugänge zu »Officedateien, Bilddateien, Personenbezogene Dateien« vor. Die Vortragenden beleuchteten das Spannungsverhältnis zwischen dem Interesse der Wissenschaft an multiperspektivischen Datensätzen einerseits und dem Datenschutz andererseits. Daher sei zum einen ein Instrumentarium der Anonymisierung/Pseudonymisierung notwendig. Zentral sei jedoch in datenschutzrechtlicher Hinsicht, zwischen der Archivierung und der Art des Zugangs zu den archivierten Daten zu differenzieren. Zum anderen sollten Daten nicht in Container-Formaten archiviert werden, stattdessen gelte es sicherzustellen, dass sie maschinell auswertbar seien. Bei Office- und Bilddateien bringe die Digitalisierung zwar Herausforderungen mit sich, etwa die potenziell schwache Strukturierung elektronischer Ablagesysteme, die Vervielfachung von Doppelungen oder die geringe Authentizität digitaler Fotos. Allerdings biete die Digitalisierung auch Vorteile, wie etwa die automatische Ausstattung von Dateien mit Metadaten. Darüber hinaus existierten bereits jetzt performante Werkzeuge, die neue Ordnungsmöglichkeiten erschließen, etwa Entitätserkennung, clustering oder sentiment detection sowie das automatisierte Erkennen von Doppelungen.

Diese Verbindung von theoretischen und praktischen Dimensionen kennzeichnete auch die folgenden Vorträge. Ausgehend von der Beobachtung, dass »Emails« nicht einfach in etablierte aktenkundliche Ordnungen passen, beleuchtete Maria Benauer, BA MSc (Universität Wien) archiv- und kulturwissenschaftliche Zugänge zur Erfassung von E-Mails. Zentral sei dafür eine Verschiebung der Perspektive: E-Mails stellten nicht nur einzelne Nachrichten dar, die im Rahmen eines Geschäftsgangs textuelle Informationen transportierten. Sie seien ebenfalls Korrespondenzen im Sinne von Nachrichtensammlungen. Darüberhinausgehend fungierten E-Mail-Programme jedoch auch als Nachrichtenordnungssysteme, obwohl sie dafür nicht primär gedacht seien, und könnten weitere Aufgaben des personal management übernehmen, wie etwa Terminkalender. Die archivalische Bewertung und Überlieferung von E-Mails müsse daher multiperspektivisch erfolgen und unterschiedliche stakeholder involvieren. Im Anschluss präsentierte Dr. Esther Howell (IfZ München) das neuartige Programm ePADD zur Archivierung von E-Mails. An der Universität Stanford entwickelt und open source verfügbar umfasst ePADD mit machine learning und natural language processing zentrale Werkzeuge zum Bewerten und Erfassen von E-Mails. Es biete jedoch ebenso eine Zugriffsoberfläche mit Suchfunktion für Nutzer*innen. Abschließend warf Esther Howell die Frage auf, ob deutsche Archive nicht ebenfalls ein solches Programm benötigen würden, und ob man es selbst entwickeln oder durch Kooperation mit internationalen Projekten erarbeiten sollte.

Zum Thema »Websites und Social Media« stellte Dr. Pascal Föhr (Staatsarchiv Solothurn) vor allem zwei Problemkomplexe der Archivierung in den Vordergrund: Erstens mache es die Variabilität dieser Quellen grundsätzlich notwendig, zu entscheiden, was ›archivwürdig‹ sei. Dies betreffe sowohl die einfache Veränderbarkeit einzelner Inhalte auf Text- und Bildebene, aber tiefergehend auch die Darstellung von Inhalten. Denn sie sei durch Algorithmen und responsive design an die Endgeräte und das Verhalten der Nutzer*innen angepasst. Schließlich stelle sich die Frage, ob der Webseitenkontext, wie etwa Werbebanner oder Verlinkungen, ebenfalls zu archivieren sei. Zweitens seien spezifisch für Behördenportale außerdem explizite rechtliche Grundlagen notwendig, um die Archivierung zu gewährleisten. Vor dem Hintergrund, dass eine einheitliche, stabile und einfache Möglichkeit fehle, Webseiten und Social Media zu archivieren, präsentierte Michael Jerusalem (Stadtarchiv Münster) zwei Archivierungsprojekte des Stadtarchivs Münster. Anhand der Beispiele eines Blogs und eines Twitter-Kontos konnte Jerusalem zeigen, wie das Archiv im Prozess der archivalischen Bewertung jeweils unterschiedliche signifikante Eigenschaften identifizierte und auf dieser Basis verschiedene Wege der Archivierung beschritt: der Blog wurde in das PDF/A-Format konvertiert, das Twitter-Konto via TWINT archiviert. Bei beiden Vorgehensweisen mussten jedoch Kompromisse zwischen den als signifikant definierten Eigenschaften und den technischen Möglichkeiten gemacht werden. Videos und GIFs gingen etwa in beiden Fällen verloren. Jerusalem schlug daher einen modularen Werkzeugkasten für die Web-Archivierung vor, da sich Lösungen für eine Webseite nicht auf andere übertragen ließen.

Anschließend führten Dr. Sigrid Schieber (Landesarchiv Hessen) und Dr. Franziska Klein (LAV NRW) im Rahmen eines »Workshops im Workshop« in die »elektronische Akte« und das »Fachverfahren« ein. Beide Vortragende betonten erneut die Bedeutung der Quellenkritik im Umgang mit e-Akten und datenbankgestützten Fachverfahren. Zum einen sei es wichtig, die Funktionsweisen und -logiken der zugrundeliegenden DMS-Erfassung bzw. Datenbanksysteme zu kennen. Erst dieses Wissen ermögliche es, die automatisch generierten Metadaten, Referenzen und Versionsverläufe zu beurteilen. Zum anderen unterscheide sich die archivierte Form der e-Akte bzw. des Fachverfahrens stark von ihrer Darstellung und Funktionsweise während des Geschäftsgangs. Der Grund dafür liegt in der Umwandlung in ein langzeitarchivierungsfähiges Dateiformat (PDF/A bei e-Akten und Berichten bzw. SIARD bei Datenbanken). Dies betrifft nicht nur mögliche Wandlungs- und Metadatenfehler, sondern vor allem auch den Verlust des ›look & feel‹, z. B. den Verlust strukturierender Ordner. Vor diesem Hintergrund müsse reflektiert werden, wie stark der technische Prozess der Archivierung in die Überlieferungsbildung eingreift. Denn aus den archivierten Unterlagen lasse sich nicht auf die technischen Bedingungen des Handelns von Behörden und nur sehr eingeschränkt auf Kommunikationsverläufe rückschließen, da sie sich in ihrer Darstellung und Funktion drastisch von ihrer Anwendungsgestalt in der Verwaltung unterscheiden.

In den anregenden Diskussionen im Verlauf der beiden Tage rückten die Teilnehmer*innen immer wieder in den Vordergrund, dass die aktive Rolle der Archive in der Überlieferungsgestaltung stärker mitbedacht

Frank M. Bischoff: Bewertung elektronischer Unterlagen – und die Auswirkungen archivarischer Eingriffe auf die Typologie zukünftiger Quellen, in: Archivar 67 (2014), S. 40–52.

und in der archivalischen Aufbereitung der nativ digitalen Unterlagen reflektiert werden sollte. Gleichzeitig sei über die Interaktion mit Archivnutzer*innen nachzudenken. So regte Fickers an, neuartige Schnittstellen so zu gestalten, dass sie auch einen systematischen Rückfluss von Nutzer*innenwissen ermöglichen.

Siehe etwa das Pilotprojekt zur ›partizipativen Bewertung‹ im Schweizerischen Bundesarchiv: o.A.: Partizipative Bewertung im BAR. Auswertung Pilot und Überführung Betrieb, Bern 2019, online unter: https://www.bar.admin.ch/dam/bar/de/dokumente/diverses/Bericht%20BAR%20Pilot%20partizipative%20Bewertung.pdf.download.pdf/Bericht%20Auswertung%20Pilot%20partizipative%20Bewertung%20BAR.pdf (30. 09. 2022); programmatisch siehe auch: Michelle Caswell: Toward a Survivor-Centered Approach to Human Rights Archives. Lessons from Community-Based Archives, in: Archival Science 14/3–4 (2014), S. 307–322.

Darüber hinaus sei es von Bedeutung, verschiedene Gruppen von stakeholdern einzubinden. Der nachhaltige Aufbau digitaler Archivierungsinfrastrukturen benötige die Kooperation zwischen Archiven, historischer Forschung und führenden öffentlichen Fördereinrichtungen, und zwar sowohl auf nationaler als auch internationaler Ebene.

Siehe auch: Bastian Gillner / Christoph Schmidt: Arbeitskultur und Kommunikation. Ein Kommentar zu den aktuellen Herausforderungen archivischer Vorfeldarbeit, in: Archivar 73/3 (2020), S. 193–197.

Der Workshop begriff die Entwicklungen der letzten Jahrzehnte nicht als Krisen der Dokumentation, sondern als Transformation. Dabei erwies es sich als sehr fruchtbar, dass der Workshop einerseits Veränderungen in den Verwaltungspraktiken und Archivierungsstrategien gemeinsam betrachtete und andererseits archiv- und geschichtswissenschaftliche Anliegen miteinander verband. Neben den Herausforderungen gegenwärtiger Entwicklungen traten so immer wieder die Gestaltungspotenziale in den Vordergrund. Eine zukünftige Fortsetzung dieses Dialogs könnte die Automatisierung der Archivprozesse in den Blick nehmen: Sie werden im Fokus der kommenden Jahre stehen, um die Menge an Quellen zu bewältigen.

Ross Harvey: Preserving Digital Materials, Berlin 22012, S. 205.

Darüber hinaus beleuchteten die Diskussionen auf dem Workshop wiederholt die schwerwiegenden rechtlichen Implikationen und Herausforderungen der Digitalisierung des Verwaltungshandelns. Umso notwendiger ist es, technologische Neuerungen weiterhin auf ihre epistemologischen, methodologischen sowie gesellschaftlichen Implikationen hin zu befragen.

eISSN:
2519-1187
Lingua:
Inglese