Wissen
Refine
Year of publication
Document Type
- Journal Article (70) (remove)
Language
- German (70) (remove)
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
Zeitgeschichte neurodivers? Standpunktepistemologie und (geschichts-)wissenschaftliche Kommunikation
(2022)
In der akademischen wie der breiteren Öffentlichkeit ist der Begriff der Diversität gegenwärtig nahezu universal anschlussfähig. Der Gründungsdirektor des Göttinger Max-Planck-Instituts zur Erforschung multireligiöser und multiethnischer Gesellschaften Steven Vertovec stimmt gar Loretta Lees zu, die schon 2003 bemerkte, mit Diversität verhalte es sich wie mit Mutterschaft oder Apfelkuchen: Man könne nur mit größeren Schwierigkeiten dagegen sein. In den letzten dreißig Jahren ist Diversität zunächst in den USA und dann auch in Westeuropa sowohl als sozialwissenschaftliche Analysekategorie wie auch als gesellschaftliche Selbstbeschreibung und zur Aushandlung von Teilhabeansprüchen immer bedeutsamer geworden. Diversität ist das normative Leitbild staatlicher und internationaler Antidiskriminierungsprogramme, die, wie etwa das Allgemeine Gleichbehandlungsgesetz von 2006 in der Bundesrepublik, »Benachteiligungen aus Gründen der Rasse oder wegen der ethnischen Herkunft, des Geschlechts, der Religion oder Weltanschauung, einer Behinderung, des Alters oder der sexuellen Identität […] verhindern oder […] beseitigen« sollen (§ 1). Das öffentliche Bekenntnis zu Diversität ist inzwischen eine Selbstverständlichkeit in Unternehmen und Organisationen, die oft Strategien des Diversitätsmanagements entwickeln. Der Ursprung dieser gesellschaftlichen Diversitätsbejahung liegt in der US-amerikanischen Bürgerrechtsbewegung der 1960er-Jahre, der zweiten Frauenbewegung, aber auch der Gay-, Lesbian- und Transgender-Bewegung sowie der Behindertenrechtsbewegung, die vor allem seit den 1970er-Jahren in den USA und in Westeuropa für die Anerkennung ihrer marginalisierten und diskriminierten Subjektpositionen stritten.
Wann und wie wandelten sich in der DDR-Gesellschaft langfristig politische Einstellungen und Wertorientierungen, wie sie dann 1989 in der Herbstrevolution sichtbar wurden? Anknüpfend an Konrad H. Jarauschs These von der »Umkehr« als fundamentalem Demokratisierungsprozess im geteilten Nachkriegsdeutschland untersucht der Beitrag die Möglichkeiten und Grenzen der Stellvertreterbefragungen, die das westdeutsche Meinungsforschungsunternehmen Infratest im Auftrag der Bundesregierung von 1968 bis 1989 durchgeführt hat. Befragt wurden westdeutsche Besucher der DDR über die Ansichten eines von ihnen definierten Gesprächspartners im ostdeutschen Staat, den sie besucht und mit dem sie ausführlich gesprochen hatten. Dieser Serie zufolge stand eine breite und wachsende »schweigende Mehrheit« der DDR-Einwohner dem System distanziert gegenüber, war aber weder im westlichen noch im östlichen Sinne besonders ideologisch präformiert. Sie maß die DDR vor allem an ihren praktischen Leistungen im Hinblick auf Lebensstandard und Perspektiven. Das Interesse an Politik sank ab Mitte der 1970er-Jahre, stieg dann aber wieder an und orientierte sich zunehmend an westlichen Politikformen.
»WAS IST WAS« – hinter diesem etwas kryptischen Titel verbarg sich für Kinder und Jugendliche der 1960er- bis 1980er-Jahre das Wissen der Welt. Mindestens einige dieser etwa 40-seitigen Bildbände über »Dinosaurier«, »Das Weltall«, »Seeschlachten«, »Das Mittelalter«, »Autos« »Päpste« oder »Insekten« standen in so gut wie jedem westdeutschen Kinderzimmer. Und wer sie besaß, wird zugeben müssen, noch heute von diesem Wissen zu zehren. »WAS IST WAS« war die deutsche Variante einer amerikanischen Kindersachbuchreihe, die unter dem Titel »How and Why – Wonderbooks« seit den 1950er-Jahren erschien. Der Nürnberger Tessloff-Verlag erwarb die Rechte an diesem Titel, übersetzte ihn in »WAS IST WAS« und brachte die ersten vier Kindersachbücher 1961 heraus (zunächst als Zeitschriftenreihe, ab 1963 dann in Buchform). Über 140 Bände sind bisher erschienen, und viele von ihnen sind in aktualisierten Neuauflagen weiterhin lieferbar. Die Reihe ist nicht abgeschlossen, inzwischen aber multi-medialisiert – und sie hat Konkurrenz bekommen.
Wie stellen sich aktuelle Tendenzen in der Zeitgeschichtsschreibung dar – im Vergleich mit dem auffällig gewachsenen Interesse literarischer Autoren für zeitgeschichtliche Themen? Welche Konvergenzen sind zu verzeichnen, und welche textsortenbedingten Differenzen bleiben? Sind die zeitgeschichtlichen Erzählmuster in diesem Umfeld vorwiegend konstant, oder gibt es strukturelle Veränderungen? Worauf lassen sich diese eventuell zurückführen?
»[…] wenn ›die Quelle‹ die Reliquie historischen Arbeitens ist – nicht nur Überbleibsel, sondern auch Objekt wissenschaftlicher Verehrung –, dann wäre analog ›das Archiv‹ die Kirche der Geschichtswissenschaft, in der die heiligen Handlungen des Suchens, Findens, Entdeckens und Erforschens vollzogen werden.« Achim Landwehr wirft in seinem geschichtstheoretischen Essay den Historikern ihren »Quellenglauben« vor – diese Kritik ließe sich im digitalen Zeitalter leicht auf die Heilsversprechen der Apostel der »Big Data Revolution« übertragen. Zwar regen sich mittlerweile vermehrt Stimmen, die den »Wahnwitz« der digitalen Utopie in Frage stellen, doch wird der öffentliche Diskurs weiterhin von jener Revolutionsrhetorik dominiert, die standardmäßig als Begleitmusik neuer Technologien ertönt. Statt in der intellektuell wenig fruchtbaren Dichotomie von Gegnern und Befürwortern, »First Movers« und Ignoranten zu verharren, welche die Landschaft der »Digital Humanities« ein wenig überspitzt auch heute noch kennzeichnet, ist das Ziel dieses Beitrages eine praxeologische Reflexion, die den Einfluss von digitalen Infrastrukturen, digitalen Werkzeugen und digitalen »Quellen« auf die Praxis historischen Arbeitens zeigen möchte. Ausgehend von der These, dass ebenjene digitalen Infrastrukturen, Werkzeuge und »Quellen« heute einen zentralen Einfluss darauf haben, wie wir Geschichte denken, erforschen und erzählen, plädiert der Beitrag für ein »Update« der klassischen Hermeneutik in der Geschichtswissenschaft. Die kritische Reflexion über die konstitutive Rolle des Digitalen in der Konstruktion und Vermittlung historischen Wissens ist nicht nur eine Frage epistemologischer Dringlichkeit, sondern zentraler Bestandteil der Selbstverständigung eines Faches, dessen Anspruch als Wissenschaft sich auf die Methoden der Quellenkritik gründet.
Das Ziel der 1787 geschriebenen US-Verfassung sei es, so heißt es in der Präambel, »to form a more perfect union«. Damals war offen, ob das politische Experiment auf dem nordamerikanischen Kontinent erfolgreich sein oder ob es aufgrund von inneren und äußeren Konflikten schon bald scheitern würde. Entsprechend nannte das 1782 entstandene Great Seal of the United States, auf dem auch das bekannte Präsidentensiegel basiert, eine bis heute nicht völlig eingelöste Aufgabe: »E pluribus unum«, »Out of Many, One«, also aus vielen Einzelstaaten einen gemeinsamen Staat zu machen.
Als im Herbst 2017 der Berliner Antisemitika-Sammler Wolfgang Haney starb, wurden verschiedene Personen und Institutionen unruhig. Was wird aus der Sammlung? Kommt sie auf den Markt und geht als Gesamtwerk verloren? Welche Akteure und Logiken treten auf den Plan und konkurrieren um die ganze Sammlung oder um Einzelobjekte? Werden die Dauerleihgaben, die in großen Museen gezeigt werden, auf der Stelle zurückverlangt? Gibt es für öffentliche Einrichtungen Handlungsspielraum? Können, dürfen, sollen Steuergelder in den Ankauf judenfeindlicher Artefakte fließen? Wie werden sich die Erben verhalten?
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
Menschen schreiben, Menschen notieren. Papierne (heute auch digitale) Gedächtnisstützen halten fest, was sich im Kopf der oder des Schreibenden abspielt, um es für kurze oder längere Zeit zu sichern und zu übertragen. Termine, Kontakte und Adressen werden besonders oft verschriftlicht, da es sich um Informationen handelt, die präzise wiedergegeben werden müssen. Jeder einzelne Datensatz (eine Adresse, Telefonnummer, Ort und Zeit eines Treffens, Kontakte zu einer bestimmten Person) ist in sich eher trocken und schwer zu merken, die Verschriftlichung verwaltet also und assistiert unserer Erinnerung. An der Schnittstelle zwischen Alltagslogistik, Sozialleben und Erinnerung sind Adressbücher Hilfsmittel und Kulturtechnik zugleich. Das Adressbuch als Gegenstand dient im Sinne Bruno Latours der Delegation, da sein*e Benutzer*in Informationen auslagern kann. Dadurch werden Adressbücher fester Bestandteil von Netzwerken, welche ohne diese Niederschrift nicht aufrechtzuerhalten wären. Das lässt sich am Beispiel europäischer Netzwerke in London während des Zweiten Weltkrieges darlegen: anhand eines edierten »Who’s Who« und des persönlichen Adressbuches des Juristen René Cassin.
Für dieses Buch muss man sich etwas Zeit nehmen. Ich hatte die gut 700 Seiten umfassende amerikanische Originalausgabe von »Mechanization Takes Command« (den Titel kürzte Giedion in seinen Notizen mit dem Akronym »M.T.C.« ab) im Sommer 2017 im Amtrak California Zephyr auf meiner Reise von Greenriver, UT, nach Chicago, IL, im Gepäck. Diese Reise bot aktualisiertes Anschauungsmaterial zu Giedions Sondierungen der US-amerikanischen Industrialisierungsgeschichte. Sie folgte jener Eisenbahnlinie, welche Kalifornien (wo die Frontier-Gesellschaft Amerikas im ausgehenden 19. Jahrhundert an ihr Ende gelangte) mit Chicago verbindet (der nach dem großen Brand von 1871 zur Industriemetropole avancierten Stadt am Lake Michigan). Dazwischen öffnete sich der Midwest, dessen verrostete und verlassene industrielle Infrastruktur (Bahnhöfe, Fabriken, Brücken, Städte) durch das Zugfenster ins Blickfeld geriet und somit den Endpunkt der von Giedion dokumentierten Entwicklungen brutal vor Augen führte. Die heruntergewirtschafteten Landschaften des Midwest und Giedions Streifzüge in ihre Industrialisierung während des 19. Jahrhunderts flossen ineinander über. Etwa dann, wenn der Zug stillstand und mein Blick bei den Getreide-Elevatoren hängen blieb, wo sich die Eisenbahnlinien kreuzen und der Personenzug den unendlich langen Güterwagen, die von Diesellokomotiven angetrieben werden, den Vortritt lassen musste. Oder wenn ich beim mäandrierenden Durchblättern des Buches und dem Blick aus dem Zugfenster den Faden verlor und eindöste – und dann beim Eindunkeln jäh von den sleeping car attendants, welche die ausklappbaren Sitze für die Nacht mit ein paar Handgriffen zu Betten umwandelten, in die Gegenwart zurückgeholt wurde. Oder im Nachfolgemodell des von George M. Pullman 1869 in seinem Patent beschriebenen Speisewagens, wo die Reisende aus Europa und Wählerinnen des amtierenden Präsidenten sich am gemeinsamen Tisch zum Verzehr von Burger, Steaks und Hot Dogs wiederfanden. Jenes Präsidenten, der zu Beginn des 21. Jahrhunderts eine Re-Industrialisierung abgehängter Regionen im einst prosperierenden Rostgürtel der USA versprach.
Extravagante Danksagungen in literarischen und wissenschaftlichen Büchern werden regelmäßig in den Massenmedien und auf Social Media zur Unterhaltung verbreitet und debattiert. Auch am Beispiel von in Danksagungen nicht erwähnten Mitarbeiter:innen und Ghostwritern werden verschiedene Auslegungen guter wissenschaftlicher Praxis und redlichen Schreibens diskutiert. Für Danksagungen interessieren sich jedoch nicht nur die Massenmedien, sondern erst recht die Wissenschaftler:innen selbst. Zwar sind akademische Danksagungen von der geistes- und geschichtswissenschaftlichen Forschung bisher kaum systematisch untersucht worden. Gleichwohl stellen sie einen von Fachkolleg:innen aufmerksam rezipierten Paratext dar, der ebenfalls der Unterhaltung dienen kann, durch den sie sich aber auch ein Bild vom jeweiligen Autor bzw. von der Autorin verschaffen. Anhand von Danksagungen wird überprüft, in welchen fachlichen Schulen sich die Autor:innen verorten, für welche Unterstützung sie sich bei wem bedanken, welche privaten Ansichten und Angelegenheiten sie preisgeben und inwiefern sie fachliche Konventionen einhalten. Umgekehrt ist dieser prüfende Blick der Kolleg:innen den Verfasser:innen von Danksagungen bekannt. Über die Geste hinaus bieten Danksagungen den Autor:innen daher die Möglichkeit, sich den Kolleg:innen als Wissenschaftler:in und (Privat-)Person zu präsentieren.
Der Computer und die mit ihm verbundenen Informations- und Kommunikationstechnologien sind spätestens mit dem Aufkommen der Mikroelektronik Anfang der 1970er-Jahre zu entscheidenden Faktoren der Entwicklung moderner Industriegesellschaften geworden. Im Verlauf der 1980er-Jahre diffundierten Computer und neue Medien in nahezu alle Bereiche der Gesellschaft – angefangen von der Arbeit über die Formen der sozialen Kommunikation, die politische Kultur, die Bildung, den Konsum und die Freizeit bis hinein in die individuellen Lebensstile. Der „Informationsgesellschaft“ (ein Begriff, der nicht zufällig ab etwa 1980 populär wurde) hat die zeithistorische Forschung bislang eher wenig Aufmerksamkeit geschenkt. Mit Blick auf die wichtigsten Phasen und Zäsuren diskutiert der Aufsatz mögliche Perspektiven einer Zeitgeschichte der Informationsgesellschaft. Plädiert wird dabei für eine integrierende gesellschaftsgeschichtliche Analyse des mit dem Computer verbundenen Wandels sowie der wirtschaftlichen, sozialen und kulturellen Kontexte.
Keine Stunde Null. Sozialwissenschaftliche Expertise und die amerikanischen Lehren des Luftkrieges
(2020)
Alle Kriegsparteien bombardierten im Zweiten Weltkrieg Ziele, die lange Zeit als zivil gegolten hatten. Diese sogenannten strategischen Bombardierungen wurden im Auftrag der US-Regierung ab dem Kriegsende mit einem Stab von über 1.000 Mitarbeitern in Deutschland und Japan aufwendig evaluiert (United States Strategic Bombing Survey, USSBS). Mithilfe ambitionierter Sozialwissenschaftler gelang es der jungen US Air Force, den strategischen Luftkrieg als militärisch und psychologisch entscheidend darzustellen, und so taten sich für die Luftkriegsexperten auch nach 1945 attraktive neue Beschäftigungsfelder auf. Die Wissenschaftler argumentierten, sie seien in der Lage, methodisch abgesichert einen schnellen und vermeintlich »sauberen« Krieg aus der Luft zu planen. Der Aufsatz stellt die bisher kaum erforschten Logiken und Folgen dieser Kooperation sowie die behaupteten Lehren des Weltkrieges für den Korea- und den Vietnamkrieg dar. Damit hinterfragt er das gängige Verständnis einer radikalen Zäsur, die der erste Einsatz der Atombombe mit sich gebracht habe, und plädiert für einen neuen Blick auf die Militär-, Gewalt- und Wissensgeschichte des »Kalten Krieges«.
In der ersten Hälfte der 1990er-Jahre sahen sich die traditionellen Informationsvermittlungsinstanzen, die Bibliotheken, nicht in der Lage, ihre Mediatorenfunktion in puncto Internet wahrzunehmen. Es blieb in dieser Gründungsepoche der Eigeninitiative selbstloser NetzenthusiastInnen überlassen, für verschiedenste Disziplinen bald so genannte Fachverzeichnisse, Themenkataloge oder Fachportale aufzubauen. Ein Teil von ihnen organisierte sich in der Virtual Library (VL), dem ältesten Web-Suchdienst, ins Leben gerufen durch den WWW-„Erfinder“ Tim Berners-Lee. Sie ist der Versuch, durch eine lose Zusammenarbeit von Experten, die jeweils für ein bestimmtes Schlagwort Indices von Webressourcen erstellen, einen Universalkatalog mit akademischer Ausrichtung zu betreiben. Als Zielgruppen, zu denen sich auch die VL Zeitgeschichte bekennt, sollen vor allem WissenschaftlerInnen, Lehrende und Studierende angesprochen werden. Die VL fordert von ihren RedakteurInnen ein, nur solche Webressourcen aufzunehmen, die bestimmte Qualitätskriterien erfüllen; um in der VL Zeitgeschichte gelistet zu werden, muss daher der „wissenschaftliche Nutzen“ gegeben sein (siehe die Rubrik „Aufnahmekriterien“ der Website).
Die Restitution von Wohneigentum stellte ein großes Konfliktfeld im deutschen Einigungsprozess dar, das zugleich durch eine lange Vorgeschichte geprägt war. Eigentumsideen und -notationsformen aus dem 19. Jahrhundert sowie Praktiken aus der DDR spielten nach 1990 in die Entscheidungen der Ämter zur Regelung offener Vermögensfragen hinein; sie prägten Erfahrungen und Bewertungen des 1990 eingeführten Prinzips »Rückgabe vor Entschädigung«. Das zugrundeliegende Vermögensgesetz wurde in den 1990er-Jahren modifiziert und berücksichtigte vermehrt DDR-Praktiken. Trotzdem dominieren in den öffentlichen Darstellungen Verlusterzählungen, vor allem aufgrund der langen Zeit der Unsicherheit bis zur endgültigen Entscheidung. Das für den ersten Teil des Aufsatzes gewählte Beispiel Kleinmachnow, das unmittelbar an das frühere West-Berlin angrenzte, stand in den 1990er-Jahren besonders im Medieninteresse. Unklar blieb aber, welche Aussagekraft es für Ostdeutschland hat. Im zweiten Teil wird deshalb nach dem Typischen dieses Falles gefragt. Zugleich wird dafür auf die besonderen Quellen der Transformationsgeschichte eingegangen: Die Sozialwissenschaften produzierten seit 1990 eine Vielzahl qualitativer und quantitativer Daten, die nun auch der Geschichtswissenschaft als Quellen zur Verfügung stehen. Vor einer Sekundäranalyse müssen sie aber wissensgeschichtlich eingeordnet werden: Die Sozialwissenschaften beobachteten den Transformationsprozess nicht nur, sondern gestalteten ihn mit. Vorgeschlagen wird hier ein integratives Verfahren, um quantitative und qualitative Ergebnisse für die Geschichtswissenschaft zu verbinden und somit zu einem besseren Verständnis der komplexen Transformationsgeschichte zu gelangen.
»Kern/Schumann I und II« sind wichtige Quellen für den Wandel der Arbeitswelt, allerdings können die Studien aufgrund ihres spezifischen Untersuchungsdesigns nur auf bestimmte geschichtswissenschaftliche Fragen Antworten geben: Sie konzentrierten sich auf Erwerbsarbeit und besonders auf die industrielle Stammbelegschaft. Begrenzt erkennbar sind deshalb Erfahrungen von Migranten und Frauen sowie unterschiedliche Beschäftigungsarten und -bereiche. Hierzu versprechen andere SOFI-Studien mehr Auskunft.[52] Die Vorstellung von »Kern/Schumann I und II« in diesem Beitrag ist verbunden mit einem Plädoyer, die große Vielfalt der SOFI-Studien für Zwecke der Geschichtswissenschaft zu nutzen.
Geographische Informationssysteme (GIS) wurden bereits seit den 1960er-Jahren mit der beginnenden Computerisierung der Geographie entwickelt. Ihr Konzept folgt der Idee, Daten bzw. Informationen in ihren Raumbezügen zu organisieren und analysierbar zu machen. Mit der Weiterentwicklung und wachsenden Leistungsfähigkeit digitaler Infrastrukturen sind inzwischen komplexe Datenmodelle, flexiblere Datenformate, neue Formen der Visualisierung sowie umfassende geostatistische Analysen möglich geworden. Zudem sind kartographische Visualisierungen nicht mehr nur statisch, sondern in einem GIS können überdies Veränderungen der Daten im Zeitverlauf dargestellt und untersucht werden. Der Einsatz von GIS ist aus Forschung, Wirtschaft, Verwaltung und medialer Kommunikation kaum noch wegzudenken. Die Produkte der Arbeit mit GIS umgeben uns vielerorts, oft ohne dass wir uns der dahinterliegenden Architekturen und Annahmen bewusst sind. Aktuelle Debatten über die Sammlung zeit- und geocodierter Daten, etwa über Mobiltelefone, um Personengruppen – Konsument*innen, Migrant*innen, Geflüchtete, Bürger*innen – retrospektiv, in Echtzeit oder mit prädiktiven Modellen auf der Grundlage biometrischer und/oder sozialer Daten zu tracken, haben mit Recht Fragen zum Datenschutz und zu ethischen Implikationen dieser Technologien aufgeworfen. Anwendungen GIS-basierter Technologien, etwa bei der Bekämpfung der Covid-19-Pandemie, dem Tracking von Verbreitungs- und Infektionswegen, der Entwicklung von Krisenreaktionsstrategien oder der medialen Kommunikation der Situation scheinen uns zugleich die beträchtlichen Potentiale der raum-/zeitsensiblen Datenanalyse – in Echtzeit – zu vermitteln. Deutlich wird, dass die ethischen, methodischen und epistemologischen Effekte der Verbreitung digitaler Werkzeuge zur Durchdringung wachsender und zunehmend komplexer Datenbestände einer mehrdimensionalen Reflexion bedürfen, die augenblicklich nur mühsam mit der Expansion der technischen Möglichkeiten Schritt hält.
Die folgende Skizze verzichtet ganz auf normative Stellungnahmen. Wie man „gute“ Zeitgeschichte schreiben und welche Aufgaben sie haben sollte – solche Proklamationen sind eine allzu verbreitete Übung von Historikern, zumal sie ohne die Anstrengung empirischer Forschung von der Hand gehen. Stattdessen soll hier gefragt werden, inwieweit wir es uns überhaupt erlauben können, Diagnosen über Wandel und Kontinuität in der Zeitgeschichtsschreibung aufzustellen und daran Empfehlungen zu knüpfen, solange wir nicht auf empirisch gesichertem Grund stehen. Wohlgemerkt, es geht um Anfragen, nicht um Resultate oder Lösungen. Sind die oft behaupteten Tendenzen – zunehmende Marktabhängigkeit, Emotionalisierung, Internationalisierung, mangelnde Selbstreflexion der Zeitgeschichte, teleologische und gegenwartslegitimatorische Geschichtsschreibung à la Treitschke – typisch für die Zeitgeschichte? Vorausgesetzt, die Elemente des Merkmalskatalogs treffen überhaupt zu: Was davon betrifft die Zeitgeschichte, was die gesamte Geschichtsschreibung?
Seit einigen Jahren verdichtet sich auch in Deutschland das Gespräch über Herausforderungen und Perspektiven des digitalen Zeitalters für die Geschichtswissenschaft. Auf jedem Historikertag seit 2010 gab es mehrere Sektionen, die sich unterschiedlichen Facetten des Themas zuwandten. Es entstehen Fachpublikationen, Überblickswerke, Dissertationen und erste Ansätze, das Feld institutionell neu zu gestalten. Die Geschichtswissenschaft bemüht sich, produktiv auf die Veränderungen einzugehen. Punktuell ist es auch bereits zu einem Dialog mit Archiven und der Archivwissenschaft gekommen. So hat der Verband der Historiker und Historikerinnen Deutschlands (VHD) 2015 unter Federführung der Vorsitzenden Eva Schlotheuber und Frank Bösch ein Grundsatzpapier verabschiedet, das sich der Quellenkritik im digitalen Zeitalter annimmt. Die Forderung, Elemente der Digital Humanities in die Historischen Grundwissenschaften zu integrieren, wurde seitdem noch weiter unterstrichen.