Computerisierung
Zu den drängenden Problemen der Historischen Grundwissenschaften gehört es heute, ein erweitertes Instrumentarium für digitale Quellengattungen zu entwickeln. Dabei ist das breite Feld der digitalen Informationstypen der Gegenwart, der sogenannten born digitals (also der genuin digitalen Objekte), noch nicht einmal vollständig in den Blick geraten.1 Dies liegt zum einen daran, dass sich das Quelleninteresse der Zeitgeschichtsforschung in wachsendem Maße auch auf frei im Netz zugängliche Ressourcen richtet.2 Das dort vorhandene Material ist von beachtlicher Vielfalt (und quellenkritischer Brisanz), was eine quellenkundliche Erfassung erschwert. Die mangelnde Durchdringung des digitalen Quellenkanons hat aber auch mit den im Umbruch befindlichen Fachaufgaben der Archive als »traditionellem Ort« der Geschichtsforschung zu tun. Denn die Archive haben in vielen Fällen erst in den letzten Jahren mit systematischen Übernahmen und der Bereitstellung digitaler Unterlagen begonnen. Dementsprechend stehen viele digitale Quellen aus Verwaltungszusammenhängen der Forschung noch gar nicht zur Verfügung. Gleichwohl werden sie für die spätere geschichtswissenschaftliche Erforschung unserer heutigen Gegenwart und jüngsten Vergangenheit von zentraler Bedeutung sein.
Der Beitrag untersucht Arbeitsämter in der Bundesrepublik Deutschland und Großbritannien während der 1970er- und 1980er-Jahre, einer Zeit deutlich gestiegener Arbeitslosenzahlen. Im Fokus stehen die Verwaltungsvorgänge, begriffen als soziale Praktiken und Mensch-Ding-Verhältnisse. Mit der Akteur-Netzwerk-Theorie fragt der Aufsatz nach der Agency der Verwaltungsdinge im Arbeitsamt: den Bürogestaltungen, Aktenordnern, Wartenummern oder Stellenaushängen. Problematisiert wird besonders die in den 1970er- und 1980er-Jahren durchgesetzte Technisierung der administrativen Vorgänge, also der vermehrte Einsatz von Apparaten und EDV-Systemen in bundesdeutschen und britischen Arbeitsverwaltungen. In beiden Ländern wurde »Selbstbedienung« zu einem neuen Verhaltensdispositiv, das sich in den neu eingerichteten britischen Jobcentres jedoch schneller durchsetzte als im traditionellen deutschen Arbeitsamt, wo das passive Warten weiterhin eine vorherrschende Subjektivierungspraxis blieb.
In the 1980s, when computers became affordable for private households, a hacker or cracking scene, which was the term used by members of this subculture, developed in several western and northwestern European countries. These (almost exclusively male) groups of adolescents ‘cracked’, copied and exchanged computer games. On the basis of magazines and published interviews with former members of this scene, this article shows how cracking became an important current in the broad spectrum of teenage subculture – with specific ethical codes and rituals of masculinity. Its members were by no means lone specialists who eschewed contact with the outside world, but rather developed their own forms of community and communication. This scene did not construe itself as a political counter-culture; it was rather part of the diversifying popular and consumer culture of the 1980s. In the early 1990s, when law enforcing agencies began to prosecute software piracy more resolutely, this computer subculture began to fade. However, it lived on in the field of computer graphics, in electronic music and in the growing IT sector.
By the late 1970s, it was technologically possible to manufacture microcomputers – very small, stand-alone computers for personal use – in very large quantities. Selling them, however, meant creating a mass market where none existed: conventionally, only trained professionals, and a few devoted enthusiasts, interacted directly with the machines. Designers, marketers, retailers and other promoters therefore sought to build meanings into the design and presentation of computers which would connect them with new audiences. Such meanings reflected – and might themselves modify – the prevalent hopes, fears, desires and expectations of the users’ cultures.
Der Erfolg der inzwischen nicht mehr ganz so neuen Informations- und Kommunikationstechnologien sowie die damit verbundene Vervielfachung von Daten und Informationen bedeutet weiterhin eine Herausforderung für die Wissenschaft. Die Option des synchronen Zugriffs auf eine Vielzahl von Informationen, ihre Rasterung mittels Suchmaschinen und Datenbanken dynamisiert und dezentralisiert herkömmliche Wissensspeicher wie Archive, Bibliotheken oder Enzyklopädien. Dies wirft grundlegende Fragen auf: Wie kann zuverlässiges Wissen im Netz generiert, präsentiert und distribuiert werden? Wer bürgt bei einer Vielzahl dezentraler Informationskanäle für deren Validität und Stabilität?
Der Aufsatz beschreibt anhand von Fallbeispielen die Einführung von Rechnern/Computern in Industrie und Verwaltung sowie die damit einhergehenden Fortschrittsversprechen und Utopien. Der Nutzen der neuen Technologie war für die Akteure zunächst schwer einzuschätzen; daher gab es ein breites Spektrum von Erwartungen, Euphorien und Ängsten. Den „Elektronengehirnen“ der 1950er-Jahre wie auch den späteren Computern wurde im gesamten Untersuchungszeitraum ein Potenzial zugewiesen, das über die damaligen technischen Möglichkeiten weit hinausging. Ein Schwerpunkt der Diskurse war die Frage nach der Zukunft der Arbeit. Als Computer in Unternehmen und Verwaltungen stärker vordrangen, entstanden zahlreiche soziologische Studien, die aus heutiger Sicht aufschlussreiche zeithistorische Quellen sind. Sie dokumentieren strukturelle Veränderungen der Industriegesellschaft, Erfahrungen von Arbeitnehmer/innen im Umgang mit der neuen Technik und zugleich die wissenschaftlichen Versuche, das Phänomen der Computerisierung zu erfassen.
Joseph Weizenbaum (1923–2008), in Berlin geboren, war durch die Nazis gezwungen, mit seiner jüdischen Familie aus Deutschland zu fliehen. Am MIT in Boston wurde er seit den 1960er-Jahren ein renommierter KI-Forscher. Er ist bis heute nicht nur als ein Pionier der Forschung zur Künstlichen Intelligenz anerkannt, sondern vor allem als ein streitbarer Kritiker der Computerkultur. Sein Buch »Computer Power and Human Reason. From Judgement to Calculation« ist ein Klassiker der Technik- und Wissenschaftskritik, ja der Kritik an der technischen und naturwissenschaftlichen Moderne überhaupt. Es ist aber besonders der Titel der deutschen Ausgabe, der mit seiner Dichotomisierung von Macht und Ohnmacht, Computer und Vernunft die These des selbsterklärten »Dissidenten« oder »Ketzers« der Informatik eingängig auf den Punkt bringt. Und das Zitat auf der Umschlagrückseite verortet das Buch auch gleich im Feld der Kritischen Theorie Max Horkheimers, auf den Weizenbaum sich explizit bezieht: »Ich bekämpfe den Imperialismus der instrumentellen Vernunft, nicht die Vernunft an sich.«
Unternehmensplanspiele entstanden in den USA um 1956 aus militärischen Simulationsprogrammen, Fallstudien an Business Schools sowie Kriegsplanspielen und einer Reihe weiterer Einflussgrößen. Angesiedelt am Schnittpunkt von Unternehmensführung, ökonomischen Paradigmen und Computerisierung, bietet das Feld der Unternehmensplanspiele besonders gute Voraussetzungen, um Transformationen gesellschaftlicher Steuerungslogiken nach dem Ende des Zweiten Weltkriegs nachzuvollziehen. In den »ernsthaften Spielen« wurden Praktiken des Entscheidens sowie die Adaption an ein neues Medium und einen veränderten Rationalitätsbegriff (spielerisch) erprobt. Der Aufsatz nähert sich diesem Feld aus einer medienkulturwissenschaftlichen Perspektive. Der Beitrag fokussiert auf die erste Phase der Verwendung von Unternehmensplanspielen bei der Ausbildung von Führungskräften in der Bundesrepublik seit Beginn der 1960er-Jahre. Näher vorgestellt wird der Einsatz des von IBM entwickelten Planspiels TOPIC 1 bei Hoechst.
„Computerspiele einschließlich anderer interaktiver Unterhaltungsmedien (Video-/Konsolen-, Online- und Handyspiele) haben in den letzten Jahren kontinuierlich an Bedeutung gewonnen. Sie sind in Deutschland wirtschaftlich, technologisch, kulturell und gesellschaftlich zu einem wichtigen Einflussfaktor geworden. [...] Computerspiele transportieren gesellschaftliche Abbilder und thematisieren eigene kulturelle Inhalte. Sie werden damit zu einem bedeutenden Bestandteil des kulturellen Lebens unseres Landes und sind prägend für unsere Gesellschaft.“1 Wie der Beschluss des Deutschen Bundestags zur Einrichtung des Deutschen Computerspielpreises zeigt, der seit 2009 jährlich vergeben wird, werden Computerspiele mittlerweile auch von offizieller Seite als ebenso bedeutsam wahrgenommen wie andere, bereits etablierte Kulturgüter. Diese Entwicklung entspricht in ihrer Grundtendenz derjenigen anderer Medien wie Film oder Comic, deren kulturelle Bedeutung ebenfalls erst einige Zeit nach ihrer Erfindung gesellschaftlich anerkannt und staatlich gefördert wurde.
Ganz gegensätzlich zum teils immer noch lebendigen Vorurteil vom weltfremden Historiker, der lieber in staubigen Archiven wühle als sich im Netz zu tummeln, waren gerade die Geschichtswissenschaften sehr früh dabei, als in den 1990er-Jahren erste Versuche stattfanden, die Potenziale von Netzpublikation und -kommunikation auch für die Geisteswissenschaften fruchtbar zu machen. Viele der damaligen Initiativen haben sich – nicht zuletzt durch das Engagement Einzelner – bis heute gehalten, sich stetig weiterentwickelt und sind inzwischen Plattformen geworden, die wichtige Rollen im Arbeitsalltag der Wissenschaftler spielen, denken wir etwa an „H-Soz-u-Kult“ oder an die „sehepunkte“.