Computerisierung
Refine
Year of publication
Document Type
- Journal Article (28)
- Part of a Book (15)
- Book (3)
- Online Publication (2)
Keywords
- Deutschland (Bundesrepublik) (3)
- Computer (2)
- Deutschland (DDR) (2)
- Computerunterstütztes Verfahren (1)
- Datenverarbeitung (1)
- Geschichte 1955-1990 (1)
- Geschichte 1957-1993 (1)
- Geschichte 1980-1989 (1)
- Hacker (1)
- Informationsgesellschaft (1)
- Informationstechnik (1)
- Rentenversicherung (1)
- Verwaltungsautomation (1)
„There is no reason for any individual to have a computer in his home.“ Diese Einschätzung Kenneth H. Olsens, seinerzeit Präsident der Digital Equipment Corporation (lange eine der führenden amerikanischen Computerfirmen), stammt aus dem Jahr 1977. Die gesellschaftliche Vorstellung von Computern war damals eng mit Großrechnern verknüpft, die lediglich durch Spezialisten bedient werden konnten. Dieses Paradigma stellten Spielekonsolen wie „Pong“ von Atari allerdings bereits 1975 in Frage. Andere Branchengrößen wie IBM hatten weiterhin Bedenken, ob die Leistung der Großrechner auf einem Schreibtisch Platz finden könne. Unternehmen wie Commodore oder Apple bewiesen ab 1977, dass dies möglich war, indem sie kompakte, sofort nach dem Kauf verwendbare Rechner auf den Markt brachten und sich somit an die Spitze der Computerhersteller katapultierten. Sie setzten damit eine Entwicklung in Gang, die sich zu Beginn der 1980er-Jahre beschleunigte: IBM definierte mit dem „IBM PC 5150“ ab 1981 einen Standard im Bereich der Heimcomputer. Sony und Philips brachten die Digitalisierung im Audiobereich voran und legten die technischen Spezifikationen für die Compact Disc fest.
»[…] wenn ›die Quelle‹ die Reliquie historischen Arbeitens ist – nicht nur Überbleibsel, sondern auch Objekt wissenschaftlicher Verehrung –, dann wäre analog ›das Archiv‹ die Kirche der Geschichtswissenschaft, in der die heiligen Handlungen des Suchens, Findens, Entdeckens und Erforschens vollzogen werden.« Achim Landwehr wirft in seinem geschichtstheoretischen Essay den Historikern ihren »Quellenglauben« vor – diese Kritik ließe sich im digitalen Zeitalter leicht auf die Heilsversprechen der Apostel der »Big Data Revolution« übertragen. Zwar regen sich mittlerweile vermehrt Stimmen, die den »Wahnwitz« der digitalen Utopie in Frage stellen, doch wird der öffentliche Diskurs weiterhin von jener Revolutionsrhetorik dominiert, die standardmäßig als Begleitmusik neuer Technologien ertönt. Statt in der intellektuell wenig fruchtbaren Dichotomie von Gegnern und Befürwortern, »First Movers« und Ignoranten zu verharren, welche die Landschaft der »Digital Humanities« ein wenig überspitzt auch heute noch kennzeichnet, ist das Ziel dieses Beitrages eine praxeologische Reflexion, die den Einfluss von digitalen Infrastrukturen, digitalen Werkzeugen und digitalen »Quellen« auf die Praxis historischen Arbeitens zeigen möchte. Ausgehend von der These, dass ebenjene digitalen Infrastrukturen, Werkzeuge und »Quellen« heute einen zentralen Einfluss darauf haben, wie wir Geschichte denken, erforschen und erzählen, plädiert der Beitrag für ein »Update« der klassischen Hermeneutik in der Geschichtswissenschaft. Die kritische Reflexion über die konstitutive Rolle des Digitalen in der Konstruktion und Vermittlung historischen Wissens ist nicht nur eine Frage epistemologischer Dringlichkeit, sondern zentraler Bestandteil der Selbstverständigung eines Faches, dessen Anspruch als Wissenschaft sich auf die Methoden der Quellenkritik gründet.
Hacker und Haecksen zählen zur Avantgarde der Computerisierung. Seit den späten 1970er-Jahren bildeten sie sich in der Bundesrepublik und in der DDR zu eigensinnigen ComputernutzerInnen mit einschlägigem Wissen heraus. Sie eigneten sich das Medium spielerisch an, schufen Kontakträume und brachten sich so aktiv in den Prozess der Computerisierung ein. Durch ihre Grenzüberschreitungen zeigten sie dabei Chancen und Risiken der Digitalisierung auf.
Julia Gül Erdogan geht der Entstehung der Hackerkulturen in Ost- und Westdeutschland nach. Sie analysiert, wie deren teils subversive Praktiken Machtgefüge in Politik, Wirtschaft und Gesellschaft herausforderten. Zugleich verdeutlicht die Arbeit Gemeinsamkeiten und Unterschiede der frühen sub- und gegenkulturellen Computernutzung in den beiden deutschen Teilstaaten.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
Der Artikel widmet sich aus medienwissenschaftlicher Perspektive der „televisiven Historiographie“ und speziell dem Format „Virtual History“, welches der Sender „Discovery Channel“ entwickelt hat. Dieses Sendeformat versucht mittels aufwändiger digitaler Techniken, Bildmaterial von historischen Ereignissen neu zu produzieren, das dennoch einer historischen „Realität“ entsprechen soll und als „authentisch“ deklariert wird. Ausgehend von der Annahme, dass das Fernsehen generell weniger dem Authentischen als dem Falschen und der Verfälschung verpflichtet ist, fragt der Artikel nach der „Indexikalität“ virtueller digitaler Fernsehbilder. Im Anschluss an Maurice Halbwachs’ Unterscheidung von Geschichte und Gedächtnis wird die These entwickelt, dass der klassische Film mit der Konstitutionslogik der Geschichte korrespondiert, während das Fernsehen ein paradoxes Gedächtnismedium ist: Indem es überall dabei (gewesen) sein will, unterläuft es die operative Gedächtnisfunktion, zwischen Erinnern und Vergessen zu unterscheiden.
Der Computer und die mit ihm verbundenen Informations- und Kommunikationstechnologien sind spätestens mit dem Aufkommen der Mikroelektronik Anfang der 1970er-Jahre zu entscheidenden Faktoren der Entwicklung moderner Industriegesellschaften geworden. Im Verlauf der 1980er-Jahre diffundierten Computer und neue Medien in nahezu alle Bereiche der Gesellschaft – angefangen von der Arbeit über die Formen der sozialen Kommunikation, die politische Kultur, die Bildung, den Konsum und die Freizeit bis hinein in die individuellen Lebensstile. Der „Informationsgesellschaft“ (ein Begriff, der nicht zufällig ab etwa 1980 populär wurde) hat die zeithistorische Forschung bislang eher wenig Aufmerksamkeit geschenkt. Mit Blick auf die wichtigsten Phasen und Zäsuren diskutiert der Aufsatz mögliche Perspektiven einer Zeitgeschichte der Informationsgesellschaft. Plädiert wird dabei für eine integrierende gesellschaftsgeschichtliche Analyse des mit dem Computer verbundenen Wandels sowie der wirtschaftlichen, sozialen und kulturellen Kontexte.