Alltag
Refine
Year of publication
Document Type
- Journal Article (209)
- Online Publication (85)
- Part of a Book (8)
- Book (3)
Keywords
- Begriffe (2)
- Amerikaner (1)
- Berlin (West) (1)
- Berlin-Friedrichshain (1)
- Berlin-Kreuzberg (1)
- Computer (1)
- Computerunterstütztes Verfahren (1)
- Deutschland (Bundesrepublik) (1)
- Forschungsfelder (1)
- Gentrifizierung (1)
Mit dem Erwerb von rund 20.000 Negativen aus dem Nachlass des tschechischen Fotografen Ivan Kyncl (1953–2004) hat die Forschungsstelle Osteuropa an der Universität Bremen einen bedeutenden Grundstock für eine fotografische Sammlung zur tschechoslowakischen Bürgerrechtsbewegung der 1970er-Jahre gelegt.1 Das Archiv der Forschungsstelle beherbergt die europaweit umfangreichste Sammlung von so genanntem Samizdat, d.h. von Schriftstücken, die jenseits der staatlichen Zensur im ‚Selbstverlag‘ publiziert worden sind.2 Den Hunderttausenden von schriftlichen Dokumenten steht eine kaum geringere Zahl von Fotografien gegenüber. Diese gelangten eher zufällig zusammen mit den schriftlichen Quellen oder mit gesamten Nachlässen von Dissidenten aus der ehemaligen Sowjetunion, aus Polen, der Tschechoslowakei und Ungarn in das Archiv.
Zentrales Thema des Beitrags ist die Geschichte der „Moscheen in umfunktionierten Räumen“. Diese etwas irreführend oft als „Hinterhofmoscheen“ bezeichneten Räume sind seit den 1980er-Jahren verstärkt durch Neubauten abgelöst worden, mit denen eine größere öffentliche Sichtbarkeit des Islams und dadurch nicht selten auch ein höheres Konfliktpotenzial verbunden ist. Der Blick auf sonstige soziokulturelle Räume des Islams bildet einen weiteren Schwerpunkt des Aufsatzes – ausgehend von der Beobachtung, dass sich „der Islam“ nicht sinnvoll allein mit „der Moschee“ assoziieren lässt. Die verschiedenen Strömungen des Islams haben sich auch in Vereinen, Wohlfahrts- und Bildungseinrichtungen ausgedrückt, bei denen religiöse und andere Funktionen unterschiedlich eng verbunden waren und sind. Es ist ein Anachronismus, dass die nichtmuslimische Gesellschaft vielfach erst durch Moschee-Neubauten die Existenz des Islams in der Bundesrepublik zur Kenntnis nimmt. Genauere zeitgeschichtliche und religionswissenschaftliche Forschung könnte das Bewusstsein für die gesellschaftliche, auch innerislamische Pluralität schärfen.
„Gott ist tot – macht nichts“, titelte kürzlich die „ZEIT“ und präsentierte ihren Lesern unter dieser Überschrift „Hausbesuche bei vier Atheisten“. Vergegenwärtigt man sich die Aufmerksamkeitsregeln von Printmedien, die ja vor allem auf das Außergewöhnliche als das Berichtenswerte setzen, dann sind auch diese Skizzen ein Beleg für die neue Konjunktur, die die Religion in all ihren Facetten findet. Hat die bewusste Abwendung von einem transzendental begründeten Glauben, gar an eine personal gedachte Gottheit (schon wieder) Neuigkeitswert? Dass Glauben nicht Wissen sei, sich die Entstehung der Welt auch ohne göttliche Fügung erklären lasse, moralisches Verhalten sich nicht ausschließlich aus religiösen Überzeugungen ableite – taufrisch sind die in den Gesprächen thematisierten Überlegungen nicht.
„There is no reason for any individual to have a computer in his home.“ Diese Einschätzung Kenneth H. Olsens, seinerzeit Präsident der Digital Equipment Corporation (lange eine der führenden amerikanischen Computerfirmen), stammt aus dem Jahr 1977. Die gesellschaftliche Vorstellung von Computern war damals eng mit Großrechnern verknüpft, die lediglich durch Spezialisten bedient werden konnten. Dieses Paradigma stellten Spielekonsolen wie „Pong“ von Atari allerdings bereits 1975 in Frage. Andere Branchengrößen wie IBM hatten weiterhin Bedenken, ob die Leistung der Großrechner auf einem Schreibtisch Platz finden könne. Unternehmen wie Commodore oder Apple bewiesen ab 1977, dass dies möglich war, indem sie kompakte, sofort nach dem Kauf verwendbare Rechner auf den Markt brachten und sich somit an die Spitze der Computerhersteller katapultierten. Sie setzten damit eine Entwicklung in Gang, die sich zu Beginn der 1980er-Jahre beschleunigte: IBM definierte mit dem „IBM PC 5150“ ab 1981 einen Standard im Bereich der Heimcomputer. Sony und Philips brachten die Digitalisierung im Audiobereich voran und legten die technischen Spezifikationen für die Compact Disc fest.
In the 1980s, when computers became affordable for private households, a hacker or cracking scene, which was the term used by members of this subculture, developed in several western and northwestern European countries. These (almost exclusively male) groups of adolescents ‘cracked’, copied and exchanged computer games. On the basis of magazines and published interviews with former members of this scene, this article shows how cracking became an important current in the broad spectrum of teenage subculture – with specific ethical codes and rituals of masculinity. Its members were by no means lone specialists who eschewed contact with the outside world, but rather developed their own forms of community and communication. This scene did not construe itself as a political counter-culture; it was rather part of the diversifying popular and consumer culture of the 1980s. In the early 1990s, when law enforcing agencies began to prosecute software piracy more resolutely, this computer subculture began to fade. However, it lived on in the field of computer graphics, in electronic music and in the growing IT sector.
By the late 1970s, it was technologically possible to manufacture microcomputers – very small, stand-alone computers for personal use – in very large quantities. Selling them, however, meant creating a mass market where none existed: conventionally, only trained professionals, and a few devoted enthusiasts, interacted directly with the machines. Designers, marketers, retailers and other promoters therefore sought to build meanings into the design and presentation of computers which would connect them with new audiences. Such meanings reflected – and might themselves modify – the prevalent hopes, fears, desires and expectations of the users’ cultures.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
„Computerspiele einschließlich anderer interaktiver Unterhaltungsmedien (Video-/Konsolen-, Online- und Handyspiele) haben in den letzten Jahren kontinuierlich an Bedeutung gewonnen. Sie sind in Deutschland wirtschaftlich, technologisch, kulturell und gesellschaftlich zu einem wichtigen Einflussfaktor geworden. [...] Computerspiele transportieren gesellschaftliche Abbilder und thematisieren eigene kulturelle Inhalte. Sie werden damit zu einem bedeutenden Bestandteil des kulturellen Lebens unseres Landes und sind prägend für unsere Gesellschaft.“1 Wie der Beschluss des Deutschen Bundestags zur Einrichtung des Deutschen Computerspielpreises zeigt, der seit 2009 jährlich vergeben wird, werden Computerspiele mittlerweile auch von offizieller Seite als ebenso bedeutsam wahrgenommen wie andere, bereits etablierte Kulturgüter. Diese Entwicklung entspricht in ihrer Grundtendenz derjenigen anderer Medien wie Film oder Comic, deren kulturelle Bedeutung ebenfalls erst einige Zeit nach ihrer Erfindung gesellschaftlich anerkannt und staatlich gefördert wurde.
Beim Umgang von Historikerinnen und Historikern mit dem Netz können wir einen interessanten Wandel beobachten: Grundsatzkritik an der Verwendung des Netzes in geschichtswissenschaftlicher Lehre und Forschung findet sich kaum mehr. Noch vor gut zehn Jahren war das anders. Da waren die Bedenkenträger nicht zu überhören, die das Netz für die (Geistes-)Wissenschaften als unnütz und unnötig einstuften und entschlossen waren, dieses vermeintlich kurze technische Intermezzo auszusitzen – Vertreter vor allem der älteren Generation, die sich schon mit der Einführung des Personal Computers seit den 1980er-Jahren schwertaten. Heute geht es vielmehr um die Frage, in welchen Bereichen und mit welchen Fragestellungen das Netz in den Forschungs- und Lehralltag zu integrieren ist.
Der Aufsatz beschreibt anhand von Fallbeispielen die Einführung von Rechnern/Computern in Industrie und Verwaltung sowie die damit einhergehenden Fortschrittsversprechen und Utopien. Der Nutzen der neuen Technologie war für die Akteure zunächst schwer einzuschätzen; daher gab es ein breites Spektrum von Erwartungen, Euphorien und Ängsten. Den „Elektronengehirnen“ der 1950er-Jahre wie auch den späteren Computern wurde im gesamten Untersuchungszeitraum ein Potenzial zugewiesen, das über die damaligen technischen Möglichkeiten weit hinausging. Ein Schwerpunkt der Diskurse war die Frage nach der Zukunft der Arbeit. Als Computer in Unternehmen und Verwaltungen stärker vordrangen, entstanden zahlreiche soziologische Studien, die aus heutiger Sicht aufschlussreiche zeithistorische Quellen sind. Sie dokumentieren strukturelle Veränderungen der Industriegesellschaft, Erfahrungen von Arbeitnehmer/innen im Umgang mit der neuen Technik und zugleich die wissenschaftlichen Versuche, das Phänomen der Computerisierung zu erfassen.