Academia.eduAcademia.edu
Benjamin Bigl, Sebastian Stoppe (Eds.) Playing with Virtuality Theoriesand Methods of Computer Game Studies • ACADEMIC RESEARCH Bibliographie Information published by the Deutsche Nationalbibliothek The Deutsche Nationalbibliothek lists this publication in the Deutsche Nationalbibliografie; detailed bibliographic data is available in the internetat http://dnb.d-nb.de. The publication of this book has been made possible with generaus support by •• wwooga Library of Congress Cataloging-in-Publication Data Playing with virtuality : theories and methods of computer game studies I Benjamin Bigl, Sebastian Stoppe, (Eds.). pages cm.- (Medienrausch - Schriftenreihe des Zentrums für Wissenschaft und Forschung ; 5) lncludes bibliographical references. ISBN 978-3-631-64060-9 1. Internet games. 2. Internet games-Design. 3. Internet games-Social aspects. I. Bigl, Benjamin. GV1469.15.P55 2013 794.8'1-dc23 2013007656 ISSN 2195-5514 ISBN 978-3-631-64060-9 © Peter Lang GmbH Internationaler Verlag der Wissenschaften Frankfurt am Main 2013 All rights reserved. PL Academic Research is an lmprint of Peter Lang GmbH All parts of this publication are protected by copyright. Any utilisation outside the strict Iimits of the copyright law, without the permission of the publisher, is forbidden and liable to prosecution. This applies in particular to reproductions, translations, microfilming, and storage and processing in electronic retrieval systems. www.peterlang.de STEFAN HÖLTGEN Game Circuits. Platform Studies und Medienarchäologie als Methoden zur Erforschung von Computerspielen Abstract The fol/owing chapter combines the theory and method of computer game Media Archaeology and Platform Studies. After defining the terms and history of archaeologica/ media theory since the early 201h century I will summariz.e the definition and program of the 2009 established Platform Studies as a part of US-American Cultura/ Studies. Then I give two examples of early microcomputer (game) phenomena (e.g. illegal opcodes and programming errors) which can show how Media Archaeology of computer games can be used to contribute (historical/technical) informatica/ aspects to a wider range media epistemology of the microcomputer. Was tiat sich eigentlich am Spiel und am Spielen verändert, als der Computer das Spielfeld be- und als Medium zwischen die Spieler trat? Dieser Frage gehen sowohl die Medienwissenschaft(enl als auch die Game Studies nach, welche die Möglichkeiten und Wirklichkeiten von Spielen vor dem Hintergrund der Turingmaschine untersuchen. Die Fragen richten sich dabei auf Einzelaspekte von Interaktivität zwischen Spieler und Spielgeschehen/-figur, der Narration und den Genres von Spielen, der Geschichte, den ästhetischen Einzelaspekten wie Sound, Grafik, Perspekti1 Der vorliegende Text versteht sich als ein Beitrag einer im Singular verstandenen Medienwissenschaft, die zuvorderst den Kanal und nicht den Mediennutzer oder -inhalt aspektiert. Da unter dem plural-medienwissenschaftlichen Komplex "Game Studies" bislang betriebenen Zugriffe auf Computerspiele zumeist aus soziologischen, ästhetisch-hermeneutischen oder kulturwissenschaftlichen Perspektiven stattfanden, hält es eine medienarchäologisch operierende Medienwissenschaft daher an der Zeit und für erforderlich, das technische Apriori des Mediums Computer und Computerspiele (wieder) ins Bewusstsein zu rufen. Dies kann nur in der Diktion technischer Analysen und Beschreibungen erfolgen, die das dazugehörige Vokabular aus den Ingenieurs-, Struktur- und Naturwissenschaften nutzen. Es sei daher darauf hingewiesen, dass dieser Text nicht zur Verkomplizierung, sondern zur Vereindeutigung technikwissenschaftliche Züge besitzt. Kulturwissenschaftliche Theoriekonzepte und Methoden, auf denen die Medienarchäologie basiert, werden in den hier dokumentierten Texten (insb. von Parikka) im Detail referiert, weswegen ich auf diese oft in Form der Kürzel ihrer Autorennamen (Foucault, Mcluhan etc.) verweise. 83 STEFAN HÖLTGEN ve/Räumlichkeit etc. Sie sehen das Spiel als Gegenstand für gendertheoretische, anthropologische, philosophische und andere akademische Fragen. Es existieren Untersuchungen zur Produktionsästhetik von Computerspielen (Game-Design, KI -Design), zu ihrer Rezeption und Wirkung (Immersion, Medienwirkung) sowie zu mediensoziologischen Fragen (Vergemeinschaftung durch Spielen, Wirkung von Spielinhalten auf den Spieler usw.). Eine eigentümliche Blindstelle der bisherigen kultur-und medienwissenschaftlichen Beschäftigung mit dem/den Computerspielen bilden jedoch die unsichtbaren und impliziten Bedingungen ihrer Möglichkeiten: die Hardware und die Software der Spiele - also die Plattform und der Code. Beide Problembereiche verlassen natürlich den Sektor der rein geistesund kulturwissenschaftlichen Beschäftigung mit Computerspielen und stellen Verbindungen zur (technischen) Informatik (Hardwaredesign, Programmiersprachen), zur Mathematik (Spieltheorie), zu Elektronik, Physik und Technikgeschichte her. Ziel einer Befragung dieser Disziplinen kann es sein, Episteme freizulegen, die dem Computerspiel und seinen Hard - und Software-Bedingungen unterliegen. Eine im Foucau ltschen Sinne verstandene Archäologie des Computerspiels würde also Schnittstellen zum Feld der Game Studies suchen, diese aber auch überschreiten, um Aussagen größerer theoretischer Reichweite formulieren zu können. Denn vielleicht zeigen die Popularität, die ökonomische Relevanz und der derzeit hohe Grad an Diskursivität von Computerspielen, dass das Computerspiel nur das Symptom eines viel umfassenderen kulturellen und medialen Bruchs darstellt, von dem mancher sogar als "Kulturrevolution" (Seeßlen, 1984: 7) spricht. Dieser Bruch, das hat Foucaults akribische Untersuchung des Archivs und seiner Bestandteile gezeigt, offenbart sich nicht im Blick auf das große Ganze, sondern im Gegenteil, in der Analyse des Kleinen, der Fissuren und Ränder der Bruchstelle - um im Bild zu bleiben. Der vorliegende Beitrag möchte genau diese Perspektive einnehmen und zwei Methoden bzw. Ansätze vorstellen, die hierfür adäquat erscheinen: die Medienarchäologie und die Platform Studies. Zunächst will ich skizzieren, was Medienarchäologie ist und auf welche Weise sie sich bislang mit dem Computerspiel beschäftigt hat. Die Frage, wie Medienarchäologie und Platform Studies zusammen zu denken wären, stelle ich im darauffolgenden Teil dar, um zum Schluss an zwei konkreten Beispielen (Fissuren) zu zeigen, welche Möglichkeiten sich daraus für eine Medienarchäologie des Computerspiels ergeben. 84 Game Circuits "What is Media Archaeology?" Dass das Fundament unserer Kultur, ihrer Diskurse und Praktiken spätestens mit Beginn des Gutenberg-Zeitalters (u. a. Marshall Mcluhan) von Medientechnologien geprägt ist, ist eine Erkenntnis, die nicht erst in der Toronto School entstand, sondern sich in Ansätzen bis zu Walter Ben jamin zurückverfolgen lässt (vgl. Parikka & Huhmtamo, 2011: 6 und Parikka, 2012: 5-7), der bereits in seinem unvollendeten Passagen -Werk eine Analyse des Mediums Panorama eng an die es hervorbringende Kultur band und umgekehrt die mediale Wirklichkeit derselben als allgemeinen Ausdruck jener Medientechnologie sah. Der Nexus zwischen einer Kul tur und ihren Medien wird in der Folge immer häufiger zum Gegenstand der Analysen und erhält durch Foucaults "Archäologie des Wissens" (1969) ein methodologisches Fundament. Foucault sieht Kulturen nicht mehr als die Summe von konkreten menschlichen Akteuren, sondern als Gefüge von Diskursen und Dispositiven, zu denen vor allem auch die Medientechnologien gezählt werden. Medien werden so zu nichtmenschlichen Aktionen erklärt, die einen enormen Einfluss auf das Wissen und Nicht-Wissen besitzen und deshalb im Rahmen einer Epistemologie zentral berücksichtigt werden müssen. Den dezidierten Grundstein zu einer Medienarchäologie legt daher tatsächlich erst Mcluhan in Understanding Media, wenn er sich vom Medieninhalt ab- und dem Kanal zuwendet: "The Medium is the Message" lautet sein berühmtes Diktum, das nicht weniger als eine Aufforderung darstellt, sich dem verführerischen "Inhaltismus" (Pias, 2005a: 337 und Ernst, 2007: 284) zu versagen und nicht mehr zu fragen, was das Medium sagt, sondern welche technischen Bedingungen seine Aussagemöglichkeiten überhaupt erst ermöglichen (und natürlich, auf welchen Epistemen diese Bedingungen ihrerseits fußen). Das hat Konsequenzen für die sich mit solchen Inhalten beschäftigenden Wissenschaften. Eine regelrechte "Austreibung des Geistes aus den Geisteswissenschaften" sieht Kittler, ausgelöst durch drei den Geisteswissenschaften querlaufende Methoden um 1900 (vgl. Kittler, 1980: 8 f.) und leitet später daraus (s)einen Medienmaterialismus ab, der die Sichtweise Mcluhans noch weiter radikalisiert. Der Computer wird für Kittler dabei zum wichtigsten Medium des 20. Jahrhunderts und zugleich zum zentralen Gegenstand seiner eigenen Analysen. Seine materialistische Perspektive reicht hier so weit, dass er 1993 konstatiert: "Es gibt keine Software" und damit meint, dass "Software als maschinenunabhängige Fähigkeit [des Computers, d. A.] nicht existiert" (Kittler, 1993: 235), sondern lediglich ein Konstrukt zur Etablierung von Copyright-Ansprüchen sei. Programme realisierten 85 STEFAN HÖLTGEN auf der untersten Ebene der Verarbeitung vielmehr (ausschließlich) in Hardware implementierte Funktionen der Signalverarbeitung. Von Kittler ausgehend verzweigt sich die Medienarchäologie in unterschiedlichste Richtungen, erhält - je nach Sichtweise und Gegenstandsbezug - verschiedene Radikalisierungen, Färbungen und Anschlüsse an andere Diskurse. Entscheidend für ihr Programm bleibt jedoch, was Parikka in seiner jüngsten Publikation zum Thema folgendermaßen zusammenfasst: "Media archaeology is introduced as a way to investigate the new media cultures through insights from past new media, often with an emphasis on the forgotten, the quirky, the non -obvious apparatuses, practices and inventions. In addition [... ) it is also a way to analyse the regimes of memory and creative practices in media culture - both theoretical and artistic. Media archaeology sees media cultures as sedimented and layered, a fold of time and materiality where the past might be suddenly discovered anew, and the new technologies grow obsolete increasingly fast." (Parikka, 2012: 2f.) Damit weist Parikka die Medienarchäologie gleichzeitig als Theorie und Methode aus, kennzeichnet ihren Unterschied zur Geschichtsschreibung und zur klassischen Archäologie als einer vor allem auf Diskontinuitäten und "Rernedialitäten" konzentrierten Archäologie der Gegenwart und unterstreicht ihren Mehrwert gegenüber Ansätzen mit ausschließlich singulärer Perspektive (auf Inhalte, Historizität, Diskursivität o. ä.) Computer spielen Für das Computerspiel hat Pias als einer der ersten eine medienarchäologische Untersuchung vorgenommen. Er stellt einer bis dato ohnehin noch in den Kinderschuhen steckenden Wissenschaft der Computerspiele ein Konzept zur Seite, dass das Computerspiel bereits als einen Indikator der Kultur der Neuzeit definiert. Seine Thesen lassen sich in etwa folgendermaßen zusammenfassen. Der Computer ist: 1. ein Disziplinierungsmedium: Actionspiele unterwerfen den Körper des Spielers einer Disziplin, die in Hard- und Software vorformuliert ist und diese damit in die Tradition der Arbeitswissenschaft des 19. und frühen 20. Jahrhunderts stellt. 2. ein Netzmedium: Adventure-Spiele konstruieren Räume, stellen Sprachmöglichkeiten und -barrieren über Programmiersprachen und -techniken auf, versinnbildlichen Graphentheorien und damit 86 Game Circuits Tracing- und Routing-Probleme, die in der außer-spielerischen Wirklichkeit des Kalten Kriegen konstitutiv wurden. 3. ein Kriegsmedium: Spielen ist die fundamentale Funktion von Computern. Alles, was dieser kann, ist Wirklichkeiten auf der Basis von Simulationen durchzuspielen - sei es Differenzialgleichungen von Flugbahnen lösen (die für einen realen Flugkörper stehen), Simulationen etablieren, die ein natürliches System (etwa das Areal einer Panzerschlacht des Koreakrieges) symbolisch nachahmen oder eben Computerspiele auszuführen. Letztere verdoppeln emblematisch, was der Computer immer schon ist: eine Maschine, die mithilfe der Statistik (Spieltheorie) der Komplexität und dem Zufall die Reduktion, Berechnung und Simulation von Möglichkei ten entgegenstellt. Pias basiert seine hier vielleicht etwas holzschnittartig zusammengefassten Thesen auf genauester Lektüre kultur-, technik- und wissensgeschichtlicher Quellen. Dabei geht er gleichermaßen kultur- wie technikwissenschaftlich vor. Zur Analyse der Adventure-Spiele untersucht er die Codes verschiedener Programmiersprachen und beschreibt die Funktionsweise von Parsern (Pias, 2002: 125 ff.); zur Differenzierung von Computer- und Videospiel (Pias, 2002: 106- 118) nimmt er detaillierte elektronische Beschreibungen und Analysen von Hardware (Platinen) vor. Mit Computer Spiel Welten verwirklicht er so die von Kittler eingeforderte materialistische Medienwissenschaft in Hinblick auf Computerspiele und nutzt sie, um epistemische Fissuren nachzuzeichnen, anstatt - wie die meisten vorherigen Beschäftigungen mit dem Gegenstand - im Historisch-Anekdotischen oder in inhaltlichen und technischen Beschreibungen zu verweilen. Zum Sammelband Media Archaeology, herausgegeben von Parikka und Huhtamo, steuert Pias die englische Übersetzung seines Essays Die Pflichten des Spielers. Der User als Gestalt der Anschlüsse (Pias, 200Sa) bei, worin er noch einmal nachdrücklich auf die medienarchäologische Perspektive seiner Untersuchungen hinweist. Im Text geht Pias detailliert auf jene diese Medienepistemologie erst ermöglichende Aktantenvertau schung seiner Computerspieltheorie ein: Der Computer spielt mit dem Spieler, indem er dessen Körper dazu diszipliniert zur bestimmten Zeit bestimmte Handlungen auszuführen, was mit dem Fortgang des Spielverlaufs belohnt wird. Mensch und Maschine testen sich gegenseitig, wie er am Beispiel "Pong" zeigt, dass die spielerische Emanation des PingProtokolls bildet, welches eben prüft, ob arri anderen Ende einer Leitung ein Antwortender ist. Der Spieler ist damit nur "der fleischgewordene 87 STEFAN HÖLTGEN Sonderfall von Gerätekommunikation" (Pias, 2005a: 327). Deshalb ist es ihm gelegen, "[... ]die Technik im weiteren Sinne ins Zentrum zu rücken und sie dabei nicht auf Extensionen, Apparate, Handlungsanweisungen oder funktionierende Trivialisierungen zu reduzieren, [... sondern] als eine Kraft oder Figur [zu] begreifen, die Relationen organisiert und dadurch innerhalb eines strategischen Dispositivs Neues und Unerwartetes produziert. [... ] Technik ist nicht etwas, sondern tut etwas, und dies zugleich an mehreren Stellen: Sie stiftet ästhetische, praktische, apparative und epistemische Zusammenhänge, deren ästhetische, praktische, apparative und epistemische Folgen wiederum unbestellt und nicht präjudizierbar sind." (Pias, 200Sa: 338 f.) Der Rahmen, den Pias sich hier wie auch in Computer Spiel Welten setzt, ist zugleich ein Aufruf an seine Leser: Seine Computerspiel-"Geschichte" hört eigentlich an dem Punkt auf, an dem die Zeit der Computerspiele (im engeren Sinne) beginnt. Zwar spielen im Buchkapitel noch Titel wie Ages of Empires, Panzergeneral II und Civilizations 111 aus den 1990erjahren eine Rolle - doch lediglich zur Illustration der Zentralthesen (dass Computer stets Krieg spielen). Demzufolge geht Pias auch nicht detailliert auf diese Spiele ein. Für die wichtige Zeit der Computerspiele (insbesondere der Spiele, die im Privaten gespielt wurden) zwischen 1977 und etwa 1995 steht eine medienarchäologische Untersuchung noch aus. Das Material, das durch die sich seit einigen Jahren organisierende Retro-Computing-Szene systematisiert, archiviert und im Internet publiziert wird, ist derartig reichhaltig, dass es schon für die GameStudieseinen immensen Fundus darstellt. In dieser Zeit wurden ungezählte Rechnerplattformen auf Mikroprozessorbasis veröffentlicht, die selten kompatibel zueinander waren und deshalb jeweils eigene "technologische Nischen" im Software- und Peripheriemarkt ausbildeten. Hinter jeder einzelnen dieser Plattformen (hier schon im Sinne Bogosts & Montforts, 2009 gesprochen, s. u.) stehen Entwicklungsgeschichten, Nutzer-/Spieler-Szenen, Hacker-Subkulturen, Publikationen und oft unikale Spiel(konzept)e. Im Übergang von der Arcade- zur Homecomputer-Ära in den späten 1970er-Jahren explodiert die Zahl solcher Plattformen regelrecht und macht aus dem Computer - in den allermeisten Fällen vermittels der Spiele! - ein Massenmedium, das wie alle vorherigen Massenmedien Aneignungspraktiken unterzogen wird (Hobby-Computists, Hacker, Cracker, Demo-Entwickler usw. bil den die konkreten Aneignungsformen). 88 Game Circuits Plattform Studies Sieben Jahre nach Pias, jedoch - glaubt man dem Literaturverzeichnis nicht in dessen Gefolge, rufen die Medienwissenschaftler Bogost und Montfort die Platform Studies ins Leben. Ihr Auftakt, in dem sie zugleich das Forschungsprogramm formulieren und es auf eine der ersten SpielPlattformen anwenden, heißt Racing the Beam und untersucht die Hard und Software der Atari-VCS-Spielkonsole. Diese stellt nicht nur einen der frühesten universell programmierbaren Spielcomputer dar, sondern ist aufgrund ihrer besonderen Architektur ein Beleg für den Umbruch, den Computerspiele für die Computerindustrie der späten 1970er-jahre bedeuten. Ein spartanisch ausgestatteter 8-Bit-Microprozessor (auf Basis des 1975 veröffentlichten MOS 6502, der in den frühen professionellen Homecomputern von Apple und Commodore arbeitete) wird unterstützt von einem Spezialchip (Television Interface Adapter- TIA) , der für die Generierung der Videosignale und des Tons zuständig ist und so den Prozessor entlastet. Die Programmierung dieser Plattform geriet förmlich zur Kunst und noch heute werden Spiele und Demonstrationen für die VCS entwickelt, von deren Möglichkeit die Erbauer der Konsole wahrscheinlich nicht einmal träumten. Hier zeigt sich bereits ein wichtiger Aspekt der Platform Studies: Die Hardware wird im Verbund mit der Software zu einer Emergenz produzierenden Einheit - erst dies ermöglichte der VCS ihren Erfolg und ließ die Homecomputer-Szene auf ganz ähnliche Architekturen setzen: "A platform in its purest form is an abstraction, a particular standard or specification before any particular implementation of it. To be used by people and to take part in our culture directly, a platform must take material form, as the Atari VCS certainly did . This can be done by means of the chips, boards, peripherals, controllers, and other components that make up the hardware of a physical computer system. [...] Whatever the takes for granted developing, and whatever, from another side, the use r is required to have working in order to use particular software, is the platform. In general, platforms are layered - from hardware through Operating systems and into other software layers - and they relate to modular components." (ßogost & Montfort, 2009: 2 f.) Die Platform Studies untersuchen nun stets eine solche Plattform in Hinblick auf ihre Hardware-Besonderheit(en), ihre Software und der daraus ablesbaren Programmier-Historie, aber auch ihrem Einfluss auf die Branche, die Kultur und das "Echo", als das die jeweilige Plattform in späteren Architekturen vernehmbar ist: 89 STEFAN HÖLTGEN "Our approach is mainly informed by the history of material texts, programming, and computing systems. Other sorts of platform sturlies may emphasize different technical or cultural aspects, and may draw on different critical and theoretical approaches. To deal deeply with platforms and digital media, however, any study of this sort must be technically rigorous. The detailed analysis of hardware and code connects to the experience of developers who created software for a platform and users who interact with and will interact with programs on that platform." (Bogost & Montfort, 2009: 3) Bislang sind drei Monografien zu diesem Forschungsprogramm erschienen: Das Buch über die Atari VCS und im Frühjahr und Sommer 2012 ei ne umfangreiche Untersuchung über den Commodore Amiga (Maher, 2012) sowie die Nintendo-Wii-Konsole (Jones & Thiruvathukal, 2012), jeweils vor dem Hintergrund der (spiel-)technologischen Neuerungen, die diese Computer eingeführt haben. Was unterscheidet diesen Ansatz nun von einer Medienarchäologie des Computerspiels und wie ergänzen sich beide? Auch wenn der methodische Z.ugang der Platform Studies dem der Medienarchäologie des Computerspiels zunächst in seiner technischen Rigorosität ähnelt, basiert diese nicht auf demselben theoretischen Ansatz, sondern verortet sich deutlich im Programm der US-amerikanischen Cultural Studies: "A computational platform is not an alien machine, but a cultural artifact that is shaped by values and forces and which expresses views about the world" (Bogost & Montford, 2009: 148). Hier tritt bereits ein den Cultural Studies immanenter Medienkonstruktivismus hervor, von dem sich die Medienarchäologie abgrenzt (vgl. Pias, 2002: 1), weswegen Parikka die Platform und die Software Studies auch nur zu deren "cognate fields" (Parikka, 2012: 163) zählt. Die Konzentration auf die Plattform und die technische Beschreibung von Hard- und Software schließt hierbei vor allem eine Argumentationslücke innerhalb der Cultural Studies des Computerspiels: 90 Game Circuits Die ,.layer" und der ,.cultural context" der Plattform Die Ebenen der Platform (Hardware) und die des Codes (Software) fanden - wohl aufgrund anderer Ausbildungsschwerpunkte kultur- und geisteswissenschaftlicher Studiengänge - bislang selten Betrachtung; auch weil das einflussreiche Programm der Cultura/ Studies vornehmlich einer Untersuchung der Kultur als Alltagspraxis verpflichtet ist, die fachwissenschaftliche Diskurse (wie die der Elektronik und Informatik) außer Acht lassen kann. 2 An zwei Beispielen aus meiner derzeitigen Forschung 3 will ich abschließend andeuten, worin der mögliche Zugang einer Plattformnahen Untersuchung von Computerspielen unter medienarchäologischer Perspel<tive bestehen kann. Signal, Symbol und Ikon: Die subkutane Sprache der Spiele Der Siegeszug der Computerspiele begann erst, als Computer günstig genug wurden, um für derartige Freizeitaktivitäten verfügbar zu sein. Die 2 Der Ebene des Codes widmet sich Bogost ebenfalls seit 2009 in einer anderen von ihm herausgegebenen Publikationsreihe mit dem Titel Software Studies. Da hier- bis auf eine Ausnahme (vgl. zum Programm der Software Studies insb. Wardrip-Fruin, 2012: ix-x) - Computerspiele keine vornehmliehe Rolle spielen, soll auf eine Einzeldarstellung der Software Studies im Rahmen dieses Beitrags verzichtet werden. 3 Am Fachgebiet Medienwissenschaft untersuche ich zurzeit der Veröffentlichung dieses Beitrags die ,.Archäologie des frühen Digitalcomputers und seiner Programmiersprachen". 91 STEFAN HÖLTGEN ersten Computerspiele entstanden auf Analog-, Groß- oder Minicomputern (vgl. Pias, 2002: 76 ff.), welche zumeist in Universitäten zu finden und zu bespielen waren. Noch zu Beginn der 1970er-Jahre waren Computerspiele ausschließlich in Form von Single-Purpose-Spielcomputern (etwa "Computer Space" oder "Pong") in Bars und Spielhallen aufgestellt. Dies änderte sich mit der Verfügbarkeit von Mikroprozessoren, die auf der günstigen NMOS-Technologie basierten. 1975 erschien von der Firma MOS Technology Inc. der Prozessor MOS 6502, der in den folgenden zehn Jahren in zahlreiche Plattformen verbaut wurde. Darunter befanden sich auch jene Computer, die für die Spielentwicklung besonders nachhaltige Bedeutung erlangten: Der Apple II, die Computer der Firma Commodore (insbesondere der VC-20 und der C-64) sowie die 8-BitKonsolen und -Homecomputer der Firma Atari. Nur ein Jahr nach der Veröffentlichung des MOS 6502 erschien von der neu gegründeten Firma Zilog der 8-Bit-Konkurrent ZBO, der der bislang am häufigsten und vielfältigsten implementierte Mikroprozessor überhaupt ist. Neben zahllosen Homecomputern (von Sindair und Amstrad bis zur MSX-Reihe) fand er sich in Textcomputern, Mikrocontrollern und vor allem in Experimental-Systemen zur Programmierlehre. Das didaktische Potenzial des ZBO kulminierte in einer umfangreichen Programmierhandbuch-Bibliothek und unzähligen Einplatinen-ComputerBausätzen, mit denen man nicht bloß die Programmierung, sondern gleich die Hardware-Konstruktion eines eigenen Computers einüben konnte. Die beiden Prozessoren MOS 6502 und ZBO (und deren abwärtskompatible Nachfolger) fanden sich wahrscheinlich in etwa 95 Prozent aller auf dem Homecomputer-Markt verfügbaren Plattformen. Eine Untersuchung dieser Plattformen in Hinblick auf die in ihnen verbauten Komponenten (neben den Mikroprozessoren sind hier vor allem die Hilfsprozessoren für Grafik, Sound, sowie Input/Output-Chips wichtig) könnte also unterhalb der Ebene der Plattform noch weitere Faktoren für eine Untersuchung von Computerspielen anbieten. Hierzu müssten Methoden und Diskurse der (historischen) Technischen Informatik hinzugezogen werden. Zunächst scheint es wichtig darauf hinzuweisen, dass mit dem Erscheinen der frühen Mikroprozessoren eine "Tradition", die ab den 1950erJahren die Mikroarchitektur der CPU bestimmt hatte, fallen gelassen und ein Schritt "zurück" gegangen wurde: 1951 schlägt Wilkes nach Begutachtung des Whirlwind-Computers vor, eine weitere symbolische Ebene zwischen die der Programmierung in Assembler oder Maschinensprache und die der Verarbeitung der Instruktionen in Form elektrischer Signale im Prozessor einzuziehen (Wilkes, 1951 ). Mit Hilfe der so genannten 92 Game Circuits Mil<roprogrammierung soll einerseits die Komplexität der Verdrahtung innerhalb des Computers reduziert werden, andererseits sollen dessen werkseitige Fähigkeiten (etwa wie viele und welche Opcodes implementiert sind) nachträglich veränderbar sein. In der Frühzeit des Mikroprozessors ( 1971-1985) reüssiert die so genannte "random logic" (Festverdrahtung), die von Zuses Z_l bis zum Whirlwind vorherrschend war, nun erneut: In dieser Zeit nutzen alle CPUs festverdrahtete Opcodes. Daraus resultieren verschiedene Effekte für die unterste Symbolebene des Computers: Von den Ingenieuren nicht berücksichtigte Verdrahtungswege ermöglichen so genannte "illegale Opcodes", die entweder keine Funktion (so genannte NOPs - No Operations) aufrufen, den Rechner zum Absturz bringen oder emergente Funktionen des Prozessors aufrufen. Letztere wurden vielfach und auf unterschiedlichste Weise genutzt - etwa um in professionelle Software Kopierschutzverfahren auf der untersten Ebene einzuführen. Solche Programme mit "illegalen Opcodes" können beim Disassemblieren (also der vom User durchgeführten, jedoch vom Urheber unerwünschten Rückübersetzung des ausführbaren Programms in die Assembler-Mnemonics) nicht korrekt rückübersetzt werden. Die Implementierung dieses Schutzes funktioniert folgendermaßen: Bei der Programmierung (vgl. Gelfang et al., 1987: 116) werden offizielle durch "illegale" Opcodes mit gleicher Funktion zum Zwecke der Code-Obfuskierung getauscht. Lässt man ein solches Programm später durch einen darauf nicht vorbereiteten Disassembler laufen, kann dreierlei passieren: Es werden Fehler ausgegeben, es können falsche "legale Opcodes" erscheinen oder es kann zur Verwechslung von Programm-Instruktionen und Daten kommen (die in der von- NeumannArchitektur ja stets im selben Speicher residieren). Während die erste Möglichkeit offensichtlich auf das Vorhandensein "illegaler Opcodes" hinweist, sind die anderen Ausgaben nur sehr schwer als Fehler identifizierbar und daher als Kopierschutz überaus gut geeignet. Die oben von Kittler zitierte These, dass Software die bloße Realisation von Hardware-Effekten sei und allenfalls urheberrechtliche Existenzberechtigung besitze, zeigt sich vor diesem Hintergrund in ihrer radikalsten Form: Die Existenz eines okkulten Vokabulars (der "Illegal Opcodes") im symbolübersetzenden und signalverarbeitenden Kern des Computers macht den Kopierschutz zu einer von den Ingenieuren unbewusst implementierten Funktion. An dieser Stelle böte sich eine genauere Untersuchung des Erfindungsprozesses der betreffenden Mikroprozessoren an, der die Möglichkeiten und Effekte der Chips an die zurzeit ihrer Konstruktion vorherrschenden Machtdispositive koppelt. Mit dem weitläufigen Bekanntwerden der "illegalen Opcodes" werden diese Effekte näm- 93 STEFAN HÖLTGEN lieh zunehmend bewusster genutzt und später - in mikroprogrammierten CPUs - dann sogar als "nicht dokumentierte" Funktionen deklariert, die ein Pendant zu den "protected modes" (vgl. Kittler, 1993: 208 ff.) der Betriebssysteme bilden. Neben der Kopierschutz-Funktion bietet die Verwendung "illegaler Opcodes" jedoch auch andere, für die Programmierung sehr nützliche Effekte. So lassen sich etwa Funktionen, für die eigentlich zwei Opecdes benötigt würden, in einem "illegalen Opcode" aufrufen und damit Verarbeitungszeit und Speicher sparen. 6502-Assembler-Programmierhandbücher (etwa für den werkseitig mit nur 2 KB RAM spärlich ausgestatteten VC-20) führen deshalb schon sehr früh die Möglichkeiten solcher Codes vor und fördern damit eine Form des Hackings auf der untersten Ebene. Von den Chip-Herstellern werden diese - einmal "bewusst" gewordenen - Möglichkeiten allerdings ebenso schnell registriert und zum Zwecke der Arbeitsstabilität der Prozessoren in späteren Revisionen der CPUs teilweise revidiert. Zj/og führt in den ansonsten voll abwärtskompatiblen Z180 sogar eine Erkennung von "illegalen Opcodes" ein und sperrt die damit aufgerufenen Funktionen. In der dem 6502 folgenden Revision 65C02 deaktiviert MOS Technology lnc. ebenfalls die Emergenzen produzierenden Verdrahtungswege ihres Prozessors mit fatalen Folgen für einige Computerspiele, die auf früheren Versionen des Apple II "i llegale Opcodes" nutzten. Das populäre Rollenspiel Ultima I ist auf den App/e-Rechnern 1/e, 1/c und 1/gs nicht mehr gewinnbar, weil es sich aufgrund des für den Prozessor unverständlichen Codes aufhängt. Erst durch eine Abänderung (vulgo: das Cracken) der die "illegalen Opcodes" repräsentierenden Hex-Codes auf der Diskette oder im RAM durch den User werden solche Spiele wieder spielbar. Das von Kittler (1993: 208 ff.) als Wiederaneignung der Hardware und Pias (2005b) als maßgebliche Konsequenz aus der frühen Geschichte der Computerspiele abgeleitete Phänomen des Hackings überkreuzt sich sichtbar in diesem Beispiel medialer Emergenzproduktion. Der Sturz aus der Signalverarbeitung in die Welt des Symbolischen Ultima I ist damit also plötzlich fehlerhaft. Nun wäre wohl diese so verursachte Dysfunktionalität kaum als Programmierfehler zu deklarieren, obwohl sie im Effekt als ebensolcher in Erscheinung tritt: Der Computer wird mit fehlerhaftem Code konfrontiert und stürzt ab. "Echte" Programmierfehler lassen sich in drei Klassen unterteilen: Syntaxfehler (durch Falschschreibung des Codes) führen ebenso zum sofortigen Abbruch des Programms oder des Kompiliervorgangs, Semantik- oder Laufzeitfehler 94 Game Circuits (etwa durch eine Eingabe provozierte undurchführbare Berechnungen, wie z. B. "Division durch Null") und Logikfehler (die ungenügende Kodifizierung eines realweltlichen Problems in einen Algorithmus zur Lösung desselben) treten erst beim Ablauf des Programms in Erscheinung. Letztere Fehler sind besonders schwer vermeidbar, weil der erste Programmtester zumeist der Programmierer selbst ist, der auch beim Debuggen natürlich noch nicht weiß, was er schon beim Programmieren nicht wusste. Programmierfehler aller drei Kategorien zeigen sich jedoch nicht allein bei der Nutzung von Hochsprachen; sie treten schon bei der AssemblerProgrammierung auf und zeitigen dort nicht selten sehr markante Effekte. So offenkundig wie zur Zeit der frühen Großcomputer zeigen sich Fehler in Maschinensprache-Programmen für Mikroprozessoren nicht mehr. Und so leicht zu debuggen, wie jener "actual bug" Grace Hoppers im Mark II (vgl. Höltgen, 2011: 12) sind sie auch nicht. Aus den Einflugschneisen der Mark-li-Motte, die sich im Relais jenes Großrechners verfangen und dort für eine Unterbrechung des Signalflusses gesorgt hatte, sind zur Zeit der Homecomputer mentale und vielleicht sogar ideologi sche Fehlleistungen des Programmierers geworden, die medienarchäologisch mit Hilfe der von Kittler (1980: 8 f.) als transversale Methode der Geisteswissenschaft zuwiderlaufende Psychoanalyse analysiert werden könnten. Die Psychoanalyse, als Methode zur "Aufhebung" des Unbewussten ins Bewusste und - halb neurowissenschaftlich gesprochen Übersetzung von elektrischen Neuronensignalen in sprachliche Symbole böte für folgenden Fall vielleicht das passable Instrumentarium: Im 1983 zunächst für Atari-Computer, kurz darauf für verschiedene andere 8-Bit-Plattformen auf 6502- und Z80-Basis erschienenen Actionspiel Blue Max ist es Aufgabe des Spielers mit einem DoppeldeckerFlugzeug über ein Schlachtfeld zu fliegen und Bomben auf Fahrzeuge, Brücken und feindliche Hangars abzuwerfen sowie andere Flugzeuge mit dem Bord -Maschinengewehr abzuschießen. Der Begleittext zum Spiel besagt, dass dem Spieler der Orden "Blauer Max" verliehen wird, sollte er dabei den feindlichen Piloten Max Chatsworth vom Himmel holen. In der isometrischen Perspektive überfliegt man also Runde für Runde Feindesgebiet, um am Ende wieder auf der eigenen Landebahn zu landen und aufzutanken bzw. nachzuladen. In der Ursprungsversion für den Atari enthält das Spiel einen bemerkenswerten Fehler: Bombardiert man am Ende des Levels den eigenen Hangar, anstatt regelkonform auf der Landebahn daneben zu landen, bricht der Grafikbildschirm zusam men und man findet das eigene Flugzeug· inmitten einer "Landschaft" aus ASCII-Zeichen wieder: 95 STEFAN HÖLTGEN Screenshot .,Blue Max"- Atari -Version Das Spiel bricht in dieser Situation allerdings nicht ab, sondern man steuert das Flugzeug nun durch eine Welt voller Symbole; der programmatische "Absturz" erfolgt dann erst kurz darauf, wenn eine Kollisionsabfrage positiv ausfällt, man also gegen "etwas" geflogen ist, das man als Hindernis oder Gegner nicht identifizieren konnte. Obwohl ein Disassemblat des Programms derzeit noch aussteht, lässt sich bereits folgendes als Grund für diesen Effekt annehmen. Im Code des Spiels liegt am LevelEnde eine Kombination aus Laufzeit- und Logikfehler vor. Der Programmierer ging beim Schreiben wohl nicht davon aus, dass der Spieler quasi die (inhaltliche) Bedingung seines Weiterspielens verunmöglicht, indem er seine eigene Basis zerstört. Deshalb ruft das Bombardement des eigenen Hangars die zuvor wahrscheinlich bereits mehrfach zu sehende Animation von der Zerstörung ähnlicher Feindesgebäude auf. Zugleich wird aber eine Position im Level (respektive ein Counterzustand in einer Speicherzelle) erreicht, an der die Prüfung der erfolgreichen oder gescheiterten Landung auf der eigenen Landebahn ansteht. Das Ergebnis dieser schizoiden Doppelverzweigung führt dann zum beschriebenen Effekt. · Warum der Programmierer diese Entscheidungsmöglichkeit des Spielers nicht vorhergesehen und eingeschränkt hat, lässt sich nur vermuten böte aber eine interessante Anschlussmöglichkeit für eine Diskursanaly- 96 Game Circuits se, welche Fragen zu (Un-)Denkbarkeit (un)patriotischen Verhaltens zurzeit des Kalten Kriegs sowie zur Präzession real-historischer Simulakra4 im Medium Computerspiel aspektieren könnte. Interessant ist hier jedoch, dass sich der Fehler in einer Adaption (für den C64) des Spiels wiederholt, in der anderen (für den Sindair Z.X Spectrum) jedoch nicht, was zu folgender Deutung einlädt: Die Übertragung des 6502Maschinensprache-Codes vom Atari- auf den Commodore-Computer konnte beinahe automatisch vollzogen werden: Die Opcodes selbst mussten nicht verändert werden, einzig die Ansteuerung des RAMs und der Spezialchips für Grafik, Sound und 1/0 (beim C64: VIC und SID, beim Atari: POKEY /GTIA und ANTIC) verlangte nach einer Modifikation von Portadressierung, lnterruptsteuerung und anderer Details. Die Übertragung auf den Z80A des Spectrum-Computers war jedoch diffiziler: Hier musste umfangreich (und höchstwahrscheinlich unter Vorlage des 6502-Sourcecodes 5) neu programmiert werden, weil sich die Prozessoren und ihre Maschinensprachen stark voneinander unterscheiden. Der vergleichsweise orthogonalen Architektur 6 des 6502, welche das .,wilde Denken" des Programmierers inspiriert, steht eine sehr stark .,strukturierte" Programmierung des Z80 gegenüber. Dieser verfügt gegenüber den drei Mulitfunktionsregistern A (Akkumulator), X und Y (lndexregister) des 6502 über eine große Anzahl spezialisierten Registern, die bereits bei ihrer Implementierung dem Regime des Symbolischen unterworfen, indem die Zi/og-Ingenieure die Mnemonics für die Registerbezeichnungen alphabetisch geordnet haben: A (Akkumulator), B/C (ByteCount), D/E (Destination), F (Flags), I (lndex-Register-Halbwort), HL 4 "Biue Max" spielt im Titel auf einen gleichnamigen Film über sowie auf den "Roten Baron" aus dem Ersten Weltkrieg, durch die Vergabe des Spielerrangs "Kamikaze Trainee" auf den Zweiten Weltkrieg und das vollständig aus dem SF-Game "Zaxxon" übernommene Gameplay und Grafiksetting auf eine unbenannten Zukunft an. Indi ziert wird das Spiel in Deutschland aufgrund mit der Begründung, dass am Rande eines möglichen Dritten Weltkrieges wenigstens die Kinderzimmer frei von kriegeri scher Gewalt bleiben sollen. 5 ln Atari-Computern wurden die Revisionen 6502A und 6502C verbaut, im C64 die Revision 6510. Der Übersichtlichkeit fasse ich diese im Text unter der Bezeichnung 6502 zusammen. Der mit 4 MHz getaktete Z80A stellt eine Revision des Z80 dar. 6 Je orthogonaler ein Prozessor angelegt ist, desto ""vieldeutiger'"' die Adressierungsarten und Verwendungsweisen von Registern, was dessen Assembler der natürlichen Sprache (bzw. deren Ambiguität) nähersteht als Prozessoren mit weniger orthogonal angelegten Befehlssätzen. Das äußerst sich bereits im Umfang der Befehlssätze: 256 mögliche Opcodes des 6502 stehen 1268 möglichen Opcodes für den Z80 gegenüber. 97 STEFAN HÖLTGEN (High-Low-Byte). 7 Dieses Konzept hat didaktische Konsequenzen: Während die Programmieranleitungen für den 6502 oft anhand der Spielentwicklung vorgehen (vgl. Zaks, 1980a), gab es für den Z80 kein einziges einführendes Werk, das auf die Übersichtlichkeit eines Blockdiagramms verzichten würde; Spielprogrammierung für diesen Prozessor sucht man hingegen vergebens in den Lehrbüchern (vgl. Zaks, 1980b). Dass der symbolisch so hochgradig durchorganisierte Z80 "trotzdem" auf random logic aufgebaut ist, wird deshalb in der Sekundärliteratur zum Prozessor entweder nicht erwähnt oder es wird sogar fälschlicherweise behauptet, er sei der erste mikroprogrammierte Mikroprozessor. Dies verwundert angesichts der Akribie, die seine Konstruktion bestimmte, kaum - und ebenso wenig, dass sein Nachfolger, der Z 180, dann tatsächlich der erste mikroprogrammierte Mikroprozessor wurde, bei dem das Regime des Symbolischen noch tiefer in die Hardware eingeschrieben und - wie erwähnt -vorhandene Hardware-Emergenzen getilgt wurden. Dieser Unterschied auf der Ebene der Symbolverarbeitung zeigt sich vielleicht in jenem Moment deutlich, an der Blue Max auf dem MariComputer in die geschilderte schizoide Situation gerät. Wie bei frühen Computerspielen üblich, werden Hintergrundgrafiken mithilfe der so genannten Bitmap-Grafik erzeugt. Dazu wird ein Symbol des im ROM implementierten ASCII-Zeichensatzes Punkt für Punkt redefiniert, so dass beispielsweise aus einem Buchstaben "A" ein Geschoss /' oder der Teil eines Gebäudes, eines Flusses, Baums o. ä. werden kann. Auf diese Weise lässt sich das Spielfeld rasch mit Zeichen füllen, die ihren Symbolcharakter dann jedoch zugunsten einer ikonischen Verwendung eingebüßt haben. In dem Moment, wenn bei Blue Max der Bildschirmhintergrund zusammenbricht, sucht das Programm die Bitmap-Tabelle für das nächste Hintergrundbild. Da der Code jedoch offensichtlich gerade wieder die ASCII -Symbole aus dem ROM lädt, um sie im Speicher zu einer neuen Landschaft zu verbauen, w ird der Bildschirm nun anstatt mit Ikons mit ASCII -Symbolen gefüllt. 7 Diese Register sind als "Schattenregister" (A', BD', ... )sogar doppelt vorhanden. Zusätzlich existieren im Z80 zwei weitere "vergessene" Register W & Z, die jedoch nicht von den Ingenieuren vergessen wurden, sondern von den Unsern zu vergessen sind, weil sie interne Funktionen besitzen. Die zahlreichen opaken Bereiche des Z80 verdeutlichen das Maß an programmierdidaktischer Planung bei der Konstruktion des Prozessors. 98 Game Circuits GarneOver So zeigt sich, dass die Beschränkung auf die Plattform als untersten "layer" des Computers und damit die Ausblendung einer noch tiefer liegenden Schicht jener "chips, boards, peripherals, controllers, and other components" (Bogost & Montfort, 2009: 2) Aspekte ausklammert, die konstitutiv für die Definition dieser Plattform sind. Zudem vergibt diese Beschränkung darüber hinaus einen Anschluss für eine medienepistemologische Diskussion, wie etwa hier gezeigt: über den variablen Grenzverlauf zwischen Signalfluss und Symbolverarbeitung, also über die protosymbolische und symbolische Ebene des Computers, an der sich technikhistorische Diskontinuitäten ebenso wie kulturelle Ein- und Rückflüsse bei der Konstruktion von Hardware offenbaren. Zwar zeigten Bogost & Montfort (2009: 77-79) an Spielvergleichen wie jenem zwischen Pacman und Ms. Pacman den Zugriff auf nicht-offizielle Hardwarefunktion zum Zwecke der Spielverbesserung, ignorieren jedoch den sich darin offenbarenden epistemischen Bruch, der die Nutzung von Computern im Zeitalter des Mikroprozessors bestimmt. Eine medienarchäologische Untersuchung von Computerspielen kann solche Brüche hingegen zusätzlich offen legen und damit sowohl die Game Studies (als einer im positiven Sinne "selbstzweckhaften Beschäftigung" mit Computerspielen) als auch die Platform Studies für eine Medien- und Kul turtheorie größerer Reichweite ergänzen. References ßogost, I. & Montford, N. (2009). Racing the Beam. The Atari Video Computer System. Platform Studies Bd. I. Cambridge: MIT. Gelfrand, R., Feit, J., Strauch, M. & Krsnik, D. (1987). Das Anti-Cracker-Buch. Düsseldorf: Data Becker. Höltgen, S. (2011). Vom Bug-on-a-chip zum House-on-a-Disc. "Little Computer People" und die Archäologie des Computerfehlers. ln Retro Magazin, Nr. 21 (Herbst 2011), 12-14. Huhtamo, E. & Parikka, J. (Hg.) (2011). Media Archaeology. Approaches, Applications, and lmplications. Berkeley u.a.: University of California Press. Jones, S.E. & Thiruvathukal, G.K. (2012). Codename Revolution. The Nintendo Wii Platform. Platform Studies Bd. 3. Cambridge: MIT. Kittler, F. (1980). Einleitung. ln Ders. (Hg.): Austreibung des Geistes aus den Geisteswissenschaften. Programme des Poststrukturalismus (pp. 7-14). Paderborn u.a.: Schöningh. Kittler, F. (1993). Es gibt keine Software. InDers.: Draculas Vermächtnis. Technische Schriften (pp. 225-242). Leipzig: Reclam. Vermächtnis. Technische Kittler, F. (1993). Proteeted Mode. ln Ders. dイ\セ」オャ。ウ@ Schriften (pp. 208-224). Leipzig: Reclam. 99 STEFAN HÖLTGEN Maher, J. (2012). The Future was Here. The Commodore Amiga. Plotform Studies Bd. 2. Cambridge: MIT. Parikka, J. (2012). What is Media Archaeology? Maiden: Polity Press. Pias, C. (2002). Computer Spiel Welten. Zürich & Berlin: Diaphanes. Pias, C. (2005a). Die Pflichten des Spielers. Der User als Gestalt der Anschlüsse. ln M.Warnke, W. Coy & G. C. Tholen (Hgg.): HyperKult II. Zur Ortsbestimmung analoger und digitaler Medien (pp. 313-342). Bielefeld: Transcript. Pias, C. (200Sb). »Children of the Revolution<< -Video-Spiel-Computer als Kreuzungen der Informationsgesellschaft ln Ders. (Hg.): Zukünfte des Computers (pp. 217240). Zürich & Berlin: Diaphanes. Seeßlen, G. & Rost, Ch. (1984). Pac Man & Co. Die Welt der Computerspiele. Reinbek: Rowohlt. Wardrip-Fruin, N. (2009). Expressive Processing. Digital Fictions, Computer Games, and Software Studies. Cambridge & London: MIT. Wilkes, M. V. ( 1951). The Best Way to Design an Automated Calculating Machine. Manchester University Computer lnaugural Conf., 16-18. (Wiederveröffentlicht unter: Ders.: The Genesis of Microprogramming. ln IEEE Annals of the History of Computing, Vol. 8, Nr. 3, 1986, 116-126.) Zaks, R. (1980a). 6502 Games. 6502 Series Vol. 4.o. 0 .: Sybex. Zaks, R. ( 1980b). Die Programmierung des Z80. Düsseldorf u.a.: Sybex. 100