Texttransformation – Lesertransformation
Veränderungspotentiale der digitalisierten Schrift

von Christiane Heibach

 

1. Materialität und Bedeutung
2. Die Subversion der Repräsentation
3. Von der Poiesis zur Aisthesis
4. Die Wiedergeburt der Schrift im Gespräch
5. Transparenz und Opazität


1. Materialität und Bedeutung
Schrift ist ein semiotisches System, das lange Zeit an materielle Medien (Stein, Pergament, Papier) gebunden war und damit häufig die Charakteristika ihrer Trägermedien zugeschrieben bekam (fixierend, linear, „endgültig“).[1] Der Poststrukturalismus löste diese inhärente Verknüpfung auf, indem er – auf der Bedeutungsebene operierend – die grundlegende Flüchtigkeit jeder Fixierung propagierte, Sprache von Schrift zwar unterschied, aber diese – letztlich der Tradition des Strukturalismus folgend – als „solche“ unabhängig von ihrem Medium betrachtete, indem er die buchdruckorientierte "Ideologisierung" der Standardsprache, d.h. der semantischen Fixierungsbeziehung von Signifikant und Signifikat, als Metaphysik entlarvte. Dennoch bleibt auch hier nach wie vor die Repräsentationsfunktion der Schrift erhalten – selbst wenn sie nur als Monument ihrer eigenen Instabilität und ihrer kulturellen Geschichte interpretiert wird.[2] Die logische Folge dieser Dekonstruktion der Bedeutungsbeziehung ist letztlich eine Ontologisierung der Schrift in der Form, daß ihr Eigenschaften zugeschrieben werden, die sie unabhängig von ihrem Trägermedium „an sich“ hat.[3]

Diese beiden verschiedenen Auffassungen – Schrift als materielles, mediales Phänomen einerseits, als generalisiertes Repräsentationssystem andererseits – finden sich unter den Bedingungen der Digitalisierung zusammen. Dies manifestiert sich v.a. in der amerikanischen Hypertexttheorie, die sowohl die Frage nach der „Materialität“[4] der Schrift als auch nach ihrer Bedeutungs- bzw. Repräsentationsfunktion (und damit mehr oder weniger indirekt die Rezipientenrekonstruktion von „Sinn“) unter den Bedingungen veränderter Schreibtechniken neu stellt, beide Ebenen dabei aber miteinander vermischt. In der Hypertextdiskussion drückt sich diese Spannung dadurch aus, daß nicht zwischen Hypertext als mentalem Konzept (Repräsentation der vernetzten Gehirnstrukturen) einerseits und Hypertext als programmierbasierte Schreibtechnik andererseits unterschieden wird. Die Folge ist eine Konfusion an Merkmalen, die dem elektronischen Hypertext zugeschrieben werden, ohne daß zwischen diesen beiden Ebenen konsequent getrennt würde.[5]

2. Die Subversion der Repräsentation
Auf der „materiellen“ Ebene betrachtet erhält Schrift durch den Transfer in ein digitales Medium tatsächlich Eigenschaften, die ihm der Buchdruck verweigert hat: Sie wird veränderbar, beweglich und erhält eine räumliche Dimension. Diese drei materiellen Eigenschaften haben in diesem Fall zwangsläufig auch Auswirkungen auf die Bedeutungs- und Repräsentationsfunktion von Schrift.[6] Hinzu kommt ein weiterer Aspekt, der sich – im Gegensatz zu den ersteren – nicht auf der materiellen (in diesem Fall der technischen) und auf der ästhetisch-semiotischen Ebene ansiedelt, sondern den Rezipienten/Benutzer berücksichtigen muß, der als Wahrnehmender die Veränderungen der beiden anderen Aspekte verarbeitet. Technische, semiotische und soziale Sphäre sind damit in der Digitalisierung der Schrift eng miteinander verbunden.

Die Veränderbarkeit, Beweglichkeit und Räumlichkeit erhält die Schrift, indem die Funktionsweise des Computers auf der Anwenderoberfläche „gespiegelt“ wird. D.h. die Prozeduralität des Elektronenflusses sowie der Ablauf von Software-Programmen, auf deren Basis der Computer überhaupt erst zum Medium wird, bestimmt letztlich auch den Handlungsspielraum der Benutzer. Dabei leisten die Programme schon eine Interpretationsarbeit, die die Erscheinungsformen an der Oberfläche festlegt.[7] Der Benutzer hat darauf nicht mehr viel Einfluß, dennoch eröffnen sich ihm Spielräume bei der Gestaltung der erscheinenden Schrift, die sich allerdings wiederum nur im Rahmen der Software-Möglichkeiten bewegen (der Computer oszilliert prinzipiell zwischen Eröffnung von Handlungspielräumen und strikter Kontrolle). Die rekursive Funktionsweise der Programme, die die immer wieder neue Verarbeitung von Daten nach denselben Mustern erlaubt, macht z.B. die spurenlose Korrektur von Fehlern und das Umschreiben von Texten möglich. Da sich hinter dem vertrauten Schriftbild letztlich nur elektronische Impulse verbergen, die bei Öffnen der Dateien durch die Interpretationsleistung der Programme jedes Mal wieder zu Schrift werden, ist die „materielle“ Veränderbarkeit digital gespeicherter Texte zumindest theoretisch unbegrenzt.

Die Räumlichkeit von Schrift ist zunächst ebenfalls bestimmt durch die Möglichkeiten der Software. Dreidimensionale Visualisierung von Buchstaben und Wörtern – oft in Verbindung mit Schriftbewegung – wird v.a. in der digitalen Poesie praktiziert. David Knoebels „slow.time" erhält seinen poetischen Charakter nicht zuletzt durch den sanften Fluß der Wörter, der es dem Leser überläßt, eine für ihn sinnvolle Kombinatorik herzustellen. Jim Rosenberg dagegen arbeitet in seinen Diagrams  mit Textschichten, „layers“, die übereinander gelegt werden und sich erst durch die Mausbewegung von den ihnen unterliegenden (oder sie überlagernden) Schichten lösen und lesbar werden. Radikaler nutzt Simon Biggs diese Möglichkeit bei „The Great Wall of China . Dem Projekt liegt eine Datenbank zugrunde, die aus den Wörtern der unvollendeten Kafka-Erzählung „Beim Bau der Chinesischen Mauer“[8] besteht. Der erscheinende Text wird automatisch aus diesen Wörtern (nach programmierten Syntaxregeln) generiert – die Maus des Benutzers, die über diesen Text fährt, ist das auslösende Moment für eine kontinuierliche Texttransformation, die erst dann zum Stillstand kommt, wenn die Maus sich aus dem Text herausbewegt. Verschiedene Textblöcke sind in ihrer Transformation dabei miteinander gekoppelt. 

„The Great Wall of China“ macht deutlich, daß hier der Schwerpunkt der Wahrnehmung verschoben wird – vom Lesen fixierter Buchstaben hin zu einer umfassenden Wahrnehmungsleistung, bei der die Suche nach Bedeutung von der Schrift abgekoppelt und auf den Prozeß der Transformation verlagert wird. Zusätzlich wird die Frage der Autorenrolle problematisiert – daß die entstehenden Texte computergeneriert sind (auch wenn der verwendete Wortpool von Kafka stammt) wirft die Frage nach der Bedeutung von Intentionalität und damit der kommunikativen Funktion von Texten wieder auf. Das Bewußtsein, hier eine Maschine als Autor vor sich zu haben, verändert auch die Einstellung des Lesers; die Betonung der Transformation verhindert zusätzlich, daß nach einer textbasierten Bedeutung gesucht wird. Der Bedeutungsraum wird somit verlagert und "globalisiert": Er geht vom Text über dessen Transformation zu der Beobachtung des eigenen Rezeptionsverhaltens angesichts der Unmöglichkeit des traditionellen Leseverhaltens.

Dasselbe gilt noch potenziert für ein anderes Projekt, „BEAST“  von Jacques Servin. Bei diesem Projekt steht der Benutzer zunächst machtlos den sich unabhängig von seiner Einflußnahme transformierenden semiotischen Systemen gegenüber, die miteinander in Interaktion treten. Die Dynamik des Projekts entwickelt sich beginnend mit Zitaten aus den fiktionalen und essayistischen Texten unterschiedlicher Autoren, die bestimmten Kategorien zugeordnet sind und deren Generierung zufällig erfolgt – der Benutzer kann zwar das Anfangsthema wählen (fünf große Themenbereiche stehen zur Verfügung), nicht aber den Text, der daraufhin erscheint (dieser wird programmiertechnisch zufällig aus dem der Kategorie zugeordneten Textpool generiert). Greift der Leser nicht ein, so schreiben sich die Texte selber fort, meist in einer Geschwindigkeit, die ein gründliches Lesen unmöglich macht. Begleitet wird diese "Textrolle" von verschiedenen Tonelementen, die ebenfalls einen gewissen Bezug zum Thema vermuten lassen. Nach einer gewissen Zeit öffnet sich ein navigierbares zusätzliches Fenster mit „floating images“ – Symbolen, deren Generierung von den Inhaltsschwerpunkten der bisher erschienenen Texte abhängt. Jedem Symbol ist wiederum ein Tonelement zugeordnet – klickt der Benutzer auf eines der Symbole, fixiert er es und löst damit gleichzeitig das dazugehörige akustische Feature sowie die Generierung eines thematisch mit dem Symbol korrelierten Textsegments aus, gleichzeitig erscheint eine "Karte", die das Symbol erklärt. 

Die programmgesteuerte Text-, Bild- und Tongenerierung ist somit inhärent miteinander gekoppelt, wobei die Hypermedialität den Rezipienten zunächst einmal einerseits durch den Transformationsprozeß, andererseits durch die Interaktion kognitiv überfordert, zumal er gleichzeitig mit (fingierten) Systemmeldungen unter Druck gesetzt wird, die im Falle seiner Untätigkeit mit Computerabsturz drohen. Erst nach und nach erschließen sich ihm die Steuerungsmöglichkeiten, die dieses auf einer hochaufwendigen Programmierarbeit basierende Projekt ihm übrig läßt. Deutlich wird hier eine weitere Konsequenz der Computerbasiertheit: Semiotische Systeme können nun in direkte Interaktion miteinander treten, wodurch der Text endgültig seine Bedeutungsdominanz verliert. Auch bei „BEAST“ wird der Bedeutungsraum von den einzelnen semiotischen Systemen abgekoppelt und aus deren Oszillationsbewegung und Transformationspotentialen eine neue umfassende Interpretationssphäre geschaffen, die sich auf das Wahrnehmungs- und Aktionsverhalten des Betrachters erstreckt.

Diese Entwicklung hin zu Transformation, Bewegung und Räumlichkeit, schließlich – in letzter Konsequenz der Auschöpfung der hypermedialen Potentiale des Computers – zur Interaktion mit anderen semiotischen Systemen verändert grundlegend die Funktionsweise von Schrift und damit zwangsläufig auch die Wahrnehmungsgewohnheiten des Lesers. Die repräsentative Qualität von Sprache wird hier aufgehoben – sobald sich die Schrift nicht nur in der philosophischen Konstruktion der Poststrukturalisten, sondern auf der materiellen Ebene von ihrer Fixierung löst, wird sie zu einer Performance, bei der keine intentionalisierte oder interpretierbare Sequentialität, sondern Rekursivität der Prozesse mit wechselndem Dateninput die Transformation beeinflußt und diese nicht mehr in der Interpretationsleistung, sondern in der tatsächlichen Austauschbarkeit der Wortkombinationen liegt.[9] Im Falle von Simon Biggs’ „The Great Wall of China“ wird dies besonders deutlich: Hier liegt keine „Verfilmung“ von Schrift vor (eine sequentielle Abfolge von Wörtern, die vor den Augen des Benutzers abläuft wie z.B. bei zahlreichen Hyperfictions, z.B. dem „Vorspann“ zu Mark Amerikas Grammatron“ oder zum Teil bei Berkenhegers „Zeit für die Bombe“), sondern eine kontinuierliche, vom Rezipienten nicht mehr zu steuernde Transformationsleistung der Maschine, die nicht darauf abzielt, „Lesbarkeit“ zu erzeugen, sondern eine Wahrnehmungs- und Interpretationsleistung verlangt, die über den semantischen Raum von Zeichen und Bezeichnetem hinausgeht und die Grenzen des Textes überschreitet.


3. Von der Poiesis zur Aisthesis
Diese Transformationsphänomene spielen sich auf zwei Ebenen ab: einerseits auf der technischen (eben der Programmebene), andererseits auf der semiotischen Erscheinungsebene. Erstere beeinflußt natürlich letztere ganz grundlegend, ist eine notwendige Bedingung für diese. Die Erscheinungsebene ist diejenige, mit der der Rezipient konfrontiert wird; und es stellt sich v.a. bei den beiden Projekte "The Great Wall of China" und "BEAST" die Frage, ob es hier tatsächlich von der Rezipientenseite aus gesehen noch um Schrift und in der Folge um "Lesen" im traditionellen Sinne geht, oder ob wir es nicht im weiteren Sinne – metatheoretisch ausgedrückt – statt mit Poetik (als den Prinzipien der "Schriftsetzung" als Sinngestaltung) mit Ästhetik im Sinne von Aisthesis, Wahrnehmung, zu tun haben und damit implizit mit einer endgültigen Verlagerung vom schaffenden Autor (Poiesis) zum umfassend wahrnehmenden Aktanten (Aisthesis).[10] Die Poiesis, das "Machen", verlagert sich auf die undurchschaubare technische Ebene, auf die softwarebasierte Konzeption der dann dargestellten Prozesse und findet sich nicht mehr in der sprachlichen Formierung eines (vom Leser zu füllenden) Bedeutungsraumes. Es geht damit v.a. um die Umsetzung von semiotischen Transformationen und Performanzen als Herausforderung an die buchdruck­normierte Wahrnehmung des Rezipienten. Sowohl "The Great Wall of China" als auch "BEAST" verlangen etwas anderes als das stille, fixierte Buchstaben rezipierende Lesen – sie beziehen sich inhärent auf das Wahrnehmungsverhalten, indem sie dem Benutzer einerseits die Möglichkeit in die Hand geben, die Transformationen auszulösen, andererseits aber seine Kontrolle über das Wahrgenommene durch die computergesteuerte und -generierte Ausführung der Transformation reduzieren. Der Rezipient hat keinen Einfluß darauf, welche Text-, Bild- und Tonelemente nun tatsächlich erscheinen, wenn er eine Aktion ausführt. Seine Wahrnehmung und sein Aktionsradius befinden sich nun auf einer anderen Ebene, die m.E. am ehesten mit dem Begriff "Spiel" erfaßt werden kann. Er findet letztlich erst zu einer "befriedigenden" Rezeptionshaltung, wenn er sich den Möglichkeiten des Transformationsspiels und damit dem Prozeß der Wahrnehmungsveränderung ausliefert. Diese Auslieferung hat die paradoxe Konsequenz, daß er damit dann seinen Aktionsradius erhöht und vom eher zufälligen Spiel zur Auswahl bewußter Spielzüge findet.[11]

4. Die Wiedergeburt der Schrift im Gespräch

Der Verlust der Repräsentationsfunktion von Schrift hängt nicht nur mit diesen transformatorischen und performativen Qualitäten der Digitalisierung zusammen, sondern ist inhärent an die medienintegrativen Potentiale des Computers gebunden, die die Erkenntnis verstärken, daß andere Visualisierungstechniken semantische Funktionen besser erfüllen können als die Schrift. Auch hier wieder spielt die Transformation eine entscheidende Rolle: Waren graphische Darstellungen, Diagramme, etc. auf dem Trägermedium Papier dazu verurteilt, statisch zu sein, ist hier die Darstellung von Veränderungen, v.a. die visuelle Umsetzung der Zeitdimension, ein Faktor, der graphisch wirkungsvoller dargestellt werden kann als durch Schrift.[12]Agree to Disagree“  von Janet Cohen, Keith Frank und Jon Ippolito stellt den Versuch dar, einen Dialog dreier Sprecher zeitlich und graphisch zu dynamisieren. Dabei wird die doppelte Zeitdimension des Sprechens visualisiert: Einerseits kann die semantische Kohärenz der Argumentationsanschlüsse, andererseits die tatsächliche Abfolge der gesprochenen Argumente verfolgt werden. 

Arbeitet dieses Projekt noch stark textbasiert und drückt die Dynamik des Gesprächs nur mit Pfeilen aus, so ikonisiert das jüngste Projekt der drei Kontrahenten die semantische Ebene des Streitgesprächs: „Three Degrees of Separation“  visualisiert mit Hilfe der RGB-Farben die Übereinstimmung der Gesprächsteilnehmer mit dem jeweils angeführten Argument. Die sonst nur im interpersonellen Gespräch ablaufenden Kommunikationsfaktoren wie Gestik, Mimik, Augenkontakt, die zusätzlich Aufschluß über das Maß der Übereinstimmung oder Differenzen geben, werden hier mit Hilfe von Farbquadraten gleichzeitig abstrahiert (in ein anderes Medium übertragen), aber auch konkretisiert bzw. überhaupt darstellbar. Das Augenmerk wird damit nicht so sehr auf den Inhalt der jeweils vorgebrachten Argumente, sondern auf die Dynamik der Zustimmung oder Ablehnung zwischen den drei Sprechenden gelenkt.

Bei diesen Projekten geht es um eine Visualisierung bereits stattgefundener Gespräche, gleichzeitig aber verdeutlichen sie – in gewisser Weise in einem Paradoxon – daß die Schrift in einem völlig anderen Kontext revitalisiert wird: im technisch vernetzten Gespräch. Geht es bei der Dialog-Visualisierung um den Versuch, die Dynamik der Interaktion zwischen Sprechenden mit graphischen Mitteln umzusetzen, so ist das tatsächlich stattfindende medial vermittelte Gespräch mit Hilfe vernetzter Computer (insbesondere im Internet) mehr als bei allen anderen kommunikativen Medien auf die Schrift angewiesen. E-Mail-Kommunikation, Chats und Gespräche in virtuellen Welten funktionieren (noch) textbasiert, wodurch sich gleichzeitig eine Anpassung der Schrift an das gesprochene Wort vollzieht, die sich v.a. in Abkürzungen, umgangssprachlicher Syntax und Wortwahl sowie graphologischen Vereinfachungen niederschlägt (hinzu kommen noch Elemente, die Mimik oder Stimmung ausdrücken, v.a. die "Emoticons"). Im technisch vermittelten Gespräch also erhält die Schrift eine wesentlich kommunikativere, weil im direkten Austausch involvierte Funktion als sie aus der Buchkultur bekannt ist. Auch der Briefaustausch beruhte nicht auf der zeitlichen Unmittelbarkeit, die im elektronischen textbasierten Gespräch herrscht – mit dem Resultat, daß es sich hierbei, ähnlich wie bei der face-to-face Kommunikation, um ein ephemeres Schrifterscheinen handelt, das, sobald die Kommunikation beendet ist, auch wieder verschwindet.[13]

Diese Verstärkung der Schrift als Kommunikationsmedium zeigt sich auch in zahlreichen kooperativen Schreibprojekten, die für die Beteiligung aller geöffnet werden. Hier wird die Grenze zwischen Literaturwissenschaften und Sozialwissenschaften durchlässig, da die institutionalisierte Rollenverteilung von Leser und Autor und damit auch die Grenze von Kunst und Leben aufgebrochen wird; das jahrhundertelange Bemühen von Literatur um Kommunikation, das durch die Herausbildung des Literatursystems und der veränderungsfeindlichen Bewahrungsmentalität des Buchdruckparadigmas unterlaufen wurde, nun tatsächlich auf unmittelbare Weise realisiert werden kann.[14] Einerseits ist nun nicht mehr institutionell – durch Verlage, zentrale Kontroll- und Steuerungsmechanismen sowie Marktbedingungen festgelegt, wer Autor und wer Leser zu sein hat; andererseits geht es bei solchen Projekten auch nicht mehr um die Erfüllung ästhetischer Richtlinien, respektive "Qualitätskontrolle", sondern um die Betonung der Aktion, des kommunikativen, kooperativen Schreibens und Lesens. Aus den zahlreichen Beispielen solcher Projekte im Internet, die wiederum auf der Basis ihrer unterschiedlichen kommunikativen Struktur in verschiedene Typen eingeteilt werden können, möchte ich nur eines herausgreifen, den "Assoziationsblaster".

Der Textkorpus besteht aus Einzeltexten, die nach Keywords gegliedert sind. Will man einen Text beitragen, so muß man sich zunächst an die schon bestehenden Keywords halten, darf dann aber nach drei produzierten Texten ein eigenes Keyword wählen. Die Texte werden automatisch (durch Programmierung) nach ihrer Eingabe gemäß den Keywords, die sie enthalten, verlinkt. Der Link hat hier also keine semantische, sondern eine formale Funktion. Die Assoziationen der Beiträger werden so eher willkürlich miteinander verbunden, wenn auch die Texte unter ihren jeweiligen Keywords abgespeichert werden. Klickt man auf eines der Links, so erscheint – per Zufallsgenerator ausgewählt – einer der unter diesem Stichwort abgelegten Texte. Unsinnsbeiträge, Ausrufe, längere, bedeutungsschwere Texte – hier findet sich alles zu einem großen Assoziationsnetzwerk zusammen. Unnötig zu sagen, daß nach einem kohärenten Sinn oder einer bedeutungsvollen Gesamtaussage zu suchen, sich hier völlig erübrigt. Hier hat nun endgültig das Spiel und die Produktion die Herrschaft über Bedeutungsvermittlung und vollendetem Werk übernommen. Nur wer mitmacht, wird wirklich in das Projekt involviert. Hinzu kommt, daß sich abseits vom Textkorpus eine eigene "Community" herausgebildet hat, die per E-Mail im Rahmen des Projekts miteinander kommuniziert – neben der internen, indirekten Textkommunikation ist also auch maschinenvermittelte Mensch-zu-Mensch-Kommunikation ein inhärenter Teil des Assoziationsblasters geworden; es hat sich im Rahmen dieses Projekts eine Gemeinschaft gebildet.

Auch hier zeigt sich, daß die textbasierte Bedeutungskonstruktion in den Hintergrund gerückt wird. Im Unterschied zu den oben erwähnten Transformationsprojekten hat hier jedoch der Leser/Autor die Möglichkeit, die Transformation inhaltlich zu beeinflussen; dabei aber geht es gar nicht mehr so sehr um die Bedeutungsfunktion von Schrift, sondern um die Produktionshandlung und das "Mitmachen" als solches. Die kommunikative Texttransformation steht im Mittelpunkt; klickt man sich durch den Assoziationsblaster als reiner lesender Rezipient, so ist der Gesamteindruck doch eher der des Banalen. Das Lesen dieser Texte erhält seine Bedeutung erst durch die dahinter stehende Intention des "Selber-Schreiben-Wollens", d.h. wenn man nach Anschlußstellen für seinen eigenen Text, für seine eigenen Assoziationen sucht.

Der Leseprozeß wird hier ebenfalls inhärent verändert; das Spiel, das bei den oben genannten Projekten innerhalb des von den Projektinitiatoren gesetzten Rahmen stark technikbasiert stattfindet, wird bei den kooperativen Schreibprojekten zum Auslöser der eigenen Produktion. Der Text wird hier von der "Last der Sinnproduktion" befreit, die Textproduktion wird zum Spiel, das Spiel aber wiederum zum Zentrum der Kommunikation.


5. Transparenz und Opazität
Dieses Potential der Schrift zu Bewegung, Räumlichkeit und Transformation, das durch die ihr unterliegende technische Ebene ermöglicht wird, führt also zu einem veränderten Wahrnehmungsverhalten bei den Benutzern. Einerseits – diese Entwicklung steht inhärent in der Tradition der Medienkunst, die selbstreferentiell die Möglichkeiten und Transformationen des eigenen Mediums auslotet, um dem Betrachter sein Verhalten im Umgang mit der spezifischen Medialität vor Augen zu führen – werden Bewegung, simulierte Räumlichkeit und Transformation als Charakteristikum des Computers erkannt und in Korrelation mit remediatisierten (vom Buchdruck in die Digitalisierung überführten) semiotischen Systemen gesetzt. Insofern wird hier das Janusgesicht des Computers deutlich: Scheinbar ist er ein Medium der Transparenz, der Oberflächlichkeit, das die bis dato nur implizit durchführbaren Grenzüber­schreitungen, die Schrift im Buchdruck (v.a. in der Avantgarde-Literatur und der poststrukturalistischen Theorie) in den letzten Jahrzehnten versuchte, nun buchstäblich umsetzt und visualisierbar macht.

Dies aber wird nur möglich durch die Einführung einer opaken, nicht einsehbaren Ebene – die der technischen (und in Form der Programmiersprachen letztlich ebenfalls semiotisch verschlüsselten) Prozesse, die diese Erscheinungsformen überhaupt erst möglich machen. Genau auf die Verdeutlichung dieser für den normalen Benutzer undurchschaubaren Ebene zielen "BEAST" und "The Great Wall of China" ab. Sie konfrontieren den Leser mit dem Verlust seiner Kontrolle über den Text bzw. die anderen semiotischen Systeme und sabotieren das Lesen als normiertes Verhalten der Schrift gegenüber. Sie entheben die Schrift ihrer Bedeutungsfunktion (die sie tatsächlich erst verliert, wenn sie als „Festgeschriebenes“ verschwindet) und transformieren sie in ein visuelles Erlebnis, das neue, texttranszendierende Bedeutungsräume erschließt, die unweigerlich einen Konnex zu den Wahrnehmungs- und Verhaltensgewohnheiten im Umgang mit den Zeichensystemen herstellen, aber auch im Umgang mit dem Medium, in das die Codes gestellt werden.

Dieser Form der Kommunikation zwischen Mensch und Maschine, die hier hergestellt wird, steht in einer einerseits weiterführenden, andererseits schriftverstärkend wirkenden Bewegung die gesprächsorientierte Nutzung der technischen Vernetzung und in der Aufforderung zur eigenen, unmittelbaren Textproduktion gegenüber. Beide Bewegungen widersprechen sich nicht, sondern sind in erster Linie Ausdruck der multiplen Funktionen des Computers, der das transparent macht, was sich kulturwissenschaftlich betrachtet schon lange abzeichnet: die Multiplizität von Wahrnehmungs- und Verhaltensmodi, die die technisierte Welt dem Individuum abverlangt. Andererseits unterstreichen sie aber auch das Bedürfnis von Kunst und Literatur, die Grenzen zwischen „Werk“ und Betrachter endgültig aufzuheben und konstituieren einen unmittelbaren sozialen Bezug. Kommunikative Projekte im Internet verändern das Rezeptionsverhalten insofern, als durch die Aufforderung zur Texteingabe und Beteiligung die Aktion als Teil, schon fast als Voraussetzung der Rezeption definiert (in diesem Sinne fallen hier Aisthesis und Poiesis zusammen). Aufgrund der fehlenden Komplexität und "literarischen" Qualität der meisten kooperativen Projekte führt die reine Rezeptionshaltung zwangsläufig zu einer tiefen Skepsis; erst die eigene Beteiligung, die spielerische Freude an der (kommunikativen) Textproduktion fügt den (nach wie vor not­wendigen) "Sinngehalt" hinzu. Dieser ist nun nicht mehr – wie noch in der Rezeptionsästhetik propagiert – vom imaginativen Füllen vorgegebener Leerstellen abhängig, sondern wird hier – ebenfalls ein Phänomen der Transparenz – materiell umgesetzt.

Das Inhaltliche tritt in beiden Bewegungen hinter das Spiel mit der Schrift zurück – um den Preis dessen, daß es sich um ein ephemeres Vergnügen handelt, das nur solange anhält, solange man in das Spiel involviert bleibt. Dies gilt für die technisch-transformatorischen Projekte genauso wie für die kommunikativen. Erstere erscheinen dem Benutzer nie in derselben Form und Sequenz, wie er sie schon erfahren hat – sie zeitigen immer andere Erscheinungsformen und sind nie konstant. Kommunikative Projekte leben dagegen nur solange, wie Menschen an ihnen teilnehmen und sie fortschreiben. Dies ist insbesondere der Kern solcher Projekte wie dem Assoziationsblaster, der völlige inhaltliche Freiheit erlaubt und die Verlinkung – die in den traditionellen Autoren-Hypertexten noch zu einem inhaltlichen Element gezählt werden kann – von einem Softwareprogramm vornehmen läßt. Solche Projekte wollen keine Bedeutung mehr vermitteln, sondern nur noch die Freude am Spiel und an der Kommunikation mit den Texten anderer.

Es entstehen also weniger für die Ewigkeit gedachte, abgeschlossene Werke, sondern prozedurale, spielerische und kommunikative Projekte, die sich ständig verändern. Eine solche Ästhetik des gemeinsamen, ephemeren und transformativen Spiels beruht auf den Charakteristika des vernetzten Mediums, in dem sie erzeugt wird: Der in Bewegung versetzte Text (oder auch das Bild und der Ton) entspricht der Dynamik der ihm zugrundeliegenden Computerprozesse, die Vernetzung der Computer spiegelt sich in der ortsunabhängigen Vernetzung von Menschen durch die Maschine. Bei allen Projekten geht es nicht mehr um ein zu fixierendes Ergebnis, sondern um die Aufrechterhaltung der verschiedenen Projekte durch Transformation – mit der Konsequenz, daß wir uns von der "Zentralperspektive", der Fixierung ästhetischer Phänomene, wie sie von der Aktionskunst schon in den 60er Jahren unterlaufen wurde, in der computerbasierten Kunst und Literatur nun endgültig verabschieden müssen; mit epistemologischen Konsequenzen, die ahnen lassen, daß es in Zukunft weniger um Bewahrung und Analyse statischer Objekte, sondern viel mehr um Veränderung und Kontrollmöglichkeiten der Prozeßdynamik (technisch, kognitiv und sozial) und – auf der Metaebene – um Darstellung ihrer Performanzen gehen wird.


 
 
[1] Dies ist besonders der Fall bei den beiden Medientheoretikern Marshall McLuhan und Vilém Flusser, die dementsprechend mit der Heraufkunft der elektronischen Medien das Verschwinden der Schrift prognostizieren. Vgl. McLuhan, Marshall: Die magischen Kanäle – Understanding Media. Dresden/Basel 1994 (orig.: 1964), S. 130; Flusser, Vilém: Die Schrift. Hat Schreiben Zukunft? Frankfurt am Main 1992, S. 131. Für beide ist die Schrift ein Resultat der Herausbildung einer linear-logisch-analytischen Epistemologie, die in kleine Einheiten segmentiert und damit die Komplexität der Welt auf das rationale, verschriftlichbare Wissen reduziert und dessen Hegemonie begründet. In der strukturalistischenKonzeption des Sprachsystems passiert das genaue Gegenteil: Hier wird die Vermischung von Sprache und Medium zur Basis der Entwicklung des strukturalistischen Sprachbegriffes, der sich konzeptionell an der typographischen Technik orientiert, ohne diese mitzureflektieren. Vgl. Giesecke, Michael: Sinnenwandel, Sprachwandel, Kulturwandel. Frankfurt am Main 1992, S. 11. 
[2] Selbst im Poststrukturalismus sagt Schrift immer noch etwas aus – und wenn es das ist, was sie verschweigt. "Repräsentationsfunktion" wird hier im allerallgemeinsten Sinne verstanden: Etwas steht für etwas anderes und verweist demnach auf etwas, d.h. es gibt nach wie vor eine Bedeutungsdimension, die von der Schrift repräsentiert wird. 
[3] Daß die Definitionen von “Schreiben” als Tätigkeit abhängig sind von den jeweils vorherrschenden kulturellen Epistemen macht Foucault zum Gegenstand seiner Untersuchung in „Die Ordnung der Dinge“. Doch auch hier bleibt die mediale Komponente ausgeschlossen; die Formen des Schreibens sind für Foucault Repräsentationen der jeweils gültigen Wissenskonstruktionsmechanismen. Vgl. Foucault, Michel: Die Ordnung der Dinge. Frankfurt am Main 91990. 
[4] Zur Diskussion des Begriffs der “Materialität” in bezug auf Medien und Kommunikation vgl. Pfeiffer, Karl Ludwig: Materialität der Kommunikation? In: Gumbrecht, Hans Ulrich/Pfeiffer, Karl Ludwig (Hg.): Materialität der Kommunikation. Frankfurt am Main 1988, S. 15-28. 
[5] Vgl. u.a. Bolter, Jay David: Writing Space. The Computer, Hypertext and the History of Writing. Hillsdale/New Jersey 1991. Bolter suggeriert, daß print-literarische Hypertexte wie z.B. James Joyces Werke im elektronischen Medium viel besser aufgehoben wären, da sie dann ihre zahlreichen Anspielungen und Assoziationen delinear und transparenter darstellen könnten. Daß die Avantgarde-Literatur aber gerade aus dem Spannungsfeld der begrenzten Möglichkeiten des Buchdrucks und dem Versuch, diesen Grenzen zu entkommen, ihre provokative Kraft schöpft, und daß das elektronische Medium wohl völlig andere Formen des Schreibens entwickeln wird, entgeht ihm in diesem Fall. Eine ähnliche Argumentation läßt sich bei George Landow und Michael Joyce feststellen; vgl. Landow, George P.: Hypertext 2.0. The Convergence of Contemporary Critical Theory and Technology. Baltimore/London 1997, S. 182 sowie Joyce, Michael: Of Two Minds. Hypertext Pedagogy and Poetics. Michigan 1995, S. 138.
[6] An dieser zwangsläufigen Beziehung wird deutlich, daß es fast nicht möglich ist, die sprach- und schriftphilosophische Diskussion unabhängig von der Materialitäts- und Mediendiskussion zu führen - auch wenn dies nach wie vor allenortens praktiziert wird. Es wäre ein aufschlußreiches Unternehmen, beide Stränge zusammenzuführen.
[7]Dies wird besonders deutlich an der Browsersoftware, die Schrift darstellt, indem sie Befehle (HTML-Tags) interpretiert. „Alternative“ Browser, wie der Netomat ; oder der Web Stalker , machen deutlich, daß es ganz andere Darstellungsformen gibt, als die der standardisierten Browser Netscape und Internet Explorer und daß die Erscheinungsformen vom technisch festgelegten Interpretationsspielraum abhängen. 
[8] Vgl. Kafka, Franz: Beim Bau der chinesischen Mauer. In: Ders.: Beschreibung eines Kampfes. Novellen, Skizzen, Aphorismen aus dem Nachlaß. Frankfurt am Main 1983 (Gesammelte Werke in acht Bänden), S. 51-62. 
[9] In dieser Hinsicht könnte man tatsächlich von einer "Materialisierung", einer sichtbaren Umsetzung der "unendlichen Semiose" (Umberto Eco) sprechen, oder – poststrukturalistisch – von der von Paul de Man konstatierten unendlichen Interpretationsbewegung, die keine Metatexte mehr erlaubt, weil diese aufgrund der Unvereinbarkeit von rhetorischer und wörtlicher Bedeutung wieder zum Objekt einer Interpretation werden. Die Konsequenzen gehen jedoch darüber hinaus: Wenn die Flüchtigkeit der Sprache derart visualisiert wird, gibt es keinen festgeschriebenen Text mehr, von dem eine Interpretation ausgehen könnte. Die Normierung des Textes läuft auf einer anderen Ebene ab: der Festschreibung der Algorithmen, die die Transformationsregeln bestimmen. 
[10]Dies gilt v.a. im Hinblick darauf, daß der Autor einen Teil der Kontrolle an die Maschine abgibt – er wird nie das sehen, was der Rezipient sieht, weil die technischen Bedingungen für jeden Benutzer andere sind (wie es die Browsersoftware besonders deutlich macht). Es steht keine mechanische Maschine mehr zwischen dem Körper des Schreibenden und dem Papier, sondern Instrumente, die diverse nur eingeschränkt kontrollierbare Interpretationsleistungen erbringen – damit wird die normierende Zentralperspektive des Buchdrucks durch die Technologie unterlaufen. Die automatische Generierung von Text ist insofern eine konsequente Verstärkung dieses Kontrollverlusts. 
[11] Hier kann durchaus ein Bezug zur Spieltheorie hergestellt werden, die sich mit Strategien des Verhaltens in der Interaktion mit anderen beschäftigt. Die Spieltheorie versucht Handlungsspielräume zu formalisieren, indem sie mit Wahrscheinlichkeiten arbeitet, die helfen sollen, das Verhalten des Gegenübers zu antizipieren. Die Regeln des Spiels sind vorgegeben, das Verhalten selbst wird in der Interaktion der jeweiligen Situation angepaßt und durch die Regeln nach den Prinzipien der Wahrscheinlichkeitsrechnung berechenbar. Ähnliches passiert hier im Umgang mit der Maschine. „BEAST“ konstituiert ein explizites Machtspiel zwischen Computer und Mensch, das nur dann produktiv wird, wenn der Benutzer sein Verhalten an die Situation anpaßt. Auf einer Metaebene ergibt sich eine weitere Beziehung zwischen Spieltheorie und der Computerarchitektur: Die Berechnung der Wahrscheinlichkeit von aufeinanderfolgenden Zuständen ist die Grundlage für die Informationstheorie der Nachrichtenübertragung, auf deren Basis auch die Computerarchitektur aufbaut. So war es neben dem Ökonomen Oskar Morgenstern auch ein Mathematiker, der die Grundlagen der Spieltheorie erstmals formulierte: John von Neumann, der wiederum wesentlich an der Entwicklung des modernen Computers teilhatte. Einen erweiterten Bezug zum sozialen Verhalten stellt schließlich Luhmanns Konzeption der Kommunikation als Erwartung von Erwartungshaltungen, also Abschätzung von Verhaltenswahrscheinlichkeiten dar. Diese Konzeption der Prozeßerfassung durch Berechnungen, die sich wiederum in einem Spannungsfeld von Kontrolle (Regeln) und Handlungsspielräumen (Wahrscheinlichkeiten) abspielen, scheint tatsächlich den Charakter eines epistemologischen Paradigmas angenommen zu haben, dessen Rahmen durch den Systembegriff gegeben ist. 
[12] Dies ist nur eine logische Konsequenz der Favorisierung des Prozesses gegenüber dem Sein. Die gesamte Naturwissenschaft zeigt Spuren dieser Schwerpunktverlagerung (man denke nur an die Chaostheorien); das sich durch alle wissenschaftlichen Disziplinen durchziehende Systemparadigma beruht inhärent auf Prozeßanalysen, die zwangsläufig den Zeitfaktor miteinbeziehen müssen.Auch der Com­puter kann – zumindest aus seiner Nachkriegshistorie heraus – als Repräsentation der Gehirnprozesse aufgefasst werden (selbst wenn die KI-Forschung mittlerweile etwas in den Hintergrund gedrängt wurde). Prozeßrepräsentation löst also die Darstellung von „Gegebenheiten“ ab. Dafür erscheint nun die Schrift in der Tat nicht geeignet, eine dynamische Ikonisierung (in welcher Form auch immer) ist hier sehr viel aussagekräftiger. 
[13] Ausnahme sind Mailing-Listen, die ihre Beiträge archivieren, wie Nettime oder Rhizome. Dennoch sind solche "Monumentalisierungen" – ähnlich wie bei der Archivierung beendeter MUDs – zum Teil mühsam zu durchforsten, weil die gesprächsartigen Elemente – meist ein Schlagabausch von Kommentaren, die an Äußerungen anderer anschließen – in archivierter Form ihre Dynamik und damit auch ihre Aussagekraft verlieren. 
[14] Vgl. z.B. die Diskussion zwischen Roland Barthes und Jean Hyppolite über das Spannungsfeld von Schreiben als Monolog und Gesprächssuche. Eine Zusammenfassung dessen findet sich in White, Hayden: Schreiben im Medium. In: Gumbrecht, Hans-Ulrich/Pfeiffer, Karl Ludwig (Hg.): Schrift. München 1993, S. 311-318 (hier: S. 314).