Der Traum von der universalen Bibliothek
1970er Jahre: „Born on the 4th of July“
1980er Jahre: Vom Text-Adventure zur CD-Rom
1990er Jahre: Von der Hyperfiction zum Rocket eBook
2000 ff.: Vom Handy-Roman zur Lese-App
Ausblick: „Wir sind gekommen, um zu bleiben“


1990er Jahre: Von der Hyperfiction zum Rocket eBook

Im Garten der Pfade, die sich verzweigen

Bei dem Wort „Hypertext“ denken Digital Natives sofort an das World Wide Web mit seinen unendlichen Verlinkungen, die per Mausklick von Dokument zu Dokument führen. Die ursprüngliche Idee datiert jedoch viel weiter zurück als dieser durch „Hypertext-Markup-Language“ (HTML) geprägte Teil des Internets. Schon in den 1960er Jahren entwarf Computerpionier Ted Nelson das Konzept der Vernetzung von Texten:

„Unter Hypertext verstehe ich das nicht-sequentielle Schreiben, Text, der sich verzweigt und dem Leser eine Auswahl ermöglicht, und am besten auf einem interaktiven Bildschirm gelesen wird. Im allgemeinen Verständnis geht es dabei um eine Reihe von Textblöcken, die miteinander verbunden sind und dem Leser verschiedene Wege anbieten, sich durch sie hindurch zu bewegen.“

Als eine der ersten marktgängigen Hypertext-Anwendungen gilt die für Apple entwickelte virtuelle Karteikarten-Software „Hypercard“. Seit 1986 gehörte sie zum Standard-Repertoire der ersten Macintosh-Computer. Wie der Name schon verrät, ließen sich mit Hypercard die Informationen auf einzelnen virtuellen Karteikarten mit Hyperlinks verbinden. Das Ergebnis war ein „Stack“ genanntes Hypertext-Geflecht, ganz ohne Internet, aber prinzipiell ähnlich. „Wenn die Leute heutzutage HyperCard sehen, oder dessen aktuelle Variante SuperCard, dann sagen sie: Sieht aus wie das Web“, hat nicht umsonst HyperCard-Veteran Ron McElfresh beobachtet.

Mit HyperCard konnte man aber nicht nur Wissen in Form von Buchstaben organisieren. Dank erweiterter Funktionen ließen sich multimediale Objekte miteinander verknüpfen. Kein Wunder, dass mit HyperCard etwa Multimedia-Enzyklopädien und Lernprogramme für Schule und Unterricht entstanden. Zugleich machten sich aber auch Schriftsteller das Instrument zu eigen, und es entstand mit der sogenannten „Hyperfiction“ ein völlig neues literarisches Genre.

Wie weit die Experimentierfreude der Autoren ging, zeigt John McDaids legendäre Hypercard-Novel „Uncle Buddy’s Phantom Funhouse“, die Anfang der 1990er Jahre vom US-Anbieter Eastgate herausgegeben wurde. Wie der zeitgenössische Werbetext verrät, bekam man statt eines normalen Romans einen Haufen von Material geliefert:

„Art ‘Buddy’ Newkirk ist verschwunden und hat Ihnen seinen literarischen Nachlass vermacht. Sieht so aus, als wären er und seine Freunde ein merkwürdiger Haufen gewesen. Vielleicht hätten Sie sie gerne kennengelernt. Naja, nicht wirklich. Aber wieso wäre das für ‘Onkel Buddy’ wichtig gewesen? Wo ist er überhaupt? Und was hat das alles zu tun mit Meister Eckhart und der New Yorker U-Bahn? Um das herauszufinden, legen Sie die Disketten in das Laufwerk Ihres Macs ein, spielen Sie seine Kassetten in ihrem Rekorder ab, und treffen sie Buddys Freunde, lesen Sie seine E-Mails, lauschen Sie der Musik seiner Band, und versuchen Sie, sich einen Reim aus Buddy’s äußerst merkwürdigem Tarot-Kartenspiel zu machen.“

Wer eher zufällig auf diesen Hypertext stieß – Disketten wurden damals ja gerne weitergegeben bzw. kopiert – stand erstmal vor einem echten Rätsel. So berichtet ein zeitgenössischer Leser:

„Ich dachte zuerst, es handelt sich um ein Computerspiel, und das Ziel ist es, herauszubekommen, was mit einem gewissen ‘Uncle Buddy’ passiert war. Ich klickte mich durch den Hypercard-Stack: er enthielt die Ausgabe eines Magazins für Computer-Poesie, den autorisierten Reprint einer Musik-Besprechung, bei der es um eine obskure Band namens ‘The Reptiles’ ging (zu denen Newkirk gehört haben sollte), ein nur teilweise erhaltenes TV-Drehbuch aus der Hand von Newkirk, Reste einer ausschweifenden E-Mail von Newkirks Freundin Emily, und dann auch noch das ‘Fictionary of the Bezoars’, ein illustriertes Hypertext-Glossar mit Anekdoten, Weisheiten und Insider-Witzen einer Gruppe von Theaterwissenschafts-Studenen der Universität Syracuse aus den späten Achtzigern.“

Da John McDaids romanesker Zettelkasten auf eine zentrale Erzählerfigur verzichtet, kann man natürlich als Leser auf die Idee kommen, das alles wäre gar nicht Fiktion, sondern Realität:

„Ich hatte langsam den Eindruck, dass dieser Newkirk, einer der besagten Kommilitonen aus Syracuse, einfach einen Schnappschuss aus seinem wirklichen Leben auf Hypercards dokumentiert hatte, so wie man es heutzutage auf einer Website machen würde.“

Der Hyperfiction-Mainstream war allerdings nicht ganz so exaltiert wie „Uncle Buddys Phantom Funhouse“. Klassiker wie Michael Joyces „Afternoon, a story“ (1987), Stewart Moulthrops „Victory Garden“ (1991) oder Shelley Jacksons „Patchwork Gir“l (1995) bestanden zwar zum Teil aus hunderten miteinander verlinkten Textblöcken. Doch gab es erkennbare Erzählerfiguren bzw. Erzählperspektiven, die das Lesen erleichterten. (Einen guten Online-Überblick zu den vor allem in den Neunziger Jahren entstandenen Hyperfictions vermittelt das „Electronic Literature Directory“.)

Die Weiterentwicklung der Hyperfiction wurde dabei seit Anfang der 1990er Jahre von „Storyspace“, einer speziellen Autorensoftware beschleunigt. Mit dieser von Eastgate Systems entwickelten Anwendung ließen sich die einzelnen Elemente einer Geschichte in Form eines Storyboards visualisieren, so ähnlich wie wir es mittlerweile beim „Clustering“ von Begriffen gewohnt sind. Viele englischsprachige Autoren benutzen Storyspace auch heute noch, um komfortabel die Handlung von Romanen, Drehbüchern oder Computerspielen zu planen.

Anfänglich wurden Hyperfictions fast ausschließlich auf Diskette oder CD-Rom ausgeliefert, waren also genauso auf einen physischen Datenträger angewiesen wie gedruckte Bücher, um zum Leser zu gelangen. Der beginnende Boom des World Wide Webs schien bald jedoch eine weitaus passendere Umgebung für Hyperfiction zu bieten – denn wo wäre ein fiktionaler Hypertext besser aufgehoben als in einem realen, weltweiten Netz aus Hypertexten? Als einer der Pioniere darf der damals in New York lebende kanadische Autor Douglas Cooper gelten. Seine an Altmeister Thomas Pynchon geschulte urbane Underground-Hyperfiction „Delirium“ veröffentlichte er mit Unterstützung von Time Warner bereits 1994 als Romanserie im Internet. In welcher Reihenfolge die Abschnitte der einzelne Folgen gelesen wurden, war dabei dem Leser überlassen.

Als der Hyperfiction-Trend Anfang der 1990er Jahre in Deutschland ankam, prägten World Wide Web und Internet bereits die Vorstellungwelt der Autoren – ein Grund, warum sich Hyperfiction bei uns von Anfang unter dem Namen „Netzliteratur“ einbürgerte. Besonders intensiv experimentiert mit neuen Formen des vernetzten, oft auch kollaborativen Schreibens wurde im Rahmen der „Telematic Workgroup“ an der Hamburger Hochschule für Bildende Künste.
Um das Leben in den endlosen Weiten des Webs dreht sich etwa Catherine de Courtens dort entstandenes Schreibprojekt „KaspaH´s Home“(1994), eine postmoderne Hommage an den Briefroman. In einer E-Mail mit dem Titel „Through the Worlds in 8 Bits“ stellt sich KaspaH als Person vor, die nur im Cyberspace existiert, ohne Erinnerungen an ein Offline-Leben:

„Hi, I’m KaspaH!
I don’t know you and I don’t know where I am. Actually I was found somewhere inside this world of bits. As my past is uncertain, I don’t know much about myself and about life. What’s the meaning of it all and what am I doing – I’m pretty curious!“

Im E-Mail-Dialog mit verschiedenen Adressaten macht sich KaspaH deswegen auf die Suche nach einer möglichen eigenen Identität – die sich aber nur als „Netzpersönlichkeit“ denken lässt:

„Meine Erfahrungen bestehen aus meinem Wahrnehmen anderer. Ich kann mich davon unterscheiden und abgrenzen und oder mich in ähnlichem wiederfinden. Und während ich meine Gedanken jemandem schreibe, muss ich mich selbst formulieren. So sind es die in unseren Gesprächen erzeugten Vorstellungen, die mich eigentlich ausmachen“

Für eine Weile wurde Netzliteratur im Leseland zum regelrechten Hype. Selbst das kulturkonservative Feuilleton sprang auf den neuen Trend auf – so lobte etwa die Wochenzeitung DIE ZEIT in Kooperation mit IBM ab 1996 über mehrere Jahre einen Wettbewerb für Internet-Literatur aus. Die Bedingungen klangen allerdings nach subtiler Rache der Gutenberg-Galaxis: Multimediale Texte waren nicht erlaubt, es durfte weder Video, Audio noch Java-Script Verwendung finden, abgesehen von 20 Kilobyte reinem Text konnten 40 Kilobyte für Grafik sowie 8 Kilobyte HTML-Code genutzt werden. Zu allem Überfluss wetterte dann auch noch ZEIT-Autor Christian Benne im Jahr 1998 kurz vor dem vorerst letzten Wettbewerb:

„Lesen im Internet ist wie Musikhören übers Telephon. [...] Literatur im Netz ist eine Totgeburt. Sie scheitert schon als Idee, weil ihr Widersinn womöglich nur noch von Hörspielen aus dem Handy übertroffen wird. [...] Literatur [...] kann allein in der Schrift von Generation zu Generation weitergegeben werden. Littera scripta manet. [...] Noch viel weniger als das Buch wird die Internet-Literatur in der Lage sein, eine moderne literarische Öffentlichkeit zu schaffen.“

Traditionelle Autoren waren für solche Experimente ohnehin kaum zu gewinnen, umgekehrt gab es jenseits von Festivals und Schreibwettbewerben aber auch noch keine wirtschaftliche Basis für die literarischen Hypertexter. Eine Verwertung fand wenn überhaupt eher auf traditionellem Wege statt – so kam etwa 1998 eine erweiterte Fassung von Douglas Coopers früher Online-Hyperfiction „Delirium“ in gedruckter Form heraus. Die ursprüngliche Hypertextualität lässt sich zwischen den Buchdeckeln nur noch erahnen.

Ausgerechnet der Siegeszug von Web 2.0, Blogosphäre und sozialen Netzwerken hat die Lust am Experimentieren mit komplexen literarischen Erzählformen im Web inzwischen aber auch deutlich reduziert. Was in den 1990er Jahren avantgardistisch war, wirkt heute fast schon banal. Die Zahl der Webautoren hat sich seit dem Jahr 2000ff. vervielfacht, letztlich sind wir alle zu Textproduzenten geworden. Doch der Social-Media-Bewusstseinsstrom selbst ist offenbar schon in zu viele Informationshäppchen aufgeteilt und in zu viele Interaktionen aufgesplittet. Zumindest in der Literatur macht sich deswegen wohl das „Paradox of Choice“ bemerkbar – weniger ist manchmal mehr.

Zugleich hat ironischerweise gerade der E-Book-Boom der Nuller Jahre jedes elektronische Buch zum Hypertext gemacht. Denn gängige E-Book-Formate basieren auf HTML. Zu sehen bekommen wir das allerdings bisher zumeist nur im dynamischen Inhaltsverzeichnis, das direkt auf die einzelnen Kapitel verlinkt.

Eine Frage von Format: Vom ASCII-Code zum PDF

Wer heutzutage an E-Books denkt, denkt den E-Store gleich mit. Nicht so in den 1990er Jahren: damals dachte man eher an eine Bibliothek. Denn das World Wide Web brachte der klassischen Idee vom unendlichen Bücherregal neuen Auftrieb. Im Jahr 1994 prophezeite der Philosoph und Technik-Visionär Timothy Leary:

„Das Internet enthält das gesamte Wissen der Welt. Und dank dem Cyberspace können alle Menschen darauf zugreifen. Alle menschlichen Äußerungen, die bisher in Büchern enthalten waren, sind digitalisiert. Sie sind in Datenbanken verfügbar, genauso wie sämtliche Gemälde, alle Filme, alle Fernsehsendungen, absolut alles.“ (Timothy Leary, Chaos und Cyberkultur)

Anfangs enthielt das World Wide Web dabei vor allem das Wissen der Nordamerikaner, genauso wie zuvor die Letternwüsten des Internets. Die Darstellung von französischen, deutschen oder anderen fremdsprachlichen Texten scheiterte anfangs bereits am begrenzten Zeichensatz. Denn im Anfang war ASCII, und sonst nichts. ASCII heißt nicht umsonst „AMERICAN Standard Code for Information Interchange“. Erst 1985 kamen mit dem heute noch bekannten ISO-8859 bzw. ISO-Latin-Code orthographische Accessoires wie Umlaute oder Accents dazu.

Das 1990 von Tim Berners-Lee ins Leben gerufene World Wide Web entwickelte sich vor der großen Multimedia-Welle tatsächlich erst einmal zum gigantischen Wortspeicher. Dabei ging es nicht nur um die kulturelle Überlieferung, sondern auch um das Erfassen der Gegenwart. In den legendären Etext-Archives von Paul Southworth sammelten sich schon ab 1992 die ersten ausschließlich online publizierten Formate. Zu den Rubriken gehörten Bereiche wie “Politics”, “Fiction”, “Religion”, “Poetry”, aber auch “E-Zines”. Dahinter versteckte sich eine Vorform elektronischer Magazine. Wie John Labovitz, Gründer der damals ebenfalls populären E-Zine-List schrieb, richteten sich diese Fanzine-artigen Projekte noch ganz bewusst nicht an ein Massenpublikum, eine kommerzielle Verwertung war nicht vorgesehen.

Und die „echten“ E-Books? Während das Project Gutenberg auch weiterhin seine Mission verfolgte, Klassiker der Literatur elektronisch zur Verfügung zu stellen, startete mit der Online-Books-Page von John Mark Ockerbloom im Jahr 1993 eine Web-Plattform für aktuelle englischsprachige Titel aus dem Public Domain-Bereich. Bis zu diesem Zeitpunkt war der Unterschied zwischen E-Books und E-Texten allerdings für den Betrachter kaum feststellbar. Was fehlte, war ein geeignetes Dateiformat, um dem Buch auch ein eigenes Layout zu geben.

Dafür sorgte das Unternehmen Adobe, als es im Jahr 1993 das „Portable Document Format“ (PDF) auf den Markt brachte. Um die PDF-Dateien lesen zu können, brauchte man den Acrobat Reader, den Adobe kostenlos zur Verfügung stellte. Mit großem Erfolg: in den ersten zehn Jahren bis 2003 wurden die unterschiedlichen Versionen des Programms mehr als 500 Millionen mal heruntergeladen. Die Formatfrage schien also geklärt, und für den Vertrieb bot sich das Internet an. Eröffnete sich hier eine Alternative zu Trägermedien wie Diskette oder CD-Rom? 1994 begannen die ersten US-Verlage mit E-Book-Marketing im Netz zu experimentieren.

So machte etwa National Academy Press wissenschaftliche Literatur online verfügbar, und das auch noch kostenlos. Überraschenderweise steigerte man damit den Umsatz mit gedruckten Büchern. Die Washington Post wunderte sich: „Intuitiv sollte man eigentlich denken: Das macht keinen Sinn. National Academy Press, ein Verlag aus Washington, veröffentlichte 1.700 aktuelle Titel via Internet, so dass jeder die Bücher umsonst lesen konnte. Im folgenden Jahr stieg der Umsatz um 17 Prozent. Die alte Weisheit von der Kuh, die niemand kaufen wird, wenn man sie kostenlos melken kann, scheint nicht mehr gültig zu sein.“

Auch MIT Press versuchte mit Erfolg, die neu entdeckte Cash-Cow zu melken. Die großen Publikumsverlage dagegen zögerten – sie hatten immer noch Angst vor dem, was man später als „Kannibalisierungseffekt“ bezeichnen sollte. Doch die Grundlagen für die Revolutionierung der Verlagsbranche waren zu diesem Zeitpunkt längst gelegt. Denn 1994 war auch das Jahr, in dem in Seattle ein kleiner, unscheinbarer Online-Händler Büroflächen anmietete. Der Name dieses Startups klingt nur allzu bekannt — Amazon. Bis Amazon-Gründer Jeff Bezos zusammen mit seinem Kindle-Reader auf die Titelseiten des Time-Magazines gelangte, sollten aber noch mehr als zehn Jahre vergehen. Zunächst einmal krempelte Amazon nach und nach den Online-Versandhandel mit gedruckten Büchern um (siehe das Kapitel: Die Amazon Story), und beobachtete aufmerksam den Markt für portable Geräte.

Interludium: Personal Digital Assistants

Dort tat sich bereits einiges. Zumindest im kleinen Maßstab machte das elektronische Lesen nämlich schon in den 1990er Jahren mobil. Die Grundlage dafür legte der Siegeszug der PDAs, also der „Personal Digital Assistants“. Schon lange vor Tablet und Smartphone brachten die handlichen, mit Eingabestift zu bedienenden Gadgets nicht nur Office-Funktionen wie Adressbuch, Kalender und Notizbuch mit, sondern ermöglichten auch die Lektüre von elektronischen Büchern.

Legendär ist auch heute noch Apples „Newton“ – das eigentlich „MessagePad“ genannte Gerät kam erstmals 1993 in den Handel. Angetreten war der Newton, um Vannevar Bushs Vision in Form einer tragbaren „Knowledge Machine“ für das 21. Jahrhundert umzusetzen. Grafische Benutzeroberfläche, Handschriftenerkennung, Text-to-Speech-Funktion, und nicht zu vergessen: Fax-Schnittstelle, das klang damals geradezu utopisch.

Nicht weniger utopisch waren die „Newton Books“, interaktive elektronische Bücher, die Apple speziell für den Message Pad konzipiert hatte. Bei den Newton Books handelte es sich um waschechte Hypertexte, inklusive eingebetteter Illustrationen. Newton Books boten die Möglichkeit, mit Hyperlinks in einzelne Kapitel und Querverweise zu springen, eine Suchfunktion erlaubte das Auffinden wichtiger Begriffe. Ausgewählten Text konnte man zudem per Copy&Paste in Textverarbeitungsprogramme übertragen.
„Apples Newton sollte [Isaac] Newton widerlegen – er sollte ein Gerät sein, das der Schwerkraft trotzt, das als Nachfolger des Personalcomputers Standards setzt, die das 21. Jahrhundert einläuten“, schrieb c’t-Autor Detlev Borchers dem Gadget 2003 ins Stammbuch – schon zu diesem Zeitpunkt posthum. Denn so ganz konnte das Gerät der Erdenschwere nie entkommen. Die Software der ersten Newtons war störanfällig, der Akku hielt nicht so lange durch wie von der Werbung versprochen. Teuer waren die Handhelds obendrein. Bis Apple das Projekt 1998 wieder aufgab, wurden gerade einmal 300.000 Geräte verkauft, fast ebensoviele landeten originalverpackt auf der unternehmenseigenen Müllkippe.

Aus heutiger Sicht kann Apples Newton aber als Wegbereiter der Personal Digital Assistants gelten – wovon vor allem Palm Computer Inc. profitierte. Nicht umsonst war das Unternehmen nach dem englischen Wort für die Innenfläche der Hand („palm“) benannt. Mit den deutlich kleineren, leichteren „Palm Pilots“ eroberte Palm ab 1996 den globalen Markt. Eine wichtige Rolle dabei spielte allerdings auch, dass Einstiegspreisen um 300 Dollar die Palm Pilots deutlich erschwinglicher machten. In kurzer Zeit wurden sie geradezu zum Synonym für PDAs überhaupt. Viele US-Amerikaner reden noch heute noch nostalgisch von ihrem „Palm Pilot“, auch wenn sie letztlich ein ganz anderes Gerät benutzt haben.

Eine wichtige Zusatz-Funktion spendierte die mitgelieferte E-Reader-Software. Es war der Palm Pilot, der viele Anwender zum ersten Mal mit der Lektüre elektronischer Bücher auf mobilen Geräten vertraut machte. So konfrontierte etwa GigaOM-Autor James Kendrick im Jahr 2010 seine Leser mit einem überraschenden Bekenntnis:

„Ich lese E-Books schon seit zehn Jahren. Lehnen Sie sich zurück und lesen Sie diesen Satz noch einmal. Während E-Reader scheinbar erst seit einer kurzen Zeit existieren, und dieser Eindruck täuscht auch nicht, gibt es E-Books schon viel länger. Ich habe mit der elektronischen Lektüre schon in den alten Tagen des Palm Pilots begonnen. Natürlich war das Display kleiner als etwa beim Kindle, aber es hatte so seine Vorteile.“

Rocketbook, Softbook und andere Fehlstarts

Im Zeitalter von Tablets und Smartphones spricht man gerne von „dedizierten“ (abgeleitet von “dedicated“, also „ausschließlich dem Lesen gewidmet“) Lesegeräten bzw. von “dezidierten” Lesegeräten, um klassische E-Reader von Multifunktionsgeräten abzugrenzen. Vor einem ähnlichen Problem standen bereits die ersten Hersteller, die sich Ende der Neunziger Jahre mit den ersten Lesegeräten auf den Markt wagten – schließlich gab es schon die PDAs. Vielleicht griff ja das US-Unternehmen NuvoMedia im Jahr 1997 aus diesem Grund zum dramatischen Namen „Rocket eBook“, um sich von der Konkurrenz zu unterscheiden. Rein optisch machte das Raketen-E-Buch mit monochromem 5,5-LCD-Bildschirm dagegen nicht sehr viel her.

Umso größer waren NuvoMedias Ambitionen: Man wollte die weltweit erste „Vertriebslösung für elektronische Bücher“ erschaffen, und zwar in Form einer „vernetzten Infrastruktur aus Verlagen, Buchhändlern und Endnutzern“. Mit anderen Worten: Rückgrat des E-Book-Vertriebs sollte das Internet darstellen. NuvoMedia war bezeichnenderweise ein Joint-Venture zwischen der US-Buchhandelskette Barnes&Noble und dem Bertelsmann-Konzern. In den USA konnte man das Rocket eBook auf der Website von Barnes&Noble kaufen, in Deutschland war es dagegen weitaus schwieriger, an das Gerät zu kommen. Auf der Frankfurter Buchmesse tauchten zwar die ersten Muster auf, der offizielle Verkaufsstart ließ jedoch auf sich warten: „Das eBook mag ein revolutionäres Produkt sein, aber die Revolution findet – bisher zumindest – noch ohne die Kunden statt“, beschwerte sich SPIEGEL Online noch im Jahr 1999.

Zu den ersten Gadget-Enthusiasten im Leseland, die sich das Rocket eBook zu Gemüte führten, gehörte der IT-Autor und Journalist Giesbert Damaschke. Im Jahr 2000 urteilte er in der Online-Ausgabe der ZEIT: „Die feingeistigen Kritiker auf Jenny-Treibel-Niveau und raunenden Beschwörer des ‘guten Buchs’ können getrost hinter ihrem Dünndruckband Stifter verstauben. … Nach 5 Monaten regelmäßiger Lektüre steht zumindest eines fest: Man kann auf dem Gerät problemlos längere Texte für längere Zeit lesen“.

Technisch machbar hieß jedoch nicht unbedingt perfekt umgesetzt: „Für einen dezidierten Lesecomputer hat das Rocket E-Book ein erstaunlich schlechtes Display, der angezeigte Text pixelt deutlich auf und ohne Hintergrundbeleuchtung sieht man nur einen dunklen Matsch auf spiegelndem Grund.“ Raketenmäßig abgehen würde das Gerät schon gar nicht, so Damaschke. Angesichts der eher lahmen Prozessorleistung sei der Name Rocket eBook wohl eher als Marketingscherz zu verbuchen. Außerdem, so beschwert sich der ebenso bibliophile wie technikaffine Journalist, seien die aktuellen Titel nicht nur überteuert, sondern auch noch kopiergeschützt. Wirklich lohnenswert war somit vor allem die Lektüre von kostenlosen, gemeinfreien Klassikern.

Etwas mehr Gnade vor den zeitgenössischen Kritikern fand das „Softbook“, mit dem sich die Verlage Random House und Simon&Schuster in das E-Business wagten. Mit einem 9-Zoll-großen Display war dieser frühe E-Reader ungefähr so groß wie das heutige iPad. Während das Rocket eBook über ein serielles Kabel mit dem PC verbunden wurde, besaß das Softbook sogar ein integriertes Modem, so dass man elektronische Lektüre direkt aus dem Internet saugen konnte. Das Softbook war allerdings mit knapp 700 Dollar mehr als doppelt so teuer wie das Rocket eBook, (und leider auch doppelt so schwer). Ebenso wie die Konkurrenz setzte NuvoMedia auf Kopierschutz: E-Books konnten nur auf dem persönlichen E-Reader gelesen werden. Die damalige Ausrede der Hersteller für diesen unfreundlichen Akt dürfte heutigen Lesern nur allzu bekannt vorkommen: Mit weniger strikten Sicherheitsvorkehrungen, so hieß es, hätte man die Verlage nicht davon überzeugen können, ihre Inhalte zur Verfügung zu stellen.

Allzuviele E-Books gab es aber ohnehin noch nicht. Dass der erste E-Reader-Hype nicht den Massenmarkt erreichte, lag deswegen nicht nur an den Unzulänglichkeiten der Geräte, sondern schlicht und einfach am mangelnden Lesestoff. Kein Anbieter hatte Ende der 1990er Jahre mehr als 1000 aktuelle Titel im Programm. NuvoMedia und Softbook wurden an der Schwelle zum neuen Jahrtausend vom Medienunternehmen Gemstar aufgekauft, dessen Kerngeschäft eigentlich Fernsehtechnik ausmachte. Dann platzte kurz nach der Jahrtausendwende die „Dot-Com-Blase“, die Börsenkurse purzelten, und alles, was keine kurzfristigen Return-on-Investment versprach, kam auf den Prüfstand. Dazu gehörte auch das E-Reader-Business. Im Jahr 2003 stellte Gemstar den Verkauf von Lesegeräten und E-Books wieder ein.

In einer Hinsicht aber hatten NuvoMedia und Softbook Press Pionierarbeit geleistet, die den Tag überdauern sollte: sie unterstützten mit „OEB“ („Open eBook Publication Structure“) die Einführung eines E-Book-Formats, das alle Voraussetzungen zum neuen Branchenstandard mitbrachte. Vereinfacht gesagt bestanden die E-Books dabei aus einzelnen HTML-Seiten, die mit einer Layoutdatei verknüpft wurden. Das 1999 gestartete OEB wurde dann auch tatsächlich zum Vorbild für spätere Formate wie Mobipocket sowie den heutigen Branchenstandard EPUB.

Die Amazon-Story, Teil 1

Selten prangt das Antlitz eines Buchhändler von der Titelseite des Time-Magazines. Jeff Bezos schaffte es 1999 sogar als „Person of the Year“. Nicht ohne Grund. Mit der Erfindung des Online-Buchhandels hatte der Gründer von Amazon innerhalb weniger Jahre die gesamte Branche auf den Kopf gestellt. Möglich wurde diese Erfolgsgeschichte wohl auch deshalb, weil Bezos von Haus aus eigentlich gar kein Buchhändler ist, sondern ein technisch versierter Investmentbanker. Als sich 1994 der Internetboom abzuzeichnen begann, witterte er sofort die Chancen, die sich für den Vertrieb von Waren über das Netz eröffneten. Bezos begann, passende Produktkategorien aufzulisten, von Gummistiefeln bis zum Rasenmäher. Besonders vielversprechend schienen CDs, Videos, Computer-Hardware und Computer-Software zu sein – aber auch Bücher:

„Ich wendete ein ganzes Bündel von Kriterien auf jedes Produkt an, vor allem aber die relative Größe des jeweiligen Marktes. Wie ich herausfand, wurden weltweit jedes Jahr Bücher im Wert von 82 Milliarden Dollar abgesetzt. Der Verkaufspreis war genauso wichtig. Ich wollte ein möglichst niedrigpreisiges Produkt haben. Für viele Menschen würde es überhaupt um das erste Produkt gehen, das sie jemals online erwerben würden, also durfte es auch von der Größe her kein Unbehagen bereiten. Ein weiteres Kriterium war die Vielfalt: in der Kategorie Bücher gab es mehr als 3 Millionen einzelne Artikel, in der Kategorie CDs nur etwa ein Zehntel davon. Eine bedeutender Unterschied: denn je größer die Auswahl, desto besser ließen sich die Organisations- und Selektionsmöglichkeiten nutzen, die ein Computer bietet.“

Mail-Order-Modelle, also die Bestellung über gedruckte Kataloge einzelner Anbieter, blickten zwar in den USA schon auf eine lange Tradition zurück. Doch angesichts von Millionen einzelner Titel bot jeder Katalog aus Papier nur einen winzigen Ausschnitt aus der Masse lieferbarer Bücher. Wie Bezos herausfand, hatten viele Grossisten, die einzelne Buchhändler belieferten, zu diesem Zeitpunkt ihre Buchbestände bereits in elektronischer Form erfasst. Alles, was nun noch fehlte, war offenbar eine Webplattform, auf der Kunden in einem Gesamtkatalog suchen und Bücher direkt bestellen konnten.

Ab Juli 1995 gab es mit Amazon.com dann plötzlich einen solchen Ort im Netz. Das sprach sich auch ganz ohne PR im damals noch überschaubaren World Wide Web schnell herum: nur zwei Monate später erzielte Amazon bereits mehr als 20.000 Dollar Umsatz pro Woche. Neben Leseproben, Buchbesprechungen oder Kundenrezensionen machten auch niedrige Buchpreise die neue Plattform von Anfang an attraktiv. Da eine Buchpreisbindung oder vergleichbare Marktregulierungen in den USA nicht existieren, konnte man die Kostenvorteile gegenüber klassischen Buchhändlern direkt an die Kunden weitergeben. Amazon avancierte zum mächtigsten Literatur-Discounter weit und breit. Bei Hardcovern lagen die Rabatte bei 20 Prozent, bei Taschenbüchern sogar bei 30 Prozent. Komfortabel war der Einkauf obendrein. Der Bezahlvorgang selbst wurde so einfach wie möglich gestaltet – waren die Kreditkarteninformationen bei Amazon hinterlegt, konnten eingeloggte Kunden mit einem Mausklick bestellen.

Schon zwei Jahre nach dem Start von Amazon.com stand der Börsengang vor der Tür, kurz vor der Jahrtausendwende überstieg der Marktwert des Online-Buchhändlers bereits den von Barnes&Noble und Borders, also den beiden größten traditionellen Buchhandelsketten in den USA. Zu diesem Zeitpunkt hatte Amazon mehr als 13 Millionen Kunden, und Bezos sprach nun davon, das Unternehmen vom „Earth’s biggest bookstore“ in „Earth’s biggest anything store“ zu verwandeln, also vom weltgrößten Buchladen zum weltgrößten Gemischtwarenladen:

„Unsere Vision ist es, das Unternehmen mit der weltweit besten Kundenorientierung zu sein. Wir wollen der Ort sein, an dem die Menschen alles das finden können, was sie online einkaufen möchten.“

Dazu gehörten dann neben CDs, Videospielen und Spielzeug auch Elektronikartikel. Auf dem Time-Cover von 1999 sieht man das Gesicht von Bezos zwar neben Buchstaben aus Zuckerguss und antiken Buchrücken. Doch geehrt wird er letztlich für einen weitaus universelleren Erfolg – die Bildunterschrift lautet: „E-Commerce is changing the way the world shops“.

Self-Publishing mit Stephen King

Für Stephen King dagegen war 1999 ein Annus horribilis. Beim Spazierengehen wurde der Meister des Schreckens vor seinem Anwesen in Bangor/Maine unabsichtlich von einem Minivan überfahren – und überlebte nur mit Ach und Krach. Monatelang brütete der invalide Schriftsteller à la „Misery“ im Rollstuhl vor sich hin, und dabei muss wohl die Entscheidung gefallen sein, auch der Verlagswelt mal eine kleine Schrecksekunde zu gönnen. Im folgenden Jahr startete King eine bemerkenswerte mediale Offensive: Am 8. März 2000 wurde „Riding the Bullet“ („Achterbahnfahrt“) exklusiv als E-Book veröffentlicht, eine Erzählung, die es im Printformat auf 66 Seiten gebracht hätte. King selbst war erklärtermaßen „neugierig darauf, was es für eine Resonanz geben wird – und ob dies nun die Zukunft der Literatur ist oder nicht.“ Ähnlich neugierig war offenbar des Meisters Hausverlag Simon&Schuster, der das Experiment nolens volens unterstützte.

„Riding the Bullet“ ist die Geschichte einer Entscheidung auf Leben und Tod, und zugleich ein Konflikt zwischen Lebenden und Toten. Der aus dem Grab wiedergekehrte George Staub stellt den College-Studenten Alan Parker vor die Wahl – wen soll er bei der Rückkehr in die Unterwelt mitnehmen, ihn selbst oder dessen kranke Mutter? Wer die Geschichte lesen wollte, musste sich nicht entscheiden, denn es gab sie vorerst nur im PDF-Format zum Preis von 2,50 Dollar. Der Erfolg war überwältigend. Alleine in den ersten 24 Stunden soll es mehr als 400.000 Downloads gegeben haben, also mehr als 4 E-Books pro Sekunde! Es hätten sogar noch mehr sein können. Doch die Server des Verlagsdienstleisters SoftLock brachen irgendwann unter dem Ansturm zusammen. „The real horror was trying to download the piece“, kommentierte die Nachrichtenagentur Associated Press.

Trotzdem bedeutete ein solcher Premierentag selbst für einen Bestseller-Autor wie Stephen King eine vollkommen neue Erfahrung. Vermutlich brachte ihm das E-Book in wenigen Stunden mehr als 100.000 Dollar ein. Wie gut sich „Riding the Bullet“ tatsächlich an der virtuellen Ladentheke verkauft hat, ist jedoch eine ganz andere Frage. Denn große Plattformen wie Barnes&Noble oder Amazon boten das E-Book in der Anfangsphase auf eigene Kosten zum kostenlosen Download an. Bei zahlreichen potentiellen Lesern führte die 87 Kilobyte kleine Datei trotz solcher verlockenden Angebote zur medialen Ernüchterung. Denn der Kooperationspartner von Simon&Schuster hieß nicht ohne Grund SoftLock. Das PDF war mit digitalem Rechtemanagement (DRM) versehen worden.

Das verhinderte nicht nur das Ausdrucken und Weitergeben der Datei. Die zur Lektüre notwendige Lese-Software „Glassbook Reader“ und die daran gekoppelte DRM-Software funktionierte nur auf Windows-PCs und kompatiblen Mobilgeräten. Mac- (und natürlich auch Linux-)Anwender konnten mit „Riding the Bullet“ überhaupt nichts anfangen. Das störte nicht zuletzt Stephen King selbst: “Als ein überzeugter und langjähriger Mac-Nutzer bin ich erstaunt und auch ein wenig unglücklich darüber, dass es für diese Gruppe so schwer ist, Zugang zu der Geschichte zu bekommen“, verlautete aus der Dichterklause in Bangor. Erst Wochen später konnte Simon&Schuster das Problem in Zusammenarbeit mit Amazon und Adobe beheben.

Einige Leser hatten da bereits auf eigene Faust eine Lösung gefunden. Der Kopierschutz war ganz einfach geknackt worden, und die DRM-freie Version von „Riding the Bullet“ machte innerhalb der Web-Community die Runde. Absurderweise sorgte erst die in der Presse als „Hacker-Attacke“ titulierte Aktion für ein wirklich benutzerfreundliches E-Book, das sich auf allen Geräten und Systemen öffnen ließ. Zugleich führte der trotz 64-Bit-Verschlüsselung gehackte Roman zu einen gewissen Lerneffekt. „Fakt ist: es gibt keinen unüberwindbaren Kopierschutz. Es ist praktisch unmöglich, ihn zugleich absolut sicher und benutzerfreundlich zu machen“, musste Len Kawell zugeben, der Chef von Glassbooks. Diese Erkenntnis führte jedoch zu einem beliebten Kurzschluss. Statt ganz einfach auf harten Kopierschutzes zu verzichten, machte Kenwall ein „antipiracy controlling problem“ aus – es gelte also, die Raubkopierer juristisch in den Griff zu bekommen.

Das E-Book-Geschäft schien jedenfalls Chancen und Risiken gleichermaßen zu bieten. Unmittelbar nach dem Start von „Riding the Bullet“ äußerte sich King selbst noch eher skeptisch über die Aussichten des elektronischen Lesens: „Während das Internet und verschiedene Computer-Anwendungen vielversprechend für die Arbeit des Schriftstellers erscheinen, glaube ich nicht, dass damit das gedruckte Wort und das gebundene Buch ersetzt werden kann. Zumindest nicht, so lange ich lebe.“ Doch die mediale Abenteuerlust des Horror-Autors schien geweckt. Noch im selben Jahr wagte King ganz ohne Verlag ein digitales Self-Publishing-Experiment der besonderen Art: „The Plant“.

In der Schublade des Bestseller-Autors schlummerte nämlich noch ein Manuskript aus den 1980er Jahren. „The Plant“ dreht sich um den erfolglosen Schriftstellers Carlos Detweiler, der aus Rache für ein abgelehntes Manuskript seinem Verleger eine heimtückische fleischfressende Pflanze schenkt. War nicht die Selbstvermarktung über das Internet ein ähnlich gefährliches Gewächs? Die ein bisschen an den Plot von „Der kleine Horrorladen“ erinnernde Geschichte schien perfekt zu passen für den Direktvertrieb via Internet. „Meine Freunde“, schrieb King auf seiner Website, „wir haben die Chance, zum schlimmsten Alptraum der großen Verlage zu werden.“

King vermarktete „The Plant“ in Form einer Fortsetzungsgeschichte, und setzte dabei auf ein Freemium-Konzept. Die erste Folge konnte man zum Preis von einem Dollar herunterladen, es gab jedoch parallel auch eine kostenlose Version. Sollten mindestens 75 Prozent aller Leser ihr Scherflein beitragen, so lautete das Versprechen, würde es eine Fortsetzung geben. Der Start war fulminant – nach kaum 24 Stunden konnte King seinen Lesern mitteilen: „Ich bin sehr zufrieden mit den Downloads, bis gestern nachmittag kamen um die 40.000 zusammen, und wir schätzen die Bezahlrate lag bei 88 Prozent. Nimm das, Mort Janklow [prominenter US-Literaturagent] und stopf dir deine Pfeife damit!“ Insgesamt erschienen bis Weihnachten 2000 sechs Folgen, im Verlauf der Aktion musste King die Bezahlschwelle jedoch auf 50 Prozent senken, die Zahl der Downloads halbierte sich. Ein Misserfolg sieht aber wohl doch etwas anders aus. Insgesamt brachte ihm die Self-Publishing-Aktion nach eigenen Angaben eine halbe Million Dollar ein.

Self-Publishing schien also grundsätzlich zu funktionieren. Doch würden im digitalen Milieu auch die zarten Pflänzchen von weniger prominenten Skribenten gedeihen? New York Times-Kritiker Steven J. Dubner blieb da eher skeptisch: „Die Medien haben Kings Akt der Rebellion zu einer Schriftsteller-Revolution hochgeschrieben. Das stimmt so wohl nicht. Die meisten Autoren kommen nicht so einfach am Launch-Tag in die ‘Today’-Show oder zu ‘Good Morning America’. Schriftsteller vom Schlage Carlos Detweiler haben wohl auch weiterhin keine andere Wahl, sie müssen ihrem Verlag menschenfressendes Grünzeug schicken.“

Stephen King selbst hielt in den folgenden Jahren erst einmal wieder seinem Hausverlag wie auch dem Medium Papier die Treue. Finanziell hatte der Bestseller-Autor weder E-Books noch Self-Publishing nötig – seine Romane verkauften sich auch so in Millionenauflagen. „Es geht nicht um das Geld, und auch nicht um die Zukunft des Bücherverlegens, sondern darum, etwas neues auszuprobieren, ein paar Knöpfe zu drücken und zu schauen, was passiert.“


Der Traum von der universalen Bibliothek
1970er Jahre: „Born on the 4th of July“
1980er Jahre: Vom Text-Adventure zur CD-Rom
1990er Jahre: Von der Hyperfiction zum Rocket eBook
2000 ff.: Vom Handy-Roman zur Lese-App
Ausblick: „Wir sind gekommen, um zu bleiben“


Autor&Copyright: Ansgar Warner