Der Traum von der universalen Bibliothek
1970er Jahre: „Born on the 4th of July“
1980er Jahre: Vom Text-Adventure zur CD-Rom
1990er Jahre: Von der Hyperfiction zum Rocket eBook
2000 ff.: Vom Handy-Roman zur Lese-App
Ausblick: „Wir sind gekommen, um zu bleiben“


2000 ff.: Vom Handy-Roman zur Lese-App

Lucy Luder & das Gesetz der Serie

E-Reader hatten es Anfang des 21. Jahrhunderts schwer, weil die Leser noch am gedruckten Buch festhielten – so will es die Legende. Stimmt aber nicht ganz. In technikaffinen Japan bremste ausgerechnet das „Keitei“ den Absatz von elektronischen Lesegeräten, mit anderen Worten, das Mobiltelefon. Schon lange vor dem Smartphone-Boom wurde dort jeder zweite Top Ten-Bestseller nicht nur als E-Book verkauft, sondern auch mobil auf dem Handy gelesen. Möglich machten das Java-Applets, die nicht nur Miniatur-Videospiele zum Laufen bringen, sondern auch E-Reader-Apps. Doch damit nicht genug: viele dieser „Cell phone novels” wurden von flinken Teenagerfingern tatsächlich auch auf dem „Keitei” geschrieben. Eine entsprechende Blog-Meldung führte vor einigen Jahren noch zu dem erstaunten Kommentar: „Das muss ein Fehler sein! Jeder zweite Besteller wird auf Handys gelesen, okay, aber: geschrieben!?” Doch im Land der über 100 Millionen Handys geht so manches.

Tatsächlich wurden Handys in einem höflichen Land wie Japan von Anfang an auch zum Schreiben benutzt — um die Mitfahrenden in der U-Bahn nicht zu stören, chatten die TokioterInnen lieber per SMS. Und nicht nur das: „Teenager haben schon in den frühen Neunzigers mit Pagern Nachrichten verschickt”, berichtet Mizuko Ito, ein Wissenschaftler, der das japanische Handy-Verhalten erforscht. „Deswegen war Japan auch das erste Land der Welt, in dem die Menschen flächendeckend mobil kommunizierten, noch bevor Handys überhaupt populär wurden“. Das wirkte sich nicht nur auf die mediale Kompetenz von Nippons Söhnen und Töchtern aus, sondern auch auf deren Kreativität.

Einen der berühmtesten goldenen Daumen hat etwa Kiki, die Gewinnerin des „Japan Keitei Novel Awards” aus dem Jahr 2008. Ihr Erfolgsroman „I, Girlfriend” gewann nicht nur 2 Millionen Yen in bar, sondern auch einen Verlagsvertrag, um das E-Book in einer Printfassung zu veröffentlichen. Der Roman ist im typischen Keitei-Stil geschrieben: Jeder Satz passt auf eine Zeile des Displays. Auch viele Emoticons gehören mit zum Handy-Stil. Der Literaturkritiker Genichiro Takahashi nannte den Roman das „erste Meisterwerk des Keitei-Genres”.

Das neue Genre entstand um das Jahr 2002, als der erste große Handy-Roman die Displays eroberte. „Deep Love: Ayu’s Story” von Yoshi erzählt den Überlebenskampf einer Teenager-Prostituierten in Tokio. Mit allem, was das Thema hergibt: Romantik plus Vergewaltigung, Drogensucht, Selbstmordversuche. Die Welt der japanischen Handy-Romane ist dunkler und blutiger als man denken würde, sind doch die Leserinnen vor allem Mädchen im Schulalter. Die „Hardboiled”-Schule ist aber äußerst erfolgreich: Inzwischen wurden etwa von „Deep Love” fast drei Millionen Exemplare der Printversion verkauft, es gibt eine Fernsehserie und, selbstverständlich, auch Mangas.

Verlage wie Starts, Goma oder Asuki Media Work setzten voll auf Keitei: ein Gutteil der E-Book-Dynamik des japanischen Marktes fand bis 2010 fast ausschließlich auf dem Handy statt. Das Keitei-Portal Maho no-Iland gehörte mit mehr als 3, 5 Milliarden Pageviews pro Monat in den Nuller Jahren zu den zehn meistbesuchten Websites in Japan. Interessant ist aber auch die mediale Reihenfolge, die sich im Land der aufgehenden Sonne etablierte. War ein Handy-Roman besonders erfolgreich, wurde er anschließend auch gedruckt. Um noch mal ein paar Zahlen zu nennen: die „Boy meets Girl”-Geschichte „Koizora” z.B. verkaufte sich bis 2010 auf dem Handy 25 Millionen mal, als Printfassung drei Millionen mal. Dabei geht es nicht nur um unterschiedliche Leseerlebnisse: Viele Leser kaufen sich nach der Lektüre auf dem Display ganz einfach eine teuer gestaltete Hardcover-Version als emotional aufgeladenes Souvenir.

Marshall McLuhan kannte noch keine Handys, aber er hatte eine Medientheorie, deren Quintessenz wie eine SMS klingt: „The Medium is the message.” Tatsächlich wurde in den Nuller Jahren auch in Deutschland auf dem Handy völlig anders gelesen ein Jahrzehnt vorher auf dem PC-Bildschirm. Verglichen mit heutigen Smartphones waren die Bildschirme der „Feature-Phones“ winzig. Umso mehr waren die kurzen ebenso wie die einfachen Formen die Gewinner: Ein Satz muss auf das Display passen, am besten gleich zwei oder drei. So etwa wie in Carola Kickers Mystery-Thriller „Perlen aus Blut”:

„Tabatha hielt ihrem Blick stand und seine schwarzen Augen blickten sie herausfordernd an. Es waren Augen wie schwarze Spiegel, kalt und leer. ‘Hämatit’, dachte Tamara unwillkürlich.”

Besonders gut eignen sich natürlich Kurzgeschichten. Die dürfen auch klassisch sein. Nicht ganz zufällig bot der deutsche Handy-Roman-Verlag Mobilebooks.com zum Gratis-Testen Edgar Allen Poes Shortstory „Die Maske des roten Todes” an. Das eigentliche Genre für das „drahtlose Zeitalter” ist natürlich — siehe die Telenovelas bzw. Soap-Operas etc. — nicht das isolierte Werk, sondern die Serie. In diesem Fall die Roman-Serie. Die bekannteste deutsche Handy-Roman-Heldin der Nuller Jahre war wohl Lucy Luder, eine Erfindung von Oliver Bendel. Der Autor sagt selbst über seine Serienheldin:

„Lucy ist eine 20-jährige Jura-Studentin in Berlin und betreibt in ihrer WG in Charlottenburg ein Detektivbüro. … Sie ist ziemlich verrückt und chaotisch … Aber sie hat Ideale. Und mir ist sie sehr sympathisch. Äußerlich gesehen ist sie blond und schlank – wie einfallsreich! – und hat ein weggelasertes Tattoo am Hintern. Sie wird deshalb auch Barbie genannt, aber sie sagt selbst, sie sei eher eine Puppe in der Art der Bratz.”

Handyromane wie „Lucy Luder und der Mord im StudiVZ” oder „Lucy Luder und die Hand des Professors” zielten ganz klar auf ein junges, gebildetes, internet- und handyaffines Publikum. Das Vermarktungspotential schien groß, schließlich war mit dem Handy die zugrundeliegende Plattform schon massenhaft in aller Hände. Zudem waren die Handy-Romane günstig, kosteten nur wenige Euros, und ließen sich bequem aus dem Mobilfunknetz ziehen. Eine perfektere Kombination schien kaum denkbar: Medium wie auch seine Inhalte waren Teil der jugendlichen Populärkultur.

Das Gesetz der Serie galt umso mehr auf den Handy-Displays der Grande Nation. „Guten Tag, mein Name ist Thomas Drimm, ich bin fast 13 Jahre alt und gerade dabei, die Welt zu retten.” Diesen Satz konnten im Jahr 2009 unzählige Franzosen auf dem Display ihrer Mobiltelefonen lesen. Denn so begann die erste Folge von Didier van Cauwelaerts Handy-Roman „Die Abenteuer von Thomas Drimm”. Der für skurrile Mystery-Stoffe bekannte Bestseller-Autor führt seine Leser in die Welt eines Teenagers, der plötzlich in Kontakt mit der Geisterwelt gerät.

Gerade in Frankreich hat der täglich in Folgen erscheinende „Roman feuilleton” eine lange Tradition. Im 19. Jahrhundert steigerten Tageszeitungen wie „Le Siècle“ oder „Le Temps“ ihre Auflagen durch Fortsetzungsromane von Star-Autoren wie Alexandre Dumas oder Eugène Sue. Insofern scheint es passend, dass man outre-Rhin gegen Ende der Nuller Jahre mit dem mobilen Fortsetzungsroman für Handy und Smartphone experimentiert hat.

Die erste Staffel der „Abenteuer von Thomas Drimm“ umfasste zehn Folgen. Handy-Nutzer im französischen Netz konnten die tägliche Text-Dosis per SMS mit dem Stichwort “Smartnovel” abonnieren. Technisch ermöglicht wurde die Handy-Version durch eine Java-Anwendung, die automatisch die neuen Kapitel abrief. „Auf diese Weise nutze ich das Mobiltelefon, um die literarische Tradition des Fortsetzungsromans zu erneuern. Die Leser werden ständig vor unerwartete Situationen gestellen, damit sie bei der Stange bleiben”, so van Cauwelaert.

Genau genommen hat er keinen echten Handy-Roman geschrieben, sondern Material umgearbeitet, das er schon in der Schublade hatte. Doch das Serienprinzip gefiel dem Bestseller-Autor, der früher nicht viel mit digitaler Kultur am Hut hatte, sofort: „Die Leser erwarten jeden Tag eine neue Episode, diese Vorstellung ist doch sehr verführerisch für einen Autor. Man hat sozusagen jeden Tag ein Rendez-Vous mit seinen Lesern, und das für Wochen oder sogar Monate. Für die Leser werden meine Romanfiguren so eine Art Freunde, die man jeden Tag trifft.”

Das große Scannen: Googles Buchsuche und die Folgen

Bis vor wenigen Jahren entstand kaum ein E-Book „from scratch“. Oft wurde ganz einfach die Print-Version eingescannt und mit sogenannter „OCR“-Software („Online Character Recognition“, also „Online Buchstaben Erkennung“) in elektronischen Text umgewandelt. Die Enthusiasten von Project Gutenberg und die Anhänger der Copyleft-Bewegung arbeiteten schon seit den 1990er Jahren so. Doch auch Amazon musste für die „Search Inside a Book“-Funktion gerade bei älteren Titeln auf das Digitalisieren gedruckter Vorlagen zurückgreifen.

Beim Suchmaschinen-Riesen Google dürfte das 2003 gestartet Feature einen besonderen Ruck ausgelöst haben. In den Gängen des Googleplex mitten im Silicon Valley war man schon längst nicht mehr damit zufrieden, nur eine Suchfunktion für das Internet anzubieten. Weitaus mehr Informationen war in den Bibliotheken der ganzen Welt gespeichert – aber leider offline. Gewohnt, groß zu denken, hatten sich die Googler bereits die Frage gestellt: Wie lange dauert es, um alle existierenden Bücher zu digitalisieren?

Darauf wusste niemand so schnell eine genaue Antwort. Doch nicht umsonst standen an der Spitze von Google ja mit Larry Page und Sergey Brin zwei Wissenschaftler. Googles PR-Abteilung schildert den Anfang des großen Scan-Projektes so:

„In typischer Google-Manier entschied Larry Page, das Experiment selbst in die Hand zu nehmen. Mithilfe eines Metronoms versuchen er und Marissa Mayer, eine der ersten Produktmanagerinnen von Google, die Seiten eines 300 Seiten starken Buchs in gleichen Abständen umzublättern. Es dauert ganze 40 Minuten, bis sie die letzte Seite umgeblättert haben.“

Der „Gründungsakt“ des zu Beginn noch streng geheimen Google Buch-Projekts soll bereits im Jahr 2002 stattgefunden haben. Manche Bibliotheken hatten zu diesem Zeitpunkt bereits begonnen, selbst Teile ihrer Bestände einzuscannen. Zu den Pionieren auf diesem Gebiet gehörte die Universität von Michigan, zu deren Absolventen Larry Page zählt. Von seiner ehemaligen Alma Mater erfuhr der Google-Co-Chef, dass „die aktuelle Schätzung für die Digitalisierung einer Bibliothek mit 7 Millionen Bänden bei 1000 Jahren liegt“. Darauf wagte Page gegenüber der Universitätsleitung die kühne Prognose: „Google könnte das in sechs Jahren schaffen.“

Per Hand, das war natürlich klar, würde man dieses Rekordergebnis nicht erreichen können. Notwendig war eine Scan-Technik, die ebenso schnell wie schonend funktionierte. Denn selbstverständlich sollten die gedruckten Bücher bei der Digitalisierung nicht beschädigt werden. Tatsächlich bot die Industrie bereits Hochleistungsgeräte an, die mit pneumatischen Fingern Buchseiten umblättern konnten und sich mindestens 1000 Seiten pro Stunde in digitaler Form einverleibten. Auch für das Problem, Bücher in hunderten verschiedenen Sprachen, Alphabeten und Fontgrößen zu verarbeiten, schienen die Google-Techniker eine Lösung parat zu haben. Fehlten nur noch geeignete Kooperationspartner.

Im Oktober 2004 landeten Larry Page und Sergey Brin einen Medien-Coup der Extraklasse. Ausgerechnet auf der altehrwürdigen Frankfurter Buchmesse, im Herzen der Gutenberg-Galaxis sozusagen, stellten sie das nun „Google Print“ genannte Digitalisierungsprojekt vor. Zumindest den ersten Teil. Denn bei den präsentierten Partnern handelt es sich um renommierte Wissenschaftsverlage wie Cambridge University Press, Penguin oder Springer. Mit deren Einwilligung schien auch das Einscannen aktueller, urheberrechtlich geschützter Titel gesichert zu sein.

„Der neue Service erlaubt den Nutzern von Googles Suchmaschine parallel zur Recherche in Milliarden von Webseiten auch das Durchkämmen der Texte von hunderttausenden Büchern zu einem bestimmten Thema. Die eingescannten Werke, die von den Verlagen zur Verfügung gestellt wurden, lassen sich nach einzelnen Begriffen oder Sätzen durchsuchen“, berichtete die New York Times. Die Googler betonten bei der Präsentation des Projekts immer wieder, dass Google nicht zum Online-Buchhändler werden wollte – wenn überhaupt, so sei man am Anzeigengeschäft interessiert, ähnlich wie bei der gewohnten Google-Suche. Trotzdem wurde Google Print von der Branche nicht gerade enthusiastisch begrüßt, wie Lars Reppesgaard in seinem Sachbuch-Bestseller „Das Google-Imperium“ schreibt:

„In Frankfurt reagierte man verhalten auf die zukunftsweisende Idee. In einer Zeit, in der immer mehr Leute nach einem bestimmten Titel beim Onlinehändler Amazon suchten und nicht mehr im Verzeichnis lieferbarer Bücher, sorgten sich etliche Verlagsmanager, dass ihnen durch das Internet ein ähnliches Schicksal drohte wie der Musikindustrie.“

Mit anderen Worten: man hatte nicht nur Angst vor regulärer digitaler Konkurrenz, sondern auch vor der „Napsterisierung“ der Buchbranche. Übersehen wurde bei dabei natürlich, dass vor allem deswegen so viele MP3-Musikfiles im Netz kursierten, weil die Anbieter es lange Zeit versäumt hatten, ein vergleichbares legales Angebot zu schaffen. Googles Scanner würden also in vielen Fällen die unkontrollierbare Arbeit der Raubkopierer ersetzen, und für die Verlage sogar Umsätze mit Titeln ermöglichen, die in gedruckter Form längst nicht mehr lieferbar waren.

Im Dezember 2004 stellte Google dann den Kern von Google Print der Öffentlichkeit vor, das „Bibliotheksprogramm“. In Zusammenarbeit mit den Universitätsbibliotheken von Harvard, Oxford, Stanford und Michigan sowie der New York Public Library sollten insgesamt mehr als 15 Millionen Bände digitalisiert werden.

Trotz aller Absprachen mit Verlagen und Universitäten war Google mit seinem Vorhaben juristisch jedoch noch längst nicht auf der sicheren Seite. Nur etwa zwanzig Prozent der eingescannten Titel gehörte zur Kategorie aktueller, lieferbarer Titel, die sich klar einem Rechteinhaber zuordnen ließen. Weitere zwanzig Prozent gehörten zum Bereich der Public Domain, was in den USA für alle Bücher zutrifft, die vor 1923 veröffentlicht wurden. Doch für die große Mehrheit der Bibliothektsbestände galt in Sachen Copyright: Nichts genaues weiß man nicht.

„Etliche Millionen Bücher, die irgendwann veröffentlicht und dann nie wieder nachgedruckt wurden, liegen in den Regalen der Bibliotheken. Ihr rechtlicher Status ist unklar. Auf manche hat noch jemand einen Urheberanspruch, bei anderen ist er erloschen. Die Googler entschieden beherzt, auch die restlichen 60 Prozent der Bücher der Welt in Google Print zu überführen“, berichtet Lars Reppesgaard.

Während gemeinfreie Bücher auf dem seit 2005 „Google Book Search“ genannten Webportal vollständig lesbar waren und auch heruntergeladen werden konnten, galten für die übrigen Werke abgestufte Einschränkungen. Bei lieferbaren Titeln wurde nur eine vorher festgelegte Zahl von Seiten angezeigt, bei den „verwaisten“ Werken ohne feststellbaren Rechteinhaber bekam man nur „Snippets“ zu sehen, also wenige Zeilen lange Textausschnitte. Sobald Verlage die sogenannte „Opt-Out“-Möglichkeit wählten, ließen sich im übrigen auch aktuelle Titel bei Googles Book Search nur „schnippchenweise“ lesen.

Das nützte letztlich aber alles nichts: Google wurde noch im Jahr 2005 wegen Copyrightverletzungen verklagt – einmal von der Autorenvereinigung „Author’s Guild“, zum anderen vom Verlegerverband „Association of American Publishers“ sowie von fünf großen Verlagen. Erst drei Jahre später konnte der Rechtsstreit vorläufig beigelegt werden (eine endgültige Entscheidung steht auch im Jahr 2012 noch aus) – mit einem Kompromiss, der als „Google Book Settlement“ in die Mediengeschichte einging. Der Suchmaschinen-Riese zahlte in dessen Folge 125 Millionen Dollar an Entschädigungen an Autoren und Verlage. Vor allem musste das Unternehmen auch die Interventionsmöglichkeiten für Rechteinhaber verbessern, die ihre „Claims“ nun etwa auf einer eigenen Website anmelden können, um von den E-Book-Tantiemen zu profitieren.

Zugleich schuf das „Google Book Settlement“ aber auch die Grundlage, das Scan-Projekt fortzusetzen. Damit waren die Weichen gestellt für ein weltgeschichtlich einmaliges Wissens-Monopol, kritisierte Robert Darnton, Historiker und Leiter der Universitätsbibliothek von Harvard, in der New York Review of Books:

„Das Settlement führt zu einem fundamentalen Wandel der digitalen Welt, denn es befestigt die Macht in den Händen eines einzigen Unternehmens. Sieht man mal von Wikipedia ab, kontrolliert Google bereits jetzt die Zugangsmöglichkeiten der meisten Amerikaner zu Informationen aller Art, ob es nun darum geht, etwas über Personen herauszufinden, über Waren, Orte, oder sonst irgend etwas. Google Book Search verspricht nun auch noch zur größten Bibliothek zu werden, die jemals existiert hat.“

Zu diesem Zeitpunkt, im Jahr 2009, umfasste Googles Buchsuche etwa 10 Millionen Bücher. Heute, im Jahr 2012, sind es bereits 20 Millionen. Ging es zu Beginn des Projekts um das Digitalisieren von vielleicht 1000 Seiten pro Tag, erreichen die neuesten Scanner mittlerweile Rekordwerte von mehr als 1000 Seiten pro Stunde. Das utopische Endziel der universalen Bibliothek scheint nun bereits zum Greifen nah zu sein. Google hat bereits mehrmals angekündigt, bis zum Jahr 2020 alle Bücher der Welt – schätzungsweise 130 Millionen Bände – im digitalen Kasten zu haben.

Der Ideengeschichtler Darnton, Experte für die Zeit der französischen Aufklärung, sieht die Informationsgesellschaft somit zu Recht auf einen Kipp-Punkt zusteuern: „Wenn wir die Waagschalen in dieser Situation falsch austarieren, könnten Firmeninteressen auf absehbare Zeit schwerer wiegen als das Gemeinwohl, und der alte Traum der Aufklärung bleibt auch weiterhin unerreicht.“

Die digitale „Bibliothek von Alexandria“ ist nicht nur in privater Hand, sie ist auch zugleich ein großer Supermarkt für Literatur, seitdem 2010 der Google Bookstore an den Start ging. Ganz so fremd wäre den französischen Aufklärern eine solche Verquickung von Wissenschaft und Wirtschaft aber wohl nicht gewesen. Denn wie Robert Darnton selbst in seinem Klassiker „The Business of Enlightenment“ gezeigt hat, war schon im 18. Jahrhundert die Verbreitung von Diderots berühmter „Encyclopédie“ für Verleger und Autoren ein sehr gutes Geschäft. Das meiste Geld verdiente allerdings der Pariser Buchhändler Charles-Joseph Pankoucke, dank königlichem Privileg ein Quasi-Monopolist. Honi soit, qui mal y pense…

Die Amazon-Story, Teil 2

Mehr als ein Jahrzehnt lang hatte Amazon seit dem Gründungsjahr 1994 die Buchbranche auf ihrem eigenen Territorium angegriffen – dem Handel mit gedruckten Büchern. Das Medium war identisch, nur die Logistik besser organisiert. Die Kosten für das Lagern und den Vertrieb der Ware Buch waren jedoch auch für Amazon beträchtlich. Umso verlockender erschien deswegen der Online-Handel mit digitalen Gütern – sprich E-Books. Schon im Jahr 2000 waren die ersten elektronischen Bücher auf Amazon.com im Angebot. Außerdem hatte Amazon begonnen, viele lieferbare Print-Titel einzuscannen, um auf der Website einen Service namens „Search Inside“ anzubieten – also eine Volltext-Recherche. Was jedoch zum Durchbruch des elektronischen Lesens noch fehlte, waren geeignete Lesegeräte. Schon im Jahr 1997 hatte Bezos während eines Deutschland-Trips gegenüber der taz prophezeit:

„Möglicherweise werden die Bücher aus Papier [zukünftig] durch elektronische Bücher ersetzt, wie sie am MIT schon jetzt entwickelt werden. Das sind Bücher, die ständig mit neuen Texten aufgeladen werden können. Wenn es einmal so etwas geben wird, werden die Bücher, die wir heute kennen, langsam verschwinden.“

Soweit sei es aber noch lange nicht, beschwichtigte Bezos. Denn während der Verkauf von Videofilmen über das Netz an zu niedriger Bandbreite scheitern würde, sei es bei Büchern der fehlende Lesekomfort:

„Die Verbreitung von Büchern wäre kein Problem, aber sie scheitert am Bildschirm, dessen Technik noch sehr primitiv ist. Auf Papier gedruckt ist ein Text unendlich viel besser zu lesen als am Computer. Auch das wird sich mit der Zeit ändern.“

Die Technik, um die es dabei ging, war das elektronische Papier. In den Forschungslaboren der großen Display-Hersteller hatte längst der Wettlauf nach einer stromsparenden, kontraststarken Bildschirmtechnologie begonnen. Ausgangspunkt war dabei eine scheinbar banale Beobachtung: Ist eine Buch- oder Zeitungsseite einmal mit farbigen Pigmenten bedruckt, muss keine Energie mehr aufgewandt werden, um das Druckbild sichtbar zu machen. Das reflektierte Licht einer künstlichen Lichtquelle oder Sonnenlicht reicht aus. Eine reflexive Bildschirmtechnologie würde somit nur Strom verbrauchen, wenn ein neues Bild entstehen soll, also die farbigen Pigmente auf einer Seite neu angeordnet werden.

Weil letztlich nicht der Untergrund entscheidend ist, sondern die Partikel, aus denen sich das Schriftbild zusammensetzt, spricht man mittlerweile auch von elektronischer Tinte („Electronic Ink“ bzw. „E-Ink“). Prototypen gab es bereits seit den 1970er Jahren – beim sogenannten „Gyricon“-Verfahren etwa setzte man bei XEROX im Palo Alto Research Center (PARC) auf winzige Plastikpartikel, die in einer öligen Schicht schwammen Sie wiesen eine helle und eine dunkle Seite auf, und besaßen zugleich auf den beiden Seiten eine unterschiedliche elektronische Ladung. Je nach der angelegten Spannung konnte man somit an einem bestimmten Punkt des Displays einen weißen oder einen schwarzen Punkt erscheinen lassen, der nach dem Abschalten des Stroms erhalten blieb.

Das heute gängige Verfahren ist die sogenannte Elektrophorese – hier werden zwei unterschiedliche Substanzen genutzt, zum einen dunkle Farbpigmente, zum anderen helle Titaniumdioxid-Partikel. Die Tianiumdioxid-Partikel befinden sich je nach angelegter Spannung entweder an der Display-Oberfläche – dann erscheint der jeweilige Abschnitt weiß – oder sie tauchen ab, so dass die Farbpigmente den jeweiligen Abschnitt dunkel erscheinen lassen. Neben dem führenden Hersteller E-Ink Corporation (gegründet 1997) setzen mittlerweile auch Hersteller wie SiPix oder Bridgestone auf solche elektrophoretischen Displays.

Konitchiwa, Librié: Der erste E-Ink-Reader

Um E-Ink fit für den Massenmarkt zu machen, musste vor allem der Herstellungspreis gesenkt werden. Denn das Display eines E-Readers ist bis heute das teuerste Bauteil. Als Sony im Jahr 2004 den weltweit ersten E-Reader mit E-Ink-Technologie startete, galt das umso mehr. Der zunächst nur in Japan verkaufte Librié EBR-1000EP ähnelte vom Äußeren her bereits heutigen Lesegeräten. Er besaß ein 6 Zoll großes Display (Auflösung: 600×800 Pixel, 4 Graustufen), unter dem eine QWERTY-Tastatur angeordnet war, außerdem gab am Rand des Librié noch spezielle Umblättertasten. Mehr als ein Achtungserfolg war für Sony zu diesem Zeitpunkt aber nicht drin. Das lag nicht nur an dem mit 41.000 Yen (damals knapp 325 Euro) recht hohen Preis, sondern vor allem an den medialen Gewohnheiten der Handy-Nation Japan – ein schwarz-weißes Display konnte gegenüber der Lektüre auf farbigen LCD-Screens von Mobiltelefonen einfach nicht mithalten. Auf ihrem „Keitei“ luden die Japaner zudem längst per Tastendruck E-Books oder Mangas direkt aus den Netz herunter, Sonys E-Reader dagegen besaß nur einen USB-Port. Die Lektüre in dem von Sony entwickelten BroadBand-E-Book(BBeB)-Format musste also erstmal via PC aus dem Internet geladen und dann per Kabel übertragen werden.

Da half es nur wenig, dass Sony mehr als ein Dutzend Buch- und Zeitungsverlage mit ins Boot geholt hatte, um genügend Content für den weltweit ersten E-Reader mit elektronischem Papier anbieten zu können. „Eines Tages werden Millionen Menschen all das, was Sie publizieren, auf einem solchen Gerät lesen. So sieht die Zukunft aus!“, soll Sonys Chefdesigner bei der Vorführung eines Prototypen den versammelten Buchmachern prophezeit haben. Die Verlage dachten aber wohl eher an die unmittelbare Zukunft der eigenen Zunft, und so stellte jeder erst einmal nur 1000 Titel zur Verfügung. Ob nun Kalkül oder nicht, das blieb nicht ohne Folgen. Selbst der von Sony anvisierte Verkauf von 5000 Lesegeräten pro Monat erwies sich als zu optimistisch, denn die brandneue Technik wurde vom Publikum mehr oder weniger ignoriert. Nach drei Jahren musste Sony das Reader-Experiment im Land der aufgehenden Sonne sang- und klanglos beenden. Für das Nachfolgemodell PRS-500 zielte der Unterhaltungsriese nun auf einen vielversprechenderen Markt,nämlich die USA. Dort kündigte sich zu diesem Zeitpunkt aber schon ein neuer Stern am Reader-Himmel an: Amazon.

„Books are not dead“: Die Geburt des Kindle

Zu den ersten Käufern des Librié gehörte nicht ganz zufällig ein amerikanischer Geschäftsmann namens Jeff Bezos. Der Legende nach soll der Amazon-Chef 2004 gleich dreißig Stück bestellt haben, um sie von seinen Mitarbeitern ausgiebig testen zu lassen. Ein am Markt erfolgreicher E-Reader der Konkurrenz, das war dem gewieften Geschäftsmann sofort klar, würde auch die bisherige Geschäftsgrundlage des Online-Handels mit gedruckten Büchern gefährden. Zugleich bot eine bei Millionen Kunden beliebte Plattform wie Amazon beste Voraussetzungen, um im E-Book-Business mitmischen zu können. Winkte hier nicht auch die einmalige Chance, den Schritt vom Online-Shopping am PC zum mobilen Shopping zu wagen, auf den Sony mit seinem Ansatz verzichtet hatte? Bezos startete kurz darauf ein eigenes E-Reader-Projekt. Er begann Verhandlungen mit E-Ink Corp., dem führenden Display-Hersteller, und beauftragte Steve Kessel, seine rechte Hand, mit der Einrichtung eines eigenen Entwicklungslabors in Cupertino, das den geheimnisvollen Namen Lab 126 erhielt.

Die Gerüchteküche im Silicon Valley begann bald zu brodeln – was wurden da quasi in Apples Hinterhof von rasch angeheuerten Entwicklern ausgeheckt? War es ein neuer MP3-Player oder vielleicht ein neuer Handheld-Computer?

Die Entwicklung zog sich über mehr als drei Jahre hin – was auch an den ambitionierten Vorstellungen von Bezos lag. Brad Stone berichtet in einer Hintergrund-Story für das Bloomberg Business Magazine:

„Das neue Lesegerät sollte kinderleicht zu bedienen sein, forderte der Amazon-Gründer, und vertrat den Standpunkt, man dürfe den technisch unbegabteren Nutzern nicht zumuten, das Gerät für ein WiFi-Netz zu konfigurieren. Außerdem hielt er nichts davon, den Reader mit einem PC zu verbinden. So blieb als einzige Alternative eine Verbindung über das Mobilfunknetz, was praktisch bedeutete, in die Hardware ein Mobiltelefon einzubetten. So etwas hatte bisher noch niemand ausprobiert.“

Doch Bezos bestand darauf, dass Kunden sich keine Gedanken darüber machen sollten, ob nun eine drahtlose Verbindung aktiv sei oder nicht, oder ob dafür Kosten entstehen würden. Beim Design des neuen E-Readers mischte sich der Amazon-Chef ebenfalls ein. Ein ehemaliger Amazon-Designer erzählte Jahre später gegenüber der New York Times:

“Jeff Bezos kam immer wieder in unsere Design-Meetings und sagte, wie sehr er sein BlackBerry lieben würde, und wie einfach man damit E-Mails abrufen und Leuten antworten könnte. Das ist der Grund, warum das erste Kindle so klobig aussah, mit diesem extravaganten eckigen Keyboard und dem merkwürdigen Scroll-Rad an der Seite. Das Vorbild war Jeffs BlackBerry.“

Natürlich fehlte auch noch der entsprechende Name für den E-Reader, der als Working-Title erstmal nur „Fiona“ genannt wurde. Der mit dem „Branding“ beauftragte Graphik-Designer Michael Cronan machte sich an die Arbeit. Worum ging es bei diesem Projekt? Jeff Bezos wollte mit dem neuen Gadget die Zukunft des Lesens verändern, aber ohne allzu großes Tamtam. Der neue Name sollte leicht von den Lippen gehen und sich im alltäglichen Sprachgebrauch gut einprägen. So kam Cronan am Ende auf das wohlklingend-literarische Wort „Kindle“, abgeleitet vom Verb „to kindle“, was soviel bedeutet wie anfachen, anregen, aufflackern lassen. Der Wortstamm kyndill steht im altnorwegischen für „Kerze“ („Candle“). Etwas kleiner als die Fackel der Aufklärung, aber auch ein großes Feuer beginnt mit einer kleinen Flamme.

Bereits der Start des Kindle erwies sich tatsächlich als Zündfunke für einen Flächenbrand. Mit 100.000 Geräten ging Amazon am 19. November 2007 den Start. Bei einem Preis von 399 Dollar schien das Kindle der ersten Generation nicht gerade ein Schnäppchen zu sein. Doch mit inzwischen mehr als 65 Millionen Kunden besaß Amazon.com die perfekte Plattform, um das Gerät massenhaft unter die Leute zu bringen. Schon nach wenigen Stunden war das Kindle komplett ausverkauft. Dabei blieb es dann auch erst einmal, denn aufgrund von Problemen mit der Zulieferindustrie war Amazons neuer Reader erst im April 2008 wieder vorrätig.

Das wichtigste Ziel war ohnehin erreicht – der „Kindle-Moment“ hatte landesweit für Aufsehen gesorgt, und das Thema Elektronisches Lesen in den Mainstream transportiert. Der Tech-Blog „The Gadgeteer“ schrieb etwa:

„Wir wissen zwar nicht, ob das Kindle für E-Books dasselbe bewirken wird wie der iPod im Musikbereich, aber eins ist doch klar: Es ist das erste Gerät, mit dem eine vergleichbare Erfolgsgeschichte möglich scheint. Während unsere Leser schon seit einiger Zeit von E-Books gehört hatten, galt das für die meisten Menschen nicht – das hat sich sich durch den Medienrummel rund um das Kindle nun aber geändert. “

Tatsächlich erinnerte der Erfolg des Kindles an den des iPods, gerade weil Amazon soviel Gewicht auf das perfekte Kundenerlebnis gelegt hatte: Über die Mobilfunkverbindung gelang fast überall ein direkter Zugang zum Kindle-Store. Mit 88.000 Titeln war dieser zudem vom Start weg gut gefüllt. Mit einem Klick konnte man dort viele Bestseller für 10 Dollar einkaufen, also deutlich günstiger als normale Taschenbücher. Die elektronischen Versionen von Zeitungen, Zeitschriften und Magazinen komplettierten das Angebot. Gerade für Vielleser schien sich also die Investition in das vergleichsweise teure Lesegerät zu lohnen.

Lesestoff wie Lektürekomfort ließen auch verschmerzen, dass die E-Books mit Digital Rights Management geschützt waren, also nicht auf anderen Geräten genutzt werden konnten. Doch die Übertragbarkeit der Kindle-Books stieß auch ganz ohne Kopierschutz auf Grenzen. Amazon setzte nämlich von Anfang an auf das Mobipocket-Format, dessen gleichnamigen Hersteller Jeff Bezos in weiser Voraussicht bereits einige Jahre zuvor aufgekauft hatte. Alle anderen E-Book-Anbieter schwenkten dagegen seit 2007 nach und nach zum systemoffenen EPUB-Format über, und verwendeten zudem mit Adobe Digital Editions auch noch ein anderen DRM-Standard. Wer nicht als Kunde zwischen den beiden E-Book-Universen wandert, bekommt jedoch selbst heutzutage vom Formate-Schisma im Alltag kaum etwas mit.

Zum durchschlagenden Erfolg des Kindle-Launchs trug auch eine großangelegte PR-Kampagne bei, denn anders als beim Start von Amazon.com überließ Jeff Bezos nun nichts mehr dem Zufall. Pünktlich zum Starttermin kam Bezos zusammen mit dem Kindle auf die Titelseite von Newsweek. „Books are not dead“ lautete die Schlagzeile des historischen Covers, die Unterzeile fügte hinzu: „They are just going digital“. Die Titelstory aus der Feder von Steven Levy brachte es auf den Punkt:

„Obwohl das Kindle im Herzen eine Lesemaschine darstellt, produziert von einem Buchhändler, und sehr eindrucksvoll den Akt des Einkaufens und der Lektüre ermöglicht, geht es doch zugleich weit darüber hinaus: es handelt sich dabei um ein unaufhörlich vernetztes Gerät. Mit einer kleinen Fingerbewegung wird die Verbindung zwischen dem Geist des Lesers und den Machinationen des Autors durch eine Datenlawine unterbrochen, oder verstärkt. Darin besteht die disruptive Natur des Amazon Kindle. Es ist das erste Buch mit ‘immer-online’-Status.“

Creative Commons & Co.: Der kleine Bruder schlägt zurück

Ständig vernetzte Geräte haben jedoch auch Nachteile. Um das zu wissen, braucht man nicht einmal George Orwells dystopischen Roman „1984“ zu lesen. Es reicht, Orwell als E-Book bei Amazon gekauft zu haben. Im Sommer 2009 bemerkten Kindle-Besitzer, die genau das getan hatten, dass ihre elektronischen Versionen von „1984“ oder „Animal Farm“ plötzlich vom Reader verschwunden waren. Dafür befand sich die Kaufsumme wieder auf dem Konto. Des Rätsels Lösung: Amazon hatte über Nacht via “Whispernet” drahtlos alle Kopien auf den Geräten gelöscht.

Amazon-Sprecher Drew Herdener bemühte sich sogleich, das ominöse Vorgehen zu erklären. Die gelöschten Titel seien in Amazons Katalog über einen Dritt-Anbieter eingestellt worden, der allerdings für die USA nicht die Buchrechte besessen habe. „Als wir vom tatsächlichen Rechteinhaber darüber benachrichtigt wurden, haben wir die illegalen E-Books aus unserem System und von den Lesegeräten unserer Kunden entfernt und die Kaufsumme zurückerstattet.”

Trotzdem waren viele Kindle-Besitzer empört über diesen Eingriff in ihr virtuelles Bücherregal. Würde ein normaler Buchhändler denn jemals nachts in die Wohnung von Kunden einbrechen, um fehlerhaft erworbene Bücher wieder einzusacken, und auf dem Wohnzimmertisch ein paar Geldscheine zur Erstattung liegenlassen? Das Wall-Street-Journal sprach augenzwinkernd von einem „Orwellian Moment”. Juristisch gesehen befand der große Bruder Amazon sich dabei auf der sicheren Seite. „Genau genommen gewährt Amazon Ihnen lediglich eine Lizenz zum Lesen”, zitierte das WSJ Peter Brantley, Direktor des nicht-kommerziellen Internet Archives. “Sie kaufen die Lizenz, aber sie besitzen damit das E-Book nicht in der Weise, wie sie ein Buch besitzen, dass sie aus der Buchhandlung tragen”.

Die Öffentlichkeit sah das völlig anders. Ging es hier nicht genau wie in „1984“ darum, durch die Zerstörung von Informationen Kontrolle über die Gesellschaft auszuüben? Amazon-Sprecher Herdener musste am Ende versprechen: „In Zukunft werden wir in einem solchen Fall keine E-Books von den Geräten unserer Kunden löschen.” Doch die „Orwell-Affäre“ hinterließ eine Menge Fragezeichen, die nicht nur das elektronisches Lesen betrafen. In der Welt von PCs, Smartphones oder E-Readern schienen sich klassische Bürgerrechte plötzlich in bloßes Kundenrechte verwandelt zu haben. Wie sollte man dieser Machtverschiebung in Richtung der Unterhaltungsindustrie begegnen? Eine mögliche Antwort darauf gibt Cory Doctorows Roman „Little Brother“, dessen deutsche Version knapp ein halbes Jahr nach Amazons großer Löschungsaktion erschien.

Der Held der Geschichte heißt W1n5t0n, seine Waffe: ein klandestines Netzwerk aus gehackten X-Boxes. Sein Feind: die amerikanische Heimatschutzbehörde, die San Francisco nach einem Terroranschlag in einen Polizeistaat verwandelt. „Little Brother” schlägt zurück – in Cory Doctorows gleichnamigem Roman bekommt es der Große Bruder mit Teenager-Hackern zu tun, die nicht nur Passwörter knacken können, sondern vom Flashmob bis zur virtuellen Pressekonferenz die neuen Medien für sich nutzen. Denkt man Reizworte wie Vorratsdatenspeicherung, Bundestrojaner und Netzsperren, brachte der Rowohlt-Verlag die deutsche Fassung von “Little Brother” genau zum richtigen Zeitpunkt heraus. Selbst die traditionelle Buchbranche hatte 2010 begonnen, angesichts schwindender Profite im Print-Geschäft plötzlich das Schreckgespenst von Datenpiraterie an die Wand zu malen, und forderte strengere Kontrollen, obwohl der Marktanteil von E-Books im Heimatland Gutenbergs noch weit unter einem Prozent lag.

Cory Doctorow hatten die Letternzünfte bei ihrem Feldzug gegen die angebliche „Napsterisierung“ der Gutenberg-Galaxis nicht auf ihrer Seite. Die Karriere des kanadischen Sci-Fi-Autors, Boing-Boing Bloggers und Journalisten wäre ohne Computer und freies Internet kaum vorstellbar. Vor allem ist Doctorow aber ein moderner Bürgerrechtler. Mit und in den neuen Medien kämpft er für besseren Datenschutz und gegen Digital Rights Management. Viele seiner Sci-Fi-Romane sind auch sehr praktisch ein Plädoyer für Kreativität und Freiheit, denn Doctorow veröffentlicht die elektronischen Versionen kostenlos unter einer weitgehenden Creative Commons Lizenz. Anders als das (c) des konventionellen Copyrights soll das (cc) der Creative Commons-Lizenz den jeweiligen Inhalt nicht künstlich verknappen, sondern so vielen Menschen wie möglich zugänglich machen.

Bereits Doctorows 2003 publizierter Roman „Down and out in the Magic Kingdom“ war cc-lizensiert, weitere Werke folgten. Zwischen Autor und Fangemeinde hat sich dabei eine produktive Arbeitsteilung entwickelt. So gab es auch von „Little Brother“ bereits kurz nach Erscheinen zahlreiche E-Book-Formate zum kostenlosen Download, konvertiert von der hilfreichen Internet-Crowd. Den Verkaufszahlen der Printversion hat diese Strategie nicht geschadet, ganz im Gegenteil. Kurz nach dem Erscheinen des englischsprachigen Originals im Sommer 2008 war „Little Brother“ bereits in den Top Ten der New York Times-Bestsellerliste, Abteilung Kinder- und Jugendbücher.

Die deutsche Ausgabe brachte Rowohlt in der Jugendbuchreihe „Rotfuchs” heraus – und versprach sich wohl nicht ganz zu unrecht Bestseller-Potential. Doctorow hat mit dem siebzehnjährigen Helden der Geschichte schließlich eine universelle Identifikationsfigur geschaffen. Das zeigen bereits die ersten Sätze:

„Ich gehe in die Oberstufe der Cesar Chavez High im sonnigen Mission-Viertel von SF, und das macht mich zu einem der meistüberwachten Menschen der Welt. Ich heiße Marcus Yallow, aber zu der Zeit, als diese Geschichte losging, lief ich unter w1n5t0n. Gesprochen: ‘Winston’.”

Winston hieß der Held aus Orwells „1984“. Als Orwell in den 1940er Jahren seinen „Großen Bruder“ entwarf, gab es im Alltag noch gar keine Computer. In der Welt von W1n5t0n sind sie allgegenwärtig geworden – Kameras erkennen die Menschen an ihrem Gesicht oder an ihrem Gang, Funkchips in Ausweisen ermöglichen flächendeckende Bewegungsprofile, und die Schul-Laptops senden jeden Mausklick und jedes geschriebene Wort an die Behörden weiter. Doch „Little Brother“ hat gegenüber dem literarischen Vorbild einen deutlichen Vorteil. Er ist nämlich nicht nur begeisterter Online-Gamer, sondern auch ein technisch versierter Hacker.

Doctorow hat „Little Brother” zwischen Mai und Juli 2007 zu Papier gebracht, besser gesagt, in sein Netbook gehackt, als wäre er selbst noch ein 17-jähriger Computerfreak. „Es gab Tage, an denen schrieb ich 10.000 Worte, in Flughafenlounges, U-Bahnen, Taxis, überall wo ich mich über mein Keyboard beugen konnte“, berichtet er im Vorwort. Parallelen zwischen Marcus „Winston“ Yallow und Doctorow dürften wohl kaum zufällig sein. Doctorow, Jahrgang 1971, war schon als Teenager ein Technik-Enthusiast, begeistert von den Möglichkeiten, über digitale Netzwerke politische Arbeit zu organisieren. „Little Brother“ ist zugleich aber eine Reaktion darauf, dass in der Welt nach dem 11. September Internet und PC wieder jenen Orwellschen Touch bekommen, den früher einmal die „Elektronische Datenverarbeitung“ hatte:

„Die 17-jährigen in meinem Umfeld verstehen sehr gut, wie gefährlich ein Computer sein kann. Der autoritäre Alptraum der Sechziger Jahre hat sie eingeholt. Verführerische kleine Boxen auf ihrem Schreibtisch und in ihren Hosentaschen überwachen alle ihre Schritte, pferchen sie ein, nehmen ihnen systematisch alle Rechte wieder ab, die ich in meiner Jugend genießen durfte.“

Dabei betreffen selbstverständlich Maßnahmen wie Online-Durchsuchungen, rigider Kopierschutz oder Netzsperren die Erwachsenen genauso. Die Zuspitzung von „Little Brother“ auf eine jugendliche Zielgruppe hat aber zugleich viel mit der gesellschaftlichen Realität zu tun, schließlich werden etwa Online-Games, Facebook oder Musik-Downloads gerade von der Generation U 25 genutzt. Es ist somit vor allem ihr Leben, das mit der zunehmenden Kontrolle des Internets an Qualität verliert, in den USA genauso wie in Europa. Nicht jeder Teenager, der einen Firefox-Browser, Filesharing-Sites oder eine gehackte X-Box nutzt, wird sich bisher als Digital Rights-Aktivist oder sogar als Bürgerrechtler gesehen haben. Die Lektüre von „Little Brother“ kann das jedoch verändern.

Der Lernprozess beginnt sogar schon vor dem Lesen. Denn Doctorows Romane gibt es schließlich nicht nur als kommerzielle Print-Titel, sondern in verschiedenen digitalen Varianten kostenlos im Internet. Nicht nur auf englisch, sondern auch auf deutsch! Möglich macht das die Veröffentlichung des Originals unter einer Creative Commons-Variante, die auch die Bearbeitung des Textes erlaubt. Eine kostenlose, DRM-freie Übersetzung von Christian Woehrl kann man sich ebenso legal wie umsonst herunterladen, etwa im EPUB oder PDF-Format. Für die deutsche Taschenbuchausgabe, übersetzt von Uwe-Michael Gutzschhahn, muss man 9,99 Euro hinblättern. Die kommerzielle E-Book-Version bekommt man zum selben Preis.

Dank DRM-Schutz darf man mit der von Rowohlt herausgegebenen E-Book-Version jedoch genau das nicht machen, was Doctorow selbst für das A und O von digitalen Büchern hält: man kann „Little Brother” in dieser Form weder weitergeben noch verändern. „Dieses Buch soll Teil einer Diskussion darüber sein, was die Informationsgesellschaft für uns bedeutet: geht es um die totale Kontrolle, oder um eine bisher unerhörte Form der Freiheit? Dieses Buch ist nicht nur ein Nomen, es ist ein Verb, etwas, das man tut“, heißt es im Vorwort der Originalausgabe. Zur aktiven Doctorow-Lektüre kann also in Deutschland auch gehören, auf den Kauf der DRM-geschützten Verlagsversion des E-Books zu verzichten.

Der „iPad-Moment“ und die Folgen

„Come see our latest creation“, stand etwas wolkig auf den Einladungen, mit denen Apple im Januar 2010 eine erlesene Schar von Mitarbeitern, Bloggern und Journalisten in das Yerba Buena Center for the Arts in San Francisco eingeladen hatte. Was da kommen würde, war aber mittlerweile allen klar, man sprach nur noch vom „Tablet Event“.

Noch weitaus stärker als Jeff Bezos beim Kindle setzte nun Steve Jobs nämlich bei der Markteinführung auf gezielte PR. „Das letzte Mal, als es so viel Aufregung um eine Tafel mit Schriftzeichen gab, standen die zehn Gebote darauf“, witzelte das Wall Street Journal in Anspielung auf den Vorab-Kult um Jobs und sein „Jesus-Tablet“.

Schon Tage im voraus wurden im Internet eifrig Adressen weiterverbreitet, bei denen man die exklusive Medien-Show per Video-Livestream oder zumindest per Twitter mitverfolgen konnte. Durch gezielt gestreute Informationen waren die wichtigsten Details des Tablets allerdings längst durch Blogs und Gazetten gegeistert. Zu erwarten war offenbar der große Bruder von iPod und iPhone. Doch wie würde das Gerät heißen? Als am Mittwoch um 10 Uhr vormittags Ortszeit Steve Jobs im liturgischen Rollkragen-Gewand auf die schwarz dekorierte Bühne trat, war das Rätsel schnell gelöst: „We call it the iPad“.

Wie lange Apple bereits Pläne zu einem Tablet-PC gehegt hatte, zeigt eine Patentanmeldung aus dem Jahr 2004. „Die Unterlagen enthielten Abbildungen eines rechteckigen elektronischen Tablets mit abgerundeten Ecken, das genauso aussah wie das spätere iPad, und man sah auch einen Mann, der das Gerät lässig in der linken Hand hielt, während er mit seinem rechten Zeigefinger das Display berührte“, schreibt Walter Isaacson in seiner Steve Jobs-Biografie. Auffällig ist dabei die klassische Leseposition – man hält das Gerät in der Hand und schaut auf das Display herab, ähnlich wie beim Lesen eines Buches. Die „Fernseh-Sitzhaltung“ des PC-Zeitalters schien damit endgültig überwunden. Ganz so originell war das mediale Ensemble freilich nicht. Schon der Sci-Fi-Autor Arthur C. Clarke hatte im Buch zum Film „2001 – Odyssee im Weltraum“ ein etwa DIN A 4 großes Lese-Tablet namens „Newspad“ beschrieben, das sich drahtlos mit Content versorgen ließ. Wissenschafts-Astronaut Dr. Heywood Floyd surft mit dem Newspad auf einem Shuttle-Flug zum Mond durch elektronische Ausgaben der wichtigsten Tageszeitungen. Wohlgemerkt im Jahr 1968.

Doch neben der technischen Machbarkeit von Touch-Screens, hochauflösenden Miniatur-Bildschirmen und vor allem leistungsfähigen, aber stromsparenden Chips fehlte lange Zeit offenbar der Glaube daran, dass sich ein solches Gerät überhaupt vermarkten ließ. War nicht auch im frühen 21. Jahrhundert ein Low-Cost-Netbook weitaus vielversprechender? Nicht ganz zufällig konkretisierten sich die Gedankenspiele bei Apple in Sachen Tablet ausgerechnet im Jahr 2007, also genau in dem Jahr, als Amazon mit dem Kindle an den Start ging. Denn das zeigte, dass zwischen PC und Smartphone offenbar ein breiter Spalt für völlig neue Geräteklassen klaffte.

Das iPad, genau wie das Kindle, war dabei von Anfang an Chefsache. Als Perfektionist stand Steve Jobs dem Amazon-Chef Bezos in nichts nach: „Wie immer drängte Jobs auf die größt mögliche Einfachkeit. Dafür musste man aber wissen, worin die Essenz des Gerätes bestand. Die Antwort: der Bildschirm. So wurde es zum Leitprinzip, das alles, was mit dem Gerät angestellt wurde, über den Bildschirm passieren sollte.“ (Walter Isaacson)

Im Unterschied zu früheren Konzepten – etwa beim Konkurrenten Microsoft – sollte man also bei der Benutzung deswegen auch ohne einen Eingabestift auskommen. Beim Innenleben des neuen Gadgets ging Apple ebensowenig Kompromisse ein. Nachdem man mit dem Chipfabrikanten Intel nicht handelseinig werden konnte, ließ man mit dem A4-Prozessor kurzerhand ein hochintegriertes „System-on-a-Chip“ designen. Es enthält neben der eigentlichen CPU auch die Komponenten zur Grafik- und Audiowiedergabe sowie den Speicher. Die Chip-Architektur basiert dabei auf der stromsparenden ARM-Technologie, die auch bei E-Readern genauso wie bei Smartphones zum Einsatz kommt.

Ein Bild vom iPhone leitete dann auch das große Apple-Event am 27. Januar 2010 ein. Daneben war ein Laptop zu sehen. Dazwischen ein Fragezeichen. „Gibt es genug Platz für etwas dazwischen?“, rief Steve Jobs. An dieser Stelle hätte natürlich jemand im Publikum antworten können: „Ja, zum Beispiel für einen E-Reader!“. Doch darum ging es hier nicht. Der Lückenfüller namens iPad war als Multifunktionsgerät gedacht – mit seinem 9-Zoll großen Farb-Display war es perfekt zum Browsen oder emailen, zum Anschauen von Fotos und Videos, zum Anhören von Musik, zum Spielen, und last not least zum Lesen von E-Books und elektronischen Zeitungen. Mit einem Einstiegspreis von 500 Dollar für die Basisversion (WiFi plus 16 Gigabyte Speicher) schien das iPad zudem stärker auf den Massenmarkt ausgerichtete zu sein als andere Apple-Produkte.

Doch war das iPad wirklich ein Lesegerät? Steve Jobs jedenfalls schien dieser Ansicht zu sein. Ausführlich stellte er während der Präsentation eine neue Lese-App namens iBooks vor. Sie unterstützte den Branchen-Standard epub und machte aus dem iPad einen vollwertigen E-Reader. Siegesbewusst wie immer warf Jobs dem größten Konkurrenten im E-Book-Business den Fehdehandschuh hin: „Amazon hat hier großartige Pionierarbeit geleistet. Wir werden uns aber jetzt auf ihre Schultern stellen.“ Schon rein optisch hatte iBooks einiges zu bieten. Ein virtuelles Bücherregal zeigte die Cover der bereits geshoppten E-Books. Das Umblättern der Seiten war animiert und sorgte zusammen mit der Doppelseiten-Ansicht für ein Buch-ähnliches Ambiente.

Den Content selbst lieferte nicht mehr iTunes bzw. der App Store, sondern eine in iBooks integrierte E-Commerce-Plattform namens iBook Store. Apples neuer Service sollte von Anfang an gut bestückt sein. Das war die zweite große Überraschung des Tages. Parallel zur iPad-Premiere verkündete Steve Jobs einen Big Deal mit fünf großen Verlagen: Macmillan, Harper Collins, Hachette Book Group, Penguin sowie Simon&Schuster. Die prominenten Buchmacher hatten einen sehr guten Grund für die Kooperation mit Apple – denn iBooks versprach höhere Endkundenpreise als der Kindle-Store. Seinem Biografen Walter Isaacson gegenüber begründete Steve Jobs diese Strategie so:

„Amazon hat es vermasselt. Sie haben die Bücher nach dem Wholesale-Modell eingekauft, selbst aber unter Preis für 9,99 wieder verkauft. Die Verlage haben das gehasst, denn sie dachten, dass würde ihre Chancen schmälern, jetzt noch Hardcover für 28 Dollar zu verkaufen. Deswegen haben schon vor einiger Zeit manche Verlage begonnen, Amazon manche Titel vorzuenthalten. Wir haben ihnen dann gesagt: ‘Wir bieten euch das Agency-Modell an, bei dem ihr den Endverkaufspreis bestimmt, dafür erhalten wir 30 Prozent Provision, und, zugegeben, die Kunden zahlen dabei ein bisschen drauf, aber das wollt ihr doch sowieso.“

Allerdings rechnete Jobs nicht damit, dass es für längere Zeit ein Preisgefälle zwischen iBooks und Amazon geben würde. Denn in die Vereinbarung mit den Verlagen war eine hinterlistige Klausel eingebaut worden:

„Wir haben uns aber auch eine Garantie geben lassen. Sobald jemand die Bücher günstiger verkauft als wir, können wir sie auch zum niedrigeren Preis verkaufen. Also gingen die Verlage zu Amazon und sagten: ‘Wenn ihr nicht auch das Agency-Modell übernehmt, werden wir euch gar keine Bücher mehr geben.’“

Durch den Verkaufserfolg des iPads sollte diese Taktik tatsächlich aufgehen. Innerhalb eines Monats nach dem Launch im April 2010 waren bereits 1 Million Tablets über den Ladentisch gegangen, Anfang 2011 hatte Apple bereits 15 Millionen iPads verkauft. Das entsprach in etwa der Zahl von Kindles, die im Umlauf waren! In knapp einem Jahr hatte sich damit Amazons Verhandlungsposition so weit geschwächt, dass Jeff Bezos den Verlagen schließlich erlauben musste, den Endkundenpreis für E-Books im Kindle-Store selbst zu bestimmen.

Ganz so unglücklich war man bei Amazon über den iPad-Start allerdings nicht. Denn Apples Touch-Screen-Geräte boten mit dem App Store schließlich eine weit offen stehende Hintertür für Drittanbieter. Bereits auf iPhone und iPod Touch war Amazon mit der Kindle-App präsent – nun folgte auch eine überarbeitete E-Lese-Anwendung für das 9-Zoll-Display des iPads. Das firmeneigene „Ökosystem“ von Amazon sollte bald nicht nur Kindle-Apps für Apple-Geräte umfassen, sondern auch für Windows-PCs, Blackberry-Handys und weitere Mobilgeräte.

Trotzdem brachte der „iPad-Moment“ für das elektronische Lesen eine entscheidende Wende – es machte den Medien-Konsum auf großen, farbigen LCD-Bildschirmen populär. Geschickt verbanden die ersten iPad-Werbespots dabei anspruchsvolles Design mit einem ungeahnten Unterhaltungs- und Nutzwert. So wurde etwa deklamiert: „iPad is thin. iPad is beautiful … It’s crazy powerful. It’s magical… It’s video, photos. More books than you could read in a lifetime. It’s already a revolution, and it’s only just begun.“

Elektronisches Papier schien dagegen plötzlich deutlich weniger attraktiv – es mochte zwar augenschonend sein, bot aber nur schwarz-weiße Letternwüsten. Der Preisvorteil gegenüber Apples Edel-Tablet begann sich bald zu nivellieren. Nur ein halbes Jahr nach dem iPad-Start brachte Barnes&Noble mit dem „Nook Color“ ein 7-Zoll-Tablet zum Kampfpreis von 199 Dollar auf den Markt, angetrieben mit dem von Google entwickelten Alternativ-Betriebssystem Android. Ausgerechnet ein traditioneller Buchhändler mit hunderten Filialen im ganzen Land warf damit der Konkurrenz aus dem Silicon Valley einen digitalen Fehdehandschuh vor die Füße.

Die Weichen für den technologischen Wettlauf zwischen E-Ink und LCD waren damit für die nächsten Jahre gestellt. Doch egal wie perfekt das Ergebnis im Jahr 2015 oder 2020 aussehen wird – das letzte Wort dürfte am Ende wohl „2001“-Autor Arthur C. Clarke behalten mit seiner Prognose für das fiktive Newspad: „Über kurz oder lang würde es den Weg alles Irdischen gehen, und durch etwas ersetzt werden, das so unvorstellbar war wie das Newspad für Gutenberg gewesen wäre.”


Der Traum von der universalen Bibliothek
1970er Jahre: „Born on the 4th of July“
1980er Jahre: Vom Text-Adventure zur CD-Rom
1990er Jahre: Von der Hyperfiction zum Rocket eBook
2000 ff.: Vom Handy-Roman zur Lese-App
Ausblick: „Wir sind gekommen, um zu bleiben“


Autor&Copyright: Ansgar Warner