© JUNGE FREIHEIT Verlag GmbH & Co. KG www.jungefreiheit.de 10/23 / 03. März 2023

Bücherdämmerung
Printbestände: Wie das „papierne Medium“ aus wissenschaftlichen Bibliotheken verschwindet
Wolfgang Müller

Die vom NS-Studentenbund im Frühjahr 1933 in deutschen Universitätsstädten zwischen Freiburg und Königsberg organisierte „Bücherverbrennung“ wird in der zeithistorischen Literatur gern formelhaft als Vorspiel zur heraufziehenden „Barbarei“ bezeichnet und mit dem Sinnspruch versehen, wo Bücher in Flammen aufgingen, folgten ihnen bald Menschen. Worauf weist dann eine Praxis voraus, die heute tonnenweise Bücher aus Universitäts- und Institutsbibliotheken in der Papiermühle entsorgt? 

Was seit geraumer Zeit in großem Stil stattfindet, nennt ein im Fachblatt Bibliotheksdienst (50/2016) publizierter Überblick in trockenem Amtsdeutsch „Aussonderung von Printbeständen an wissenschaftlichen Bibliotheken in Deutschland“. Ob dieser öffentlich nicht die geringste Aufmerksamkeit erregende Vorgang nicht ebenso als Barbarei zu brandmarken wäre, ist für den Historiker Wilfried Enderle, für Geschichte zuständiger Fachreferent an der Niedersächsischen Staats- und Universitätsbibliothek in Göttingen, allerdings keine Frage. Er protokolliert lediglich, daß hier das finale Stadium eines langen Prozesses erreicht ist, den er in seiner bibliothekshistorischen Skizze leidenschaftslos nachzeichnet: „Wie das Buch aus der modernen Bibliothek verschwindet“ (WerkstattGeschichte, 86/2022).

Das geistige Rückgrat miteinander konkurrierender Industriestaaten

Erste, freilich noch äußerst schwache Symptome einer sich im digitalen Zeitalter vollendenden „Bücherdämmerung“ registriert Enderle bereits im Übergang vom 19. zum 20. Jahrhundert, als in den USA und im deutschen Kaiserreich die modernsten Bibliothekslandschaften der Welt ihre Pracht entfalteten. Damals entstand der für die industrielle Massen- und Wissensgesellschaft unentbehrliche Typus der Großbibliothek. Deren Bestände und Sammlungen dienten nicht länger bibliophilen Bewohnern des Elfenbeinturms, sondern sollten Forschern den Rohstoff publizierten wissenschaftlichen Wissens erschließen und vermitteln, um neues gemeinnütziges Wissen zu generieren. Bibliotheken wie die Library of Congress in Washington oder die Preußische Staatsbibliothek in Berlin bildeten somit das geistige Rückgrat der im wirtschaftlich-technologischen Wettbewerb miteinander konkurrierender, imperialistisch ausgreifender Industriestaaten.

Wenn Bücher in erster Linie Arbeitsmaterialien für die unendliche Produktion von Herrschaftswissen waren, dann mußten Bibliotheken so viele wie möglich davon bereitstellen. Prinzipiell waren dem Wachstum der Bestände also keine Grenzen gesetzt. 1900 gewährten die üppig alimentierten US-Bibliotheken ihren Nutzern Zugriff auf 40 Millionen Bände, und 1909 zählten die knappere Etats verwaltenden deutschen wissenschaftlichen Bibliotheken immerhin ebenso respektable 23 Millionen Bände. Um solche Massen handhabbar zu machen, wurden in Preußen und, diesem Vorbild folgend, in den USA nationale Gesamtkataloge in Angriff genommen, die die Bestände alphabetisch und systematisch erschlossen und vernetzten. Im Rahmen dieser Bemühungen, das Medium Buch für die Forschung zu optimieren, kamen auch Ideen zum Einsatz fotografischer Techniken auf. Das auf Papier gedruckte Buch als materielle Basis der modernen Bibliothek war damit erstmals in Frage gestellt worden. 

Die Mikrofilmtechnik war in den 1920ern so ausgereift, daß sie sich für Bibliotheken als Lösung ihres peinlichsten Problems, der ewigen Raumnot, anbot. Mikrofilme von Büchern, Zeitschriften und Zeitungen ließen sich platzsparender unterbringen als die papiernen Originale. Doch die hochgespannten Erwartungen, Bibliotheken von Buch- in Filmspeicher verwandeln zu können, sollten sich zunächst nicht erfüllen. Vor allem weil die Adressaten der neuen Technik, die Wissenschaftler als Leser, nur ungern das im Vergleich zum Buch unhandlichere Medium nutzen wollten, da die Lektüre an Lesegräten deutlich anstrengender, die Navigation in umfangreicheren Texten zeitaufwendiger und umständlicher war.

Darum dominierte nach 1945 weiterhin das Buch und bestimmte das bibliothekarische Dogma, dem zufolge jedes für die Forschung relevante Buch in der nationalen Bibliothekslandschaft vorhanden zu sein hatte. Und zudem festigte die Expansion des Wissenschaftsbetriebs dessen Favoritenrolle, da der politische und militärische zwischenstaatliche Wettbewerb, der stets ein wissenschaftlicher war, unter den Bedingungen des Kalten Krieges fortbestand und die effiziente Erschließung veröffentlichten Wissens eine Schlüsselfrage für die Konkurrenzfähigkeit von Wissenschaft blieb. 

Aber die Library of Congress hatte noch während des Zweiten Weltkriegs mit dem Office of Strategic Services (dem Vorgänger der CIA) kooperiert und, auf der Basis der Mikrofilmtechnik, ein neues Erschließungssystem erprobt, das ihrem Bücherozean nach kriegsrelevanten Informationen fürs US-Militär abfischte. Von hier aus sei es in den 1950er Jahren für von der Potenz der mathematischen Informationstheorie faszinierte Wissenschaftspolitiker nur ein kleiner Schritt gewesen, um die neue Technologie des Computers in den bibliothekarischen Alltag einzuführen.

Wissensdatenbanken erübrigten das Betreten von Bibliotheken

In der Bonner Republik hatte die Deutsche Forschungsgemeinschaft (DFG) 1963 zwecks computertechnischer Modernisierung wissenschaftlicher Bibliotheken einen eigenen Unterausschuß für Rationalisierung etabliert. Der beschäftigte sich zumeist mit dem Aufbau computerbasierter Kataloge und der Automatisierung administrativer Prozesse. 

In den USA, im Massachusetts Institute of Technology, war man zu dieser Zeit schon weiter und verabschiedete sich vom herkömmlichen Begriff der Bibliothek. Der Informatiker J. C. R. Liklider ging bei seinem futurologischen Ausblick auf die Bibliothek des Jahres 2000 nicht mehr vom Buch aus, dem er „mediale Ineffizienz“ bescheinigte, sondern vom Wissen und der Frage, wie neues Wissen zielgerichtet zu erzeugen sei. Daraus entwickelte er die Vorstellung, Wissen in kleinste Einheiten, Informationen, Fakten und Daten zu zerlegen, um sie in „Wissensdatenbanken“ zu sammeln und zu speichern. Dann müßte kein Forscher mehr eine Bibliothek betreten, und Wissenschaft fände „vollständig online“ statt, wenn erst, wie Liklider das 2004 gestartete Projekt von Google Books zu erahnen schien, die überlieferten Textbestände der Gutenberg-Galaxis digitalisiert sind. Zumindest in wissenschaftlichen Bibliotheken endet damit die Epoche der „papierbasierten Kommunikations- und Medienform“ – des Buches. 

 https://werkstattgeschichte.de