Ulrich Riehm, Knud Böhle, Ingrid Gabel-Becker, Bernd Wingert

Elektronisches Publizieren -
Eine kritische Bestandsaufnahme

Berlin, Heidelberg, New York: Springer 1992, ISBN 3-540-54159-4, 440 Seiten, 32,00 Euro

[Titelbild]


7

Elektronisches Publizieren in der Fachkommunikation - Schlußfolgerungen

 

Inhaltsverzeichnis von Kapitel 7

7.1 Wirkungsstudien zum Elektronischen Publizieren 265
  7.1.1 Technology Assessment of Computer Assisted Makeup and Imaging Systems 266
  7.1.2 Studien des Office of Technology Assessment zum Elektronischen Publizieren 268
  7.1.3 Die Studie „The Impact of New Technology on the Publication Chain“ 271
  7.1.4 Die Studie „The Impact of Electronic Publishing“ 273
  7.1.5 Gemeinsame Erklärung der europäischen Bibliothekare und Verleger 275
  7.1.6 Abschließender Vergleich mit unserer Studie 277
7.2 Zwölf Thesen zum Elektronischen Publizieren, zu den Autoren, Verlagen und Nutzern 279
7.3 Elektronisches Publizieren im Fachkommunikationssystem 287
  7.3.1 Verlust des Dokumentcharakters 289
  7.3.2 Bewältigen oder Verstärken der „Informationsflut“ 292
  7.3.3 Kommunikationsmöglichkeiten und Kommunikationsbedarf 295
  7.3.4 Zugangsbarrieren und gesellschaftliche Einbettung 298

Titelbild Es gibt wenige Studien zum Elektronischen Publizieren, die die tatsächlichen und potentiellen, die beabsichtigten und unbeabsichtigten, die direkten und indirekten Wirkungen auf das Fachkommunikationssystem zum Gegenstand haben. Fünf solcher Studien sollen im ersten Teil dieses Kapitels vorgestellt und unseren eigenen Schlußfolgerungen vorangestellt werden. Diese bestehen in einem ersten Anlauf (im zweiten Teil des Kapitels) aus thesenförmigen Stellungnahmen zu den aktuellen Themen der Diskussion um Elektronisches Publizieren, orientiert an den drei Hauptakteuren in der Publikationskette - den Autoren, den Verlagen und den Nutzern. Dieser Teil reflektiert die Wirkungen und Folgerungen auf Basis unserer empirischen Arbeiten und des momentanen Stands der technischen Entwicklung. Er stellt somit eine gewisse, zuspitzende Zusammenfassung der vorherigen Kapitel dar. Im dritten Teil des Kapitels wollen wir einen Schritt weiter gehen und über die Begleit- und Wirkungsstudie hinaus Elemente einer Technikfolgenabschätzung (TA) entfalten. Ausgehend von den Leistungen und Eigenschaften des Fachkommunikationssystems werden längerfristige Wirkungen des Elektronischen Publizierens diskutiert. Wir überschreiten dabei bewußt den derzeitigen technologischen Stand. Die potentiellen, längerfristigen Wirkungen können jedoch anders nicht identifiziert werden. Mit der Sicht auf das Gesamtsystem können auch Wechselwirkungen aufgedeckt werden, die bei einer Betrachtung aus Sicht der Einzelakteure nicht in den Blick kommen. Viele der so aufgezeigten Problemfelder stellen Anforderungen an weitere Forschung, Aufklärung und Diskussion. Bei einigen ist jedoch ein unmittelbarer Handlungs- und Regelungsbedarf gegeben.

7.1    Wirkungsstudien zum Elektronischen Publizieren     [Inhaltsverzeichnis]

Der überwiegende Teil der Literatur zum Elektronischen Publizieren behandelt Fragen der folgenden Art: Was versteht man unter Elektronischem Publizieren? Leistet Elektronisches Publizieren das, was es verspricht? Welche Einführungsprobleme gibt es? Wie sollte man das Elektronische Publizieren gestalten, damit es sich durchsetzt? Diese technologieorientierte Betrachtungsweise wird beispielsweise in den Büchern von Kist („Elektronisches Publizieren. übersicht, Grundlagen, Konzepte“ 1988) und von Standera („The Electronic Era of Publishing. An Overview of Concepts, Technologies and Methods“ 1987) eingenommen.

Einen anderen Ausgangspunkt nehmen Studien ein, die nach den Wirkungen des Elektronischen Publizierens fragen. Das Elektronische Publizieren wird z.B. in Beziehung gesetzt zu den Problemen des herkömmlichen Publikationsprozesses. Es können aber auch gesellschaftspolitische oder kulturelle Fragen sein, wie das Recht auf freie Meinungsäußerung oder der freie Zugang zu Informationen, die Ausgangspunkt für die Untersuchung der Wirkungen und Folgen des Elektronischen Publizierens sind. Uns sind nur fünf „Wirkungsstudien“ bekannt, die mehr oder weniger in diesem Sinn das Thema Elektronisches Publizieren behandeln.

Im folgenden stellen wir diese Studien kurz vor, um unseren Lesern und Leserinnen einen Zugang zu dieser Diskussion zu eröffnen. Darüberhinaus geht es uns um die Sammlung von Wirkungsdimensionen und Problemfeldern, die Material für unsere im zweiten und dritten Teil dieses Kapitels geführte „Wirkungsdiskussion“ sind. Wir charakterisieren auch knapp die unterschiedlichen methodischen Herangehensweisen. Die Besonderheiten unseres eigenen Vorgehens sollen dadurch noch deutlicher werden. Wir behandeln die Studien in der Reihenfolge ihrer zeitlichen Entstehung. Dabei geht es bei den ersten beiden amerikanischen Studien eher um politische oder gesellschaftliche Problemstellungen, während bei den dann folgenden drei europäischen Studien eher Verlagsprobleme bzw. Probleme des wissenschaftlichen Publikationssystems im Mittelpunkt stehen.

7.1.1     Technology Assessment of Computer Assisted Makeup and Imaging Systems

Bereits Ende der siebziger Jahre arbeitete eine Gruppe um Louis H. Mayo an einem „Exploratory Technology Assessment of Computer Assisted Makeup and Imaging Systems (CAMIS)“. Die Studie wurde von der National Science Foundation (NSF), einer der großen amerikanischen wissenschaftlichen Förderinstitutionen, in etwa vergleichbar der Deutschen Forschungsgemeinschaft (DFG), gefördert und im Rahmen des Programms „Policy Studies in Science and Technology“ an der George Washington University in Washington D.C. durchgeführt. Ein umfassender Bericht wurde 1980 (Mayo u.a.) vorgelegt.

Der in dieser Studie verwendete Begriff CAMIS (Computer Assisted Makeup and Imaging Systems) bezieht sich auf das Zusammenwachsen von elektronischen Dokumentgestaltungssystemen mit computerunterstützten Bildverarbeitungssystemen, Dokumentspeicher- und Dokumentabrufsystemen („printing on demand“). Im Grunde ist mit CAMIS das gemeint, was später mehr oder weniger einheitlich mit dem Begriff Elektronisches Publizieren bezeichnet wurde. [242]

Im Zentrum der Untersuchung steht die Identifizierung von politikrelevanten Themen („public policy issues“), die in Zusammenhang mit der Etablierung von CAMIS stehen. Mayo u.a. (1980) betonen dabei, daß die Sichtweise über die der Einzelakteure hinausgehen muss (S. S-2):

Anticipated major improvements in the economic efficiency and overall flexibility of paper-based media motivate the adoption of CAMIS, but also lead to unanticipated and even unprecedented societal vulnerabilities. These vulnerabilities cannot be recognized from the point of view of individual stakeholders in CAMIS development, rather, they arise from significant changes in the patterns that make up society.

Zur Erarbeitung dieser politikrelevanten Themen und ihrer Bewertung wurden vielfältige Kontakte, Interviews und Workshops mit den gesellschaftlichen Gruppen durchgeführt, die von CAMIS tatsächlich und potentiell betroffen sind. Eine wichtige Rolle in der Bewertung und Analyse der Folgen von CAMIS spielten ökonomische und ökologische Modelle. Die generelle Orientierung der CAMIS-Studie ist eher politik- als sozial- oder informationswissenschaftlich.

Acht Problemkomplexe werden behandelt:

  1. Urheberrecht und Schutz der Privatsphäre,
  2. Veröffentlichungen und Informationspolitik der Regierung,
  3. Konzentrationsprozesse und Wettbewerb,
  4. Manipulierbarkeit elektronischer Informationen und Orte ihrer Nutzung,
  5. Beschäftigungseffekte,
  6. leichterer Zugang zu Informationen und das Problem der Informationsflut,
  7. öffentliche Problemwahrnehmung und Informationspolitik,
  8. Rolle der Regierungspolitik.

Die eher allgemeinpolitischen Problemfelder, wie ökonomische Konzentrationsprozesse, Arbeitsmarkteffekte, Rolle der Regierung, gehen deutlich über das Themenspektrum unserer Studie hinaus. Die Copyrightproblematik, Datenschutz, freier Zugang zu Informationen und die Informationsflut sind Themen, die im Zentrum der Diskussion der Folgen des Elektronischen Publizierens im Kontext der Fachkommunikation stehen oder stehen sollten, und die wir deshalb in Abschnitt 7.3 wieder aufgreifen.

Es ist hier nicht der Platz, Einzelergebnisse der CAMIS-Studie auszubreiten, aber eine grundsätzliche Betrachtungsweise und eine zentrale Fragestellung sollen hervorgehoben werden:

7.1.2     Studien des Office of Technology Assessment zum Elektronischen Publizieren

Das Office of Technology Assessment (OTA) des Kongresses der Vereinigten Staaten von Amerika in Washington ist die älteste und mit rund 140 festen Mitarbeitern größte Einrichtung, die Studien zur Technikfolgenabschätzung (TA) durchführt. [243] Eine Technikfolgenabschätzung speziell zum Elektronischen Publizieren in der Fachkommunikation wurde (bisher) nicht durchgeführt. Allerdings gibt es in der Abteilung „Science, Information, and Natural Resources“ und insbesondere in dem in dieser Abteilung durchgeführten „Communication and Information Technologies Program“ eine Reihe von „TA-Studien“, die Themen behandeln, die auch für eine Technikfolgenabschätzung des Elektronischen Publizierens von Wichtigkeit sind. Diese Studien sollen im folgenden kurz angeführt und die besonderen Fragestellungen und Herangehensweisen des OTA dabei verdeutlicht werden. Wir stützen uns auf die entsprechenden OTA-Reports, die die offizielle und abschließende Form der Veröffentlichung über die OTA-Projekte darstellen.

Mit dem Bericht „Computer-Based National Information Systems“ (U.S. Congress, Office of Technology Assessment 1981) sollte ein erster überblick über die technische Entwicklung, eine Einführung in die technischen Hintergründe für Nicht-Experten und eine erste Auflistung von Problemfeldern vorgenommen werden. Man bezog sich dabei in erster Linie auf die großen, nationalen, bestehenden und zukünftigen elektronischen Informationssysteme, wie z.B. die großen Datenbanken der Polizei, Electronic Mail Systeme, Flugüberwachungs-, Kartenreservierungs-, Kreditüberprüfungs- oder Börseninformationssysteme.

Zu den identifizierten „public policy issues“ zählen beispielsweise:

Eine Reihe dieser Problemfelder wurden in späteren „TAs“ wieder aufgegriffen und vertieft.

1986 wurde der OTA-Report „Intellectual Property Rights in an Age of Electronics and Information“ (U.S. Congress, Office of Technology Assessment 1986) vorgelegt. Darin werden die Auswirkungen der derzeitigen und zukünftigen Kommunikations- und Informationstechnologien auf das System des Urheberschutzes untersucht. Es wird u.a. festgestellt, daß die neuen Techniken eine Verletzung des Urheberrechts erleichtern, daß in Computerkonferenzen und beim gemeinsamen Publizieren mittels Computer („joint-editing“) die Identität von Autoren und Dokumenten in Frage gestellt wird, daß der Zugang zu elektronischen Informationen Probleme des Datenschutzes und der Reglementierung der Nutzung aufwirft. Zusammenfassend stellt John Gibbons, der Leiter des OTA, in seinem Vorwort zu diesem Bericht fest (U.S. Congress, Office of Technology Assessment 1986, S. iii):

OTA found that technological developments are affecting all aspects of the intellectual property system. Moreover, because we are only beginning to move into the era of electronic information, the full impact of new technologies will not become fully apparent for some time. Fundamental changes are occuring in information technologies that will antiquate many of the policy mechanisms now in force, and bring new intellectual property problems requiring new solutions. Thus, even if Congress acts now in response to current problems, it will need to be prepared to act again within the next decade.

1988 erschienen zwei weitere wichtige „Reports“ im Kontext unseres Themas. In einem Special Report „Science, Technology, and the First Amendment“ [245] (U.S. Congress, Office of Technology Assessment 1988b) wurde der Frage nachgegangen, inwieweit die Rede- und Pressefreiheit durch die neuen Informationserschließungs-, Informationsbearbeitungs-, Publikations- und Verteilungssysteme beeinträchtigt wird. Besonders im ersten Teil dieses Berichts werden die Techniken des Elektronischen Publizierens auf ihre die Verfassungsrechte tangierende Relevanz diskutiert. Eine Fülle von bedenkenswerten Hinweisen wird gegeben. So z.B. zum Wandel des Konzepts der Presse von einer zentralen Verteilungsinstanz hin zu einem dezentralen Informationsnetzwerk („from one in which one organization publishes for many to one in which many share information amongst themselves“, S. 2), zur Frage des Datenschutzes, der Datensicherheit und der Verantwortlichkeit bzw. Haftung für Informationen. Im Gegensatz zu vielen anderen Stimmen in der Diskussion um das Elektronische Publizieren fordern die Autoren, daß die Verlage, Herausgeber und Redaktionen eine aktive, qualitätssichernde Rolle einnehmen sollten.

Im Bericht „Informing the Nation. Federal Information Dissemination in an Electronic Age“ (U.S. Congress, Office of Technology Assessment 1988c) wird die öffentliche, d.h. von der Regierung verantwortete Informationspolitik behandelt. In diesem Zusammenhang stehen die beiden großen nationalen Informations-Institutionen - das „Government Printing Office“, GPO, und der „National Technical Information Service“, NTIS - sowie Informationsprogramme, wie das „Federal Depository Library Program“, oder der „Freedom of Information Act“ im Mittelpunkt der Betrachtung. Inwiefern die neuen Technologien eine bessere und effizientere, d.h. auch ökonomischere Informationspolitik unterstützen können, ob eher zentrale oder dezentrale Lösungen verfolgt werden sollen, ob im Falle elektronischer Informationsangebote noch gleiche Zugangschancen für alle gewährleistet sind, welche Rolle öffentliche und welche Rolle private und kommerzielle Institutionen in der Verbreitung und Vermarktung „öffentlicher“ Informationen spielen sollen, oder welche Konsequenzen bei der Anforderung auf Akteneinsicht durch Bürger (durch den „Freedom of Information Act“ gesichert) in dem Falle entstehen, wenn die „Akten“ nur noch in elektronischen Dateien vorliegen - dies sind einige der behandelten Fragestellungen.

Die aktuellen Projekte behandeln u.a. die Frage der wirtschaftlichen Entwicklung ländlicher Gebiete durch den Einsatz von „Information Age Technology“, des Einflusses der großen wissenschaftlichen Computernetzwerke auf die Forschung, oder der Rolle der Regierung in der Etablierung zukünftiger computerisierter Kommunikationssysteme. [246]

Wenn man versucht, in diesen verschiedenen TA-Studien des OTA eine typische Fragestellung oder Herangehensweise zu finden, so scheint uns diese in den folgenden Aspekten zu liegen:

Die OTA-Studien sind also in viel höherem Maße politiknah und auf politisches Handeln ausgerichtet als die im folgenden darzustellenden Studien von Oakeshott, des OAL oder der europäischen Bibliothekare und Verleger. Diese thematisieren in erster Linie die Probleme der privaten Publikationsindustrie.

7.1.3     Die Studie „The Impact of New Technology on the Publication Chain“

In Großbritannien hatte der British National Bibliography (BNB) Research Fund 1982 eine Studie zur Untersuchung der Folgen der neuen Technologien auf die „Publikationskette“ finanziert. Oakeshott legte 1983 den entsprechenden Abschlußbericht vor. [247]

In der bisherigen, traditionellen Publikationskette hatten die Beteiligten, so Oakeshott, relativ gut abgegrenzte Rollen. Der Autor war derjenige, der das „Werk“ hervorbrachte. Die Funktion des Verlegers war es, den Text des Autors, unter Beachtung wirtschaftlicher Gesichtspunkte, in eine geeignete Form zu bringen und für die größtmögliche Verbreitung zu sorgen. Buchhandel und Bibliotheken waren die Vermittlungsinstanzen zwischen Verleger und dem Leser, der die „raison d'etre“ des ganzen Prozesses darstellte. Der Leser schloß die Kette zum Autor wieder, denn jeder Autor ist auch Leser.

Die Rollen der Akteure in der „neuen“, informationstechnisch geprägten Publikationskette werden von Oakeshott wie folgt beschrieben: Die Autoren werden vermutlich ihre Texte mehr und mehr in maschinenlesbarer Form produzieren, unabhängig davon, ob dies von den Verlagen gewünscht wird oder nicht. Die Rolle des Verlags gegenüber dem Autor wird sich wenig ändern. Die Verlage benötigen aber mehr technisches Wissen und müssen mehr in die erste Texterfassung investieren, wenn sie darauf aufbauend später flexible und vielfältige Verarbeitungsmöglichkeiten anstreben. Die Bibliotheken werden ihre Tätigkeiten erweitern und den Aufbau von eigenen Datenbanken und von Online-Diensten, teilweise auch die Herausgabe von eigenen Publikationen betreiben. Informationsvermittler nehmen eine zusätzliche wichtige Funktion ein. Der Buchhandel muß sich auf die neuen Entwicklungen einstellen, dann wird es für die Verlage keine Gründe und Vorteile geben, den Buchhandel auszuschalten. Für Leser und Endnutzer wird es vielfältigere Möglichkeiten der Nutzung von Informationen geben, und es kommt letztlich auf sie an, welche sich davon durchsetzen und von welchen sie profitieren werden.

Der bisherige Nutzungsprozeß basierte grundsätzlich darauf, daß gesonderte und vollständige, materielle „Einheiten“ verkauft (oder verliehen) wurden. Diese Einheit eines Werks wird mit den neuen Technologien aufgelöst. Es werden nur noch Teile eines Werks wahrgenommen, bestellt und gelesen. Dies ist vielleicht die grundlegendste änderung beim Elektronischen Publizieren.

Schließlich wird eine Reihe offener Forschungsfragen angeschnitten, so die Frage nach generellen Strukturverschiebungen zwischen den Akteuren der Publikationskette. Ein anderer Fragenkomplex bezieht sich auf die ökonomie des Elektronischen Publizierens. Wie sehen die neuen Kostenstrukturen, Finanzierungsmodalitäten und Nutzungsgebühren für die neuartigen Publikationen aus? Ein wichtiges Problem betrifft das ungeklärte Wechselspiel von Inhalt und Medium. Wie werden die Inhalte durch die Präsentation in elektronischen Medien beeinflußt, ist dabei die eine Frage, und wie sollten sie angemessen für die neuen Medien aufbereitet werden, die komplementäre. In diesem Zusammenhang wird dann offensichtlich, daß geklärt werden muß, ob der Computer überhaupt als Rezeptionsmedium für (textdominierte) Publikationen geeignet ist bzw. wie er dafür gestaltet werden müßte. Eine Lösung für die dauerhafte Archivierung elektronischer Publikationen ist ein weiteres Forschungsthema.

Die Folgen der neuen Techniken werden zusammenfassend wie folgt beschrieben (S. iv):

Major changes are noted in long distance, non-physical access to information, in multi-media formats and storage and in the partial use of, and multiplication from, a single physical product. Further developments technically possible will depend on a number of economic, practical, human and political factors not necessarily under the control of the parties concerned. With much still in the experimental stages the future pattern is unclear and may prove to be less well-defined than in the traditional chain.

7.1.4     Die Studie „The Impact of Electronic Publishing“

Bei der Studie „The Impact of Electronic Publishing“ des Office of Arts and Libraries (OAL) (einer dem Kunstministerium zugeordneten Behörde in Großbritannien) läßt sich in der Durchführung eine interessante Variante feststellen. Während die CAMIS-Studie ein klassisches wissenschaftliches Universitätsprojekt ist, und Oakeshott als Expertin von einer regierungsnahen Stelle mit einem Expertengutachten beauftragt wurde, hatte das OAL eine Gruppe von kompetenten Praktikern mit der Ausarbeitung eines Gutachtens beauftragt. Die zehn Personen sollten ein breites Interessenspektrum repräsentieren - Autoren, Verleger, Drucker, Buchhändler, Datenbankproduzenten, Bibliothekare und Informationsvermittler - ohne als Interessenvertreter von Verbänden oder Organisationen zu agieren. [248] Die Arbeitsgruppe traf sich bis Ende 1982 siebenmal und veröffentlichte ein Papier (Blackwell u.a. 1983), zu dem eine Vielzahl von Kommentaren eingeholt wurden, die in einer weiteren Veröffentlichung (Blackwell u.a. 1984) dokumentiert und bewertet wurden.

Der Auftrag zu diesem Gutachten bestand im folgenden (Blackwell u.a. 1983, S. 283):

To study the challenges and opportunities presented by current developments in electronic publishing and document delivery, covering technical, economic and legal aspects of these developments, and to assess the likely impact on publishers, printers, booksellers, libraries and information centres, producers of databases and databanks, suppliers of online services, intermediaries and, above all, endusers.

Die neuen Technologien sollten also hinsichtlich einer Vielzahl von Aspekten bewertet werden. Dabei wurden noch stärker als schon bei Oakeshott die Bewertungsmaßstäbe nicht aus der Technologie, sondern aus den Problemen des Publizierens gewonnen. Die Autoren schreiben dazu (1983, S. 281):

The Working Group's concern, however, is with electronic publishing as it concerns open, retainable publications. It believes that the publishers, handlers and users of these publications, while accepting the need for technological advance, do not want to be technology-driven. They want to make good use of new opportunities, but good use means due concern for human and economic factors that demand attention

Auch in dieser Problem- und Anwendungsorientierung gibt es deutliche Parallelen zu unserer Studie (vgl. Riehm u.a. 1987). Eine weitere Parallele ist der Versuch, das Elektronische Publizieren nicht pauschal, sondern für fachlich abgegrenzte Bereiche zu untersuchen. Die vorgesehenen fünf Verlagsbereiche waren: „science, technology and medicine; business, finance, commerce and statistics; leisure, social and community; local and government; and education and training“ (Blackwell u.a. 1983, S. 283). Letztlich konnte die OAL Working Group dieses geplante Vorgehen nicht verwirklichen. [249]

Grundlegend sind die begrifflichen Unterscheidungen von Aspekten des Elektronischen Publizierens: Zum einen die Unterscheidung in Produktionssysteme, Distributionssysteme und Nutzungssysteme, zum anderen die Unterscheidung in zentrale und dezentrale Systeme, die als wirklich breite Alternativen im Grunde erst seit 1985 mit der Etablierung des CD-ROM-Standards sichtbar wurden; und zu guter Letzt die Unterscheidung in paralleles Publizieren, d.h. die Mehrfachverwertung gleicher Inhalte in unterschiedlichen Medien, und in „fully electronic publishing“, d.h. das exklusive Angebot der Publikationen auf elektronischen Medien.

Einige ausgewählte Einzelergebnisse seien angeführt:

Für die Autoren brächte das Elektronische Publizieren den Vorteil, daß ihre Publikationen schneller publiziert werden könnten. In elektronischen Publikationen selbst sehen sie allerdings kein attraktives Publikationsmedium.

Die Verlage seien skeptisch, daß das Elektronische Publizieren eine Lösung für ihre ökonomischen Probleme brächte. Es wird befürchtet, daß eine Umstellung der Kostenkalkulation, von den derzeitigen Mischkalkulationen und Gesamtpreisen hin zu Kosten für den Abruf einzelner Informationen, einen deutlichen Effekt auf die verlegerischen Auswahlkriterien für Publikationen hat.

Als neue Problembereiche werden die Frage des freien Zugangs zu elektronischen Informationen, das Problem der Informationsüberflutung, die Schwierigkeiten des Schutzes der Urheberrechte im elektronischen Medium und die ungeklärte Frage der Archivierung elektronischer Publikationen angeführt.

Die Autoren folgern zusammenfassend (S. 298):

Electronic publishing has been seen by some as a means of solving the economic difficulties resulting from rapidly rising costs of publication and severe restrictions on library budgets. Our present view is that fully electronic publishing is unlikly to give early relief to these difficulties and we believe that they will have to be tackled by existing methods for some time to come.

...
We have also concluded that electronic publishing will gradually alter the role of different participants in the information network. Authors can be expected to have more interaction with publishers and users. Fulltext publishers and their printers can expect to see an increasing number of other organisations entering their markets; but publishers can expect to exercise more control over the terms on which their material is acquired and used. ... But the mix of challenge and opportunity varies from one group to another, with publishers perhaps having the widest opportunities and booksellers the narrowest.

7.1.5     Gemeinsame Erklärung der europäischen Bibliothekare und Verleger

1984 wurde in mehreren Zeitschriften, in der Bundesrepublik z.B. im „Börsenblatt“ und dem „Bibliotheksdienst“, der Artikel „Eine gemeinsame Erklärung der europäischen Bibliothekare und Verleger: Die Auswirkungen elektronischer Technologien“ (Cavanagh u.a. 1984) veröffentlicht. Im Unterschied zur Working Group des OAL handelt es sich bei den zehn Personen, die diese Erklärung nach mehrmaligen Treffen unterzeichnet hatten, um Vertreter nationaler bzw. internationaler Verleger- und Bibliotheksverbände. Diese Aktivitäten müssen im Zusammenhang mit den Anfang der achtziger Jahre forcierten Bemühungen der Kommission der Europäischen Gemeinschaft auf dem Felde des Elektronischen Publizierens gesehen werden, die nicht überall auf Zustimmung stießen (vgl. z.B. Gurnsey und Henderson 1984, S. 87ff und Mastroddi und Page 1987).

Von einer eigenständigen Studie kann nicht gesprochen werden. Es ist vielmehr die Stellungnahme von zwei zentralen Instanzen im Publikationsprozeß zum Thema Elektronisches Publizieren, in der die eigenen Interessen artikuliert werden. Das nur vier Seiten umfassende Papier trägt deutlich den Charakter eines verschiedene Ansichten und Interessen integrierenden Kompromisses. überspitzt könnte man sagen, daß in diesem Papier zum Ausdruck kommt, daß technischer Fortschritt durch Elektronisches Publizieren begrüßt und aufgegriffen wird, solange die Rolle von Verlagen und Bibliotheken dabei nicht beschnitten wird. Die Betrachtung konzentriert sich stärker auf den Bereich der Fach- und Wissenschaftskommunikation als dies die anderen Untersuchungen tun. Wir führen diese „Erklärung“ hier nur deshalb an, weil sie einen eigenständigen Typ von äußerungen zu den Wirkungen des Elektronischen Publizierens darstellt. Da Technikfolgenabschätzungen auch die Interessen der direkt Betroffenen berücksichtigen soll, scheint uns eine knappe Ergebnisdarstellung auch dieses Papiers angemessen.

Im Gegensatz zum Papier der Working Group der OAL, in dem deutliche Zweifel an der technischen Leistungsfähigkeit und Angemessenheit des Elektronischen Publizierens für die (ökonomischen) Probleme der Publikationsindustrie formuliert werden, ist die Grundtendenz der Aussagen der Verlags- und Bibliotheksverbände eher, sich die technologischen Chancen zu Nutze zu machen, aber deutlich die eigene Position als zentrale Publikations- und Vermittlungsinstanz - mit durchaus unterschiedlichen Interessen - zu reklamieren. Im einzelnen werden die folgenden Trends, Wirkungen und Gefahren gesehen, die in den bisher dargestellten Studien fast alle auch schon thematisiert wurden:

7.1.6     Abschließender Vergleich mit unserer Studie

In der folgenden Tabelle (vgl. Tabelle 16 auf Seite 278) versuchen wir einige Gesichtspunkte der bisher behandelten Studien systematisierend gegenüberzustellen und mit unserem eigenen Vorgehen zu vergleichen.

Worin bestehen die Gemeinsamkeiten und wo liegen die Unterschiede zwischen den fünf dargestellten und unserer eigenen Studie? Gemeinsam ist die Orientierung an der Publikationskette und ihren Akteuren und eine sowohl technische als auch ökonomische, rechtliche und soziale Aspekte umfassende Betrachtungsweise, wenn auch die Tiefe der Analyse in diesen einzelnen Bereichen unterschiedlich ist. Methodisch zeichnet sich unsere Studie durch eine größere Methodenvielfalt und damit einhergehend durch einen höheren Detaillierungsgrad in der empirischen Durchdringung einzelner Untersuchungsbereiche aus. Die Perspektive der Wirkungsfragen jedoch ist jeweils unterschiedlich. Bei der CAMIS-Studie und den OTA-Studien sind es in erster Linie die Probleme der öffentlichen Informationspolitik und die durch die technische Entwicklung tangierten Rechte. Bei den drei anderen Studien sind es die Probleme des herkömmlichen Publikationssystems. Wir stellen das Publizieren explizit in den Kontext der Fachkommunikation und differenzieren diesen in einzelne Fachwelten. Entsprechend diskutieren wir die Veränderungen auf der Ebene des Publikationssystems (vgl. Abschnitt 7.2), aber auch auf der Ebene des Fachkommunikationssystems (vgl. Abschnitt 7.3).

In dem nun folgenden zweiten Teil dieses Kapitels werden wir zunächst, auf Basis unserer Erhebungen und Erkenntnisse, die aktuellen Probleme des Elektronischen Publizierens in der Bundesrepublik Deutschland entlang der Publikationskette thesenförmig zusammenfassen. Im dritten Teil dieses Kapitels dann werden die längerfristigen, potentiellen Wirkungen auf das Fachkommunikationssystem insgesamt diskutiert.

Tabelle 16: TA und Wirkungsstudien zum Elektronischen Publizieren

Kurztitel Exploratory TA of CAMIS OTA Commu-
nication and Information Technologies Program
Impact of new technology on the publication chain Impact of electronic publishing Erklärung europäischer Bibliothekare und Verleger PEP Begleit- und Wirkungsunter-
suchungen
Auftraggeber / Förderer Forschungs-
förderung durch National Science Foundation
Kongreß der Vereinigten Staaten öffentliches Bibliotheks-
forschungs-
programm (BNB)
Ministerium (OAL) Europäische Bibliotheks- und Verleger-
verbände
Ministerium (BMFT)
durchführende Instanz universitäre Forschungs-
gruppe
außeruni-
versitäre Forschungs-
gruppen
privates Forschungs-
institut
Experten-
gremium aus „Betroffenen“
Experten-
gremium aus Verbänden
außeruni-
versitäre Forschungs-
gruppe
Ziele / allgemeine Orientierung Identifi-
zierung von Problem-
feldern im öffentlich-politischen Bereich; politikwissen-
schaftlich
Informations- und Kommuni-
kations-
techniken in ihren Konsequenzen für öffentliche Informations-
systeme und politische Rechte
Rollenwandel der Akteure; technisch, ökonomische und soziale Gesichtspunkte; Publikations-
kette
Probleme der Informations- und Publikations-
industrie, technische, ökonomische, soziale, rechtliche Aspekte; Publikations-
kette
Artikulation der Interessen von Bibliothekaren und Verlegern; Probleme des Fach- und wissen-
schaftlichen Publizierens
Probleme der Fachkommu-
nikation in einzelnen Fachwelten; sozial-
wissenschaftlich
Methoden Experten-
befragungen, Workshops; ökonomisch und ökologische Modellbildung
Gutachten, Experten-
befragungen, Workshops, Befragungen und andere empirische Daten-
erhebungen
Literatur-
auswertung, Experten-
befragungen
Arbeitsgruppe von Experten Arbeitsgruppe von Verbands-
vertretern
Experten-
befragungen, repräsentative Befragungen, Studienreisen ins Ausland, methodisch kontrollierte Eigenerfahrung
Abschluß und Literatur Mayo u.a. 1980 U.S. Congress 1981-1990 Oakeshott 1983 Blackwell u.a. 1983, 1984 Cavanagh u.a. 1984 Riehm u.a. 1989c,d, 1991

7.2     Zwölf Thesen zum Elektronischen Publizieren, zu den Autoren, Verlagen und Nutzern     [Inhaltsverzeichnis]

Im folgenden versuchen wir in knapp gefaßten, teilweise bewußt pointierten Thesen, die derzeitigen Trends, die unterschiedlichen Interessen, die Gefahren und Widersprüchlichkeiten des Elektronischen Publizierens Anfang der neunziger Jahre zu charakterisieren.

1.     Trend: Konzentration von immer mehr Arbeiten bei den Autoren und Autorinnen

Wir beobachten eine Konzentration von immer mehr publikationsrelevanten Arbeiten bei den Autoren und Autorinnen durch den Trend zum Computerschreiben, zur elektronischen Manuskriptübernahme und zum „Desktop Publishing“. Die Konzentration von Tätigkeiten am Anfang der „Produktionskette“ ist der generellen Logik computerunterstützter, arbeitsteiliger und integrierter Systeme geschuldet und findet sich auch beim computerunterstützten Publizieren: Daten, bzw. Texte, sollen nur einmal erfaßt und in den folgenden Bearbeitungsprozessen nur noch weiterverarbeitet werden. Neben dem Eintippen und Korrigieren des eigenen Textes müssen sich Autoren und Autorinnen immer öfter um die typographische Gestaltung ihrer Manuskripte oder um deren „Weiterverarbeitungsfähigkeit“ auf anderen Systemen kümmern. Ihnen stehen dabei immer seltener Sekretariatskräfte zur Verfügung, die sie von solchen Arbeiten entlasten könnten.

2.     Folgen: Qualitätsstandards für Publikationen geraten ins Rutschen

Wir haben die Befürchtung, daß durch den oben beschriebenen Trend die relativ hohen Qualitätsstandards von Publikationen auch dort ins Rutschen geraten, wo sie noch üblich waren, wenn einerseits das Gestalten von Publikationen, das in ausgebildete Hände gehört, Fachautoren als „Hobby-DTP-Setzern“ überantwortet wird, die eigentlich Fachtexte schreiben sollten, und wenn andererseits der integrierte elektronische Publikationsprozeß alle „Medienbrüche“ - vom Manuskript zur lektorierten Satzvorlage, zur Satzfahne, zur gedruckten Publikation, um nur die Hauptstadien zu nennen - eliminiert, und damit Kontroll-, Eingriffs- und Beteiligungschancen verschwinden.

Ob sich dies auch auf die Inhalte auswirkt, ist umstritten. Zwei Entwicklungen tangieren die inhaltliche Seite von Publikationen: Zum einen beanspruchen technische, herstellungsbezogene Aufgaben zunehmend mehr Zeit bei Autoren und Autorinnen und können so die inhaltlichen Aufgaben überlagern. Zum anderen verliert sich langsam das Gefühl für die Balance zwischen der äußeren Form eines Dokuments und seinem inhaltlichen Status. „Sich gedruckt sehen“ ist kein von einem Verlag verliehenes Qualitätssiegel mehr, sondern hängt davon ab, ob man über das richtige Softwarepaket und einen guten Laserdrucker verfügt.

Bei neuen elektronischen Publikationen ist, dem Trend der Computerindustrie folgend, zu beobachten, daß Halbfertiges und Unausgegorenes vorschnell den Kunden angeboten wird.

3.     Lösung: Neutrale Manuskriptauszeichnung?

Es wird oft argumentiert, die „neutrale“ Manuskriptauszeichnung sei für die oben beschriebenen Probleme die Lösung: sie befreie Autoren und Autorinnen von konkreten Gestaltungsaufgaben; sie ermögliche besseres Schreiben, da sie die Aufmerksamkeit auf Textstruktur und Argumentationslogik lenke. Auch für die vielfältigen Probleme der Weiterverarbeitung elektronischer Manuskripte auf unterschiedlichen Computer- und Satzsystemen gilt das „logische“ oder „neutrale“ Auszeichnungskonzept, nach ISO-Norm 8879 (SGML), das in verschiedenen konkreten Anwendungen (AAP-Standard, strukTEXT, CALS-Standard etc.) vorliegt, als allgemeingültiger Lösungsansatz.

Wir sehen für die besonderen Bedingungen des Publizierens durch Fachautoren und Fachverlage mittelfristig für diesen Lösungsansatz keine großen Chancen. Der Aufwand zur Erzeugung des „neutralen Dokumentformats“ steht im Vergleich zu den existierenden Alternativen („camera ready copies“ oder weit verbreitete „Industriestandards“ für den elektronischen Dokumentaustausch) in der Regel in keinem Verhältnis zum zusätzlichen Nutzen. Hinzu kommt die besondere Schwierigkeit der Durchsetzung einer Norm in einem Publikationssystem mit einer Vielzahl „atomisierter“ Autoren, die mit einer Vielzahl von Verlagen zu tun haben, die wiederum mit einer Vielzahl von Satzbetrieben zusammenarbeiten.

Die neutrale Textauszeichnung ergibt nur unter folgenden Bedingungen ein günstiges Aufwand-Nutzen-Verhältnis:

Diese Bedingungen sind im allgemeinen weder für die Buch- noch die Zeitschriftenproduktion im Bereich der Fachinformation erfüllt, sondern in erster Linie für technische Dokumentation oder stark strukturierte Faktendatenbankinformationen (im inhouse-Bereich). Wir argumentieren mit unserer Einschätzung nicht dagegen, daß es für Verlage sinnvoll sein kann, eine Verlagsdatenbank im neutralen Format zu führen (z.B. für Handbücher oder Lexika), wir glauben nur nicht, daß die Einbeziehung der Autoren in den Prozeß der neutralen Auszeichnung ihrer Manuskripte sehr erfolgversprechend sein wird.

4.     Verlagsinteressen: Rationalisierung vor Innovation

Verlage werden nach ökonomischen Kalkülen geführt. Elektronisches Publizieren wird nur dann interessant, wenn es hilft, bestehende ökonomische Probleme zu lösen oder neue (ökonomische) Perspektiven zu eröffnen. Diese Möglichkeit sehen bisher - mit Recht - nur wenige Verlage.

Die Lösung für bestehende ökonomische Probleme wird in erster Linie für den Bereich der Publikationserstellung und der Distribution gesehen. So kann der Verlag bei der Herstellung von Publikationen u.a. auf das Rationalisierungspotential zurückgreifen, das in den von Autoren und Autorinnen angebotenen elektronischen Manuskripten steckt. Für den Distributionsbereich erhoffen sich die Verlage ökonomische Vorteile durch das Konzept des „Publishing on Demand“. Besonders attraktiv scheint es gegenwärtig zu sein, vorhandene Publikationsinhalte (in der Regel aus gedruckten Publikationen) auf unterschiedlichen Medien anzubieten und somit mehrfach zu verwerten. Bereits dadurch können neue Märkte erschlossen werden. Der schwierige Weg zu innovativen elektronischen Produkten und zur medienadäquaten Aufbereitung wird allerdings nur selten eingeschlagen. Bei der Mehrfachverwertung und den neuartigen Publikationskonzepten werden die von den Verlagen verwalteten und besessenen Urheberrechte zu einem immer wichtigeren Kapital. Eine Gefahr mag darin liegen, daß die Verlage zwar noch als Lizensgeber gebraucht werden, das eigentliche Publikationsgeschäft aber von neuen Anbietern übernommen wird.

5.     Andere Interessen: Wichtige Triebkräfte für das Elektronische Publizieren liegen außerhalb des Verlagsbereichs

Viele Aktivitäten und Projekte zum Elektronischen Publizieren entstehen nicht aufgrund verlegerischer Probleme und überlegungen. Andere Bereiche übernehmen oft eine Vorreiterrolle.

6.     Mängel: Innovative Konzepte für das Elektronische Publizieren sind rar

Eine Folge der dominierenden Rationalisierungs- und Diversifizierungsstrategie der Verlage beim Elektronischen Publizieren liegt darin, daß überzeugende, innovative, konkrete Anwendungskontexte berücksichtigende und die Möglichkeiten des neuen Mediums beachtende Publikationskonzepte kaum vorhanden sind.

Man ist sich im Prinzip einig, daß allein der Wechsel des Mediums - von Papier auf den Computer - für die gleichen Inhalte kein tragfähiges und zukunftsweisendes Konzept darstellt, weist doch das elektronische Medium eine Reihe von Nachteilen gegenüber der gedruckten Publikation auf, die es durch andere Vorteile auszugleichen gilt: Z.B. soll die schlechtere Handhabbarkeit elektronischer Publikationen, insbesondere beim schnellen Blättern und Durchsehen, mit Hilfe vielfältiger Erschließungsinstrumente, wie sie in Retrievalsystemen normalerweise angeboten werden, ausgeglichen werden. Als übliche Vorteile elektronischer Medien werden genannt: die Verfügbarkeit über große Mengen (Problem der richtigen Bündelung von Datenbanken), der schnellere und gezieltere Zugriff und die schnellere Lieferung der Dokumente (wobei die Bedeutung des Faktors Zeit oft überschätzt wird).

Größeres Gewicht sollte in der Konzeption innovativer elektronischer Publikationen auf die interaktiven und multimedialen Möglichkeiten des Computers und auf den Aspekt der Berücksichtigung konkreter Nutzungskontexte gelegt werden.

7.     Rollenkonzepte: Verlage als „gatekeeper“ oder „information provider“

Verlage hatten bisher im Publikationsgeschehen eine zentrale Rolle. Durch das Elektronische Publizieren tritt eine widersprüchliche neue Rollenbestimmung auf.

Im Spannungsverhältnis zwischen der Verlagsrolle als neuartigem „information provider“ und als traditionellem „gatekeeper“ bewegen sich die Verlage je mehr der technologische Umbruch sie ergreift. Sicherlich gibt es Fälle, in denen die reine Informationsvermittlung ihre Berechtigung und ihren Markt findet, wo Masse vor Qualität steht. In der Regel aber sind Informationsprodukte gefragt, die sorgfältig ausgewählt, deren Inhalt evaluiert und redigiert und die nutzerfreundlich aufbereitet und angeboten werden. All dies sind klassische Verlagsleistungen, die beim Elektronischen Publizieren eher noch wichtiger werden. Bestimmte technologische Konzepte und „Zwänge“ fördern jedoch die Erosion dieser Funktionen.

Das bei Fachverlagen - in der Planung - sehr populäre Konzept des „Publishing on Demand“, d.h. des Vorhaltens von Publikationen in elektronischen Speichern und des Produzierens, Ausdruckens nur auf Anfrage, kann die Abkehr von der klassischen Verlagsrolle zur Folge haben. Mit „Publishing on Demand“ erhoffen sich die Verlage die Reduktion von Produktions- und Lagerkosten, vielleicht auch eine gezieltere und schnellere Distribution (soweit eine elektronische „Document Delivery“-Komponente damit verbunden ist). Nimmt man als eine wesentliche Verlagsfunktion die Selektionsfunktion und damit einhergehend die Funktion der Qualitätssicherung, so sehen wir im Konzept des „Publishing on Demand“ deutlich die Gefahr, daß diese Verlagsfunktionen aufgegeben werden. Denn bei geringen „Abrufraten“ pro Einzelpublikation und hohen Gesamtkosten des Systems, wird der Zwang zur Aufnahme von großen Mengen erzeugt. Lektorierende Aufgaben haben darin keinen Platz mehr. Ein Trend, der im konventionellen Verlagsgeschäft mit einer ständig steigenden Anzahl von Buch- und Zeitschriftentiteln schon erkennbar ist, wird damit weiter verstärkt.

Verlage haben im Prinzip, aufgrund ihrer Tradition und Kenntnisse, gute Chancen auch beim Elektronischen Publizieren den Weg der Selektion und Qualitätsverbesserung einzuschlagen. Letztlich werden sich diejenigen Institutionen durchsetzen, die beim Elektronischen Publizieren auch die klassischen Verlagsfunktionen wahrnehmen - gleichgültig ob es sich um traditionelle Verlage handelt oder um ganz neue Akteure auf diesem Feld.

8.     Vorurteile: Online-Datenbanken sind nichts für Endnutzer

Wir sehen einen deutlichen Trend zum Endnutzer von elektronischen Publikationen. Das Potential dieser Endnutzer ist erst marginal erschlossen. Die weitere Erschließung wird in erster Linie durch ein unzureichendes Angebot behindert und nicht durch mangelndes Interesse, mangelnden Bedarf oder prinzipielle Ablehnung von seiten der Endnutzer. Die bei ihnen meist vorhandene Aufgeschlossenheit für technische Innovationen wird ergänzt durch eine hohe Informationsorientierung, die in erster Linie darauf zielt, ihre Informationsversorgung zu optimieren und zu verbessern anstatt sie zu rationalisieren. Die Marketingstrategien der Hosts gehen darauf nur ungenügend ein.

Entgegen allen Klagen über die Schwierigkeiten des derzeitigen Online-Retrievals kommen Endnutzer damit ganz gut zurecht. Die Schwierigkeiten der Benutzung stellen nicht das zentrale Hindernis für den Einstieg von Endnutzern in den Umgang mit Datenbanken dar, sondern die unzureichenden Inhalte dieser Angebote.

Volltextdatenbanken sind bei Endnutzern relativ beliebt. Die „Anschaulichkeit“ und „Bekanntheit“ der Inhalte der Datenbanken (aufgrund der Kenntnis der gedruckten Publikationen) und die freien Suchmöglichkeiten im „gesamten Text“ sind die wesentlichen Gründe. überraschend ist der geringe Stellenwert den der Abruf vollständiger Artikel aus den Volltextdatenbanken („Document Delivery“) hat.

9.     Differenzierungen: Online- vs. Offline-Datenbanken, unterschiedliche Fachwelten

Zur Zeit können zwei „Welten“ im Bereich elektronischer Informationsangebote unterschieden werden: die Online- und die Offline-Welt. Viele Informationen werden in der einen und der anderen Form angeboten. Der Offline-Markt wurde bisher unterschätzt und wird in Zukunft in seiner Bedeutung noch zunehmen. Gerade für Verlage ist er attraktiver als der Online-Markt, da Publikationen auf Disketten, CD-ROM oder anderen „offline“ Datenträgern „buchähnlicher“ kalkuliert und vertrieben werden können. Es wird auch behauptet, Offline-Datenbanken hätten für Endnutzer eine höhere Attraktivität, da sie einfacher zu bedienen seien. Wir messen diesem Grund keine sehr große Bedeutung bei, jedenfalls nicht in dem Sinne, daß Endnutzer sich mit Online-Datenbanken prinzipiell schwerer täten. Wir sehen eher Effekte der gegenseitigen Beförderung. Wir vermuten auch, daß auf mittlere Sicht ganz unterschiedliche Nutzergruppen mit der einen und mit der anderen Variante angesprochen werden können. Für Offline-Datenbanken spricht, daß sie eine aus der Arbeit mit dem PC vertraute Oberfläche aufweisen, daß die Weiterverarbeitung ihrer Inhalte mit anderen Programmen besser gelöst ist, und daß sie mit der Integration von Grafiken über die textorientierten Online-Datenbanken hinausgehen.

Jede Fachwelt setzt deutlich unterschiedliche Rahmenbedingungen für Aufbau und Nutzung elektronischer Publikationen. So stellt die international ausgerichtete Medizininformation mit zwei großen, umfassenden Literaturnachweisdatenbanken eine extrem schwierige Ausgangssituation für die Etablierung von Volltextdatenbanken medizinischer Literatur dar. Die besser überschaubaren, besser abgrenzbaren, nur nationalen Rechtsinformationssysteme haben diese Probleme nicht. Nicht umsonst gibt es hier die größten, teilweise auch relativ erfolgreichen Angebote an Volltextdatenbanken. Die Probleme der Wirtschaftsinformation sind im besonderen Ausmaß Probleme der Gültigkeit ihrer Inhalte, da Transparenz von Wirtschaftsdaten immer nur für die Informationen über die Konkurrenz gewünscht wird, weniger für die eigenen Daten eines Wirtschaftsunternehmens.

10.     Kritik: Qualität vor Benutzbarkeit vor Kosten

Die Hauptkritik der Endnutzer und Endnutzerinnen an den vorhandenen Datenbankangeboten bezieht sich auf die Inhalte und deren qualitative Aufbereitung und nicht auf die reinen Nutzungsprobleme. Diese Kritik an Inhalten und Qualität der Datenbanken umfaßt:

Neben dieser Kritik an den Inhalten gibt es auch Defizite bei den vorhandenen Softwaresystemen. Die im Online-Bereich von den großen, kommerziellen Hosts verwendeten Retrievalsysteme haben ihre Wurzeln alle in Entwicklungen der sechziger Jahre. Die Merkmale jener Zeit konnten sie, trotz aller Fortschritte, nicht abschütteln. Sie stellen durchaus leistungsfähige Retrievalsysteme dar, aber keine auf der Höhe der Zeit stehenden elektronischen Publikationssysteme. Grundlegendes, wie das „Blättern“ im Dokument, die Integration von Tabellen und Grafiken, die typographische Gestaltung, das Anbringen von Anmerkungen, das Anzeigen von Kontextinformationen (welche Datenbank, welches Dokument), die ständige Verfügung über die zurückliegenden Nutzeraktivitäten (Suchgeschichte), eine Unterstützung bei der Relevanzbeurteilung etc., ist nicht, nur rudimentär oder nur vereinzelt vorhanden. Ein systematisch vernachlässigter Bereich scheinen uns die mangelnden „Browse-Funktionen“ und die Verbesserung der Wahrnehmbarkeit von Texten am Bildschirm durch unterstützende Gestaltung zu sein, was für die Nutzung von Volltextdatenbanken besonders wichtig ist.

Die Kritik an den Kosten richtet sich nicht in erster Linie gegen zu hohe Gebühren. Professionelle Endnutzer sind durchaus bereit, beträchtliche Summen für brauchbare Informationen auszugeben. Die Kritik richtet sich eher gegen die Intransparenz und Kompliziertheit der Kostenermittlung und die immer noch überwiegend nutzungszeit- bzw. nutzungsvolumenabhängige Kostenstruktur. Dieses System der Kostenberechnung ist insbesondere für Endnutzer von Volltextdatenbanken wenig angemessen. Eine radikale Alternative dazu wären nutzungsunabhängige feste „Abonnementgebühren“.

11.     Gefahr: Die Illusion des technisch-vermittelt Objektiven

Die Verfügbarkeit von Datenbanken induziert beim Benutzer die Erwartung, schnell alles Relevante zu finden, und auch, das in der Datenbank Vorhandene für alles zu halten, was man finden kann. Die bereits im Umgang mit klassischen Medien wichtigen Einstellungen - gesunde Skepsis und eine quellenkritische Haltung - sind bei Datenbanken noch mehr gefordert. Die Probleme liegen auf verschiedenen Ebenen: In der Regel weiß der Datenbanknutzer nicht genau, welche Daten, in welcher Aufbereitung, nach welcher Systematik und nach welchen Qualitätsstandards in die Datenbank aufgenommen wurden. Die Datenbank ist für ihn wie ein großes tiefes Loch. Er oder sie kann kaum abschätzen, ob das erreichte Ergebnis die vorhandenen Datenbankinhalte im Verhältnis zur Problemformulierung optimal ausschöpft. Für ihn oder sie ist es auch schwierig zu beurteilen, ob überhaupt die „richtige“ Datenbank ausgewählt wurde. Umfangreiche Rechercheerfahrungen mögen ein Gefühl für die Qualität bestimmter Datenbanken und die Fallstricke der eigenen Nutzung entstehen lassen. Je nach der Bedeutung, Wichtigkeit und Kritikalität des Informationsproblems besteht die sicherste Vorgehensweise jedoch darin, sich auf Datenbankrecherchen allein nie zu verlassen, sondern diese immer nur ergänzend und in kritischer Abwägung und Prüfung zu anderen Quellen heranzuziehen.

12.     Widersprüche: Marktentwicklung zwischen hohen Ansprüchen und vielfältigen Konkurrenzbeziehungen

Die Schwierigkeiten der Markterschließung für elektronische Publikationen bestehen nicht darin, daß es keinen Bedarf an solchen Produkten gäbe. Es ist eher so, daß der (potentielle) Bedarf durch die vorhandenen Angebote nicht ausreichend befriedigt werden kann. Die Schwierigkeiten der Marktentwicklung liegen in einer Reihe von Dilemmata für die Anbieter, insbesondere die Verlage:

7.3     Elektronisches Publizieren im Fachkommunikationssystem     [Inhaltsverzeichnis]

In diesem abschließenden Teil des letzten Kapitels diskutieren wir das Elektronische Publizieren im Hinblick auf die generellen Leistungen und Eigenschaften des Fachkommunikationssystems, verlassen also die bisher vorherrschende Betrachtungsweise, die an den Akteuren der Publikationskette orientiert war. Es geht uns nun darum, wie das Fachkommunikationssystem durch das Elektronische Publizieren tangiert, verändert, gestärkt oder geschwächt wird. Unter dem System der Fachkommunikation verstehen wir die Erzeugung, Bereitstellung und Nutzung fachlicher, im wesentlichen beruflich benötigter Inhalte, wobei wir im folgenden den Schwerpunkt auf die Aspekte der Bereitstellung und Nutzung legen.

Wir lösen uns in dieser Diskussion vom gegenwärtigen technologischen Anwendungsstand des Elektronischen Publizierens. Wir gehen von einer technologischen Grundlage aus, die - ohne dies konkret auszumalen - auf der breiten Durchsetzung und kontinuierlichen Fortentwicklung derzeitiger Technologien beruht. Stichworte dazu sind: dichte Vernetzung der einzelnen Akteure und Institutionen des Fachkommunikationssystems in elektronischen Systemen, weitgehende softwaretechnische Unterstützung der wesentlichen Vorgänge im Fachkommunikations- und Fachpublikationssystem, breite und vielfältige Verfügbarkeit elektronischer Publikationen online wie offline. [250]

Wir unterscheiden drei grundlegende Leistungen des Fachkommunikationssystems. [251] Erstens stellt das Fachkommunikationssystem eine differenzierte und geordnete Menge von Dokumenten bereit. Die Dokumentationsleistung umfaßt einerseits die Aufbewahrung (Lagerung, Archivierung, Konservierung etc.) von Dokumenten über die Zeit und andererseits die Verfügbarmachung dieser Dokumente bei Bedarf. Die Dokumentmenge dient als Informationsspeicher. Die in den Dokumenten enthaltenen Informationen im Bedarfsfall freizusetzen, macht die Informationsleistung aus. Die Möglichkeit der Kommunikation über die Dokumente und Informationen bestimmt die Kommunikationsleistung.

Diese drei Basisfunktionen - Dokumentation, Information und Kommunikation - werden ausdifferenziert und sozio-technisch umgesetzt. Die Menge der Dokumente weist eine vielfältige Struktur und Gliederung auf: Sie sind differenziert nach Dokumentarten (Buch, Zeitschrift, Newsletter, etc.), Inhalten (medizinische, mathematische, juristische etc.) und nach Zielgruppen Wissenschaftler, Praktiker, Studenten, Schüler etc.). Archive, Dokumentationsstellen, Bibliotheken und Buchhandlungen pflegen bestimmte Sammelgebiete bzw. decken bestimmte Angebotssegmente ab. Dies erleichtert den Zugang zu den gesuchten Informationen erheblich.

Darüberhinaus sind bestimmte Dokumente und Informationen durch einen besonderen Status hervorgehoben. Sie enthalten, jedenfalls für bestimmte Zwecke, gültiges, „legitimiertes“ Wissen, das nicht mehr hinterfragt zu werden braucht. Auch dies erleichtert die Orientierung und den Zugang zu Informationen im Fachkommunikationssystem. Diese Ordnung wird primär durch Selektionsleistungen (im wesentlichen von Verlagen, Redaktionen, Herausgebern, Gutachtern etc.) erreicht. Ohne diese Selektions- und Evaluationsleistungen wäre diese Ordnung von Dokumenten und Inhalten nicht vorstellbar. Mit der Selektion ist nicht nur die Hervorhebung bestimmter Inhalte, sondern auch bestimmter Autoren verknüpft. Denn eine wichtige Eigenschaft des Fachkommunikationssystem ist es außerdem, daß es Autoren Reputation verschafft.

Diese wohl-strukturierte Dokumentmenge des Fachkommunikationssystems ist wesentliche Voraussetzung dafür, daß die oben definierten Grundfunktionen erfüllt werden können. [252]

Das Fachkommunikationssystem hat aber auch eine gesellschaftliche Bedeutung. Es steht in einer bestimmten Tradition unserer Gesellschaft. Wandlungen im Fachkommunikationssystem können diese gesellschaftliche Einbettung tangieren. Auch dies ist bei der folgenden Wirkungsdiskussion zu berücksichtigen. [253]

7.3.1     Verlust des Dokumentcharakters

Schriftliche Dokumente stellen Informationen orts-, zeitpunkt- und personenunabhängig zur Verfügung. „Vergessenes“ kann wieder entdeckt werden, auch wenn persönliche unmittelbare Erinnerungen nicht mehr vorhanden sind. Vorgänge können in bestimmter Weise dokumentiert, belegt und nachträglich rekonstruiert werden, soweit Publikationen, Akten, Dokumente darüber vorhanden sind. Seit Jahrhunderten gehen wir mit Textdokumenten auf Papier um, die in Bibliotheken und Archiven gesammelt und zur Verfügung gestellt werden und in denen Wissen in dieser materiellen Form kumuliert und vergegenständlicht ist. Die zentrale Bedeutung dieser papiernen Dokumente für die Fachkommunikation und die ganze Gesellschaft ist unumstritten. Kein Wunder, daß die gegenwärtige Problematik des „Buchzerfalls“ aufgrund säurehaltiger Papiere beträchtliche Anstrengungen zur Erhaltung und Restaurierung auslöst (vgl. Abschnitt 4.1.5).

Wir haben oben schon darauf hingewiesen, daß das dokumentierte Informationsreservoir des Fachkommunikationssystems aus einer vielfältig strukturierten Menge unterschiedlicher Dokumentarten besteht. Die materielle Form dieser Dokumente (Buch oder Zeitung, Art des Papiers, des Umschlags, Druckbild, Dicke etc.), aber auch die räumliche Aufstellung in einer Bibliothek z.B., geben dem Nutzer vielfältige Vorinformationen über die Relevanz und die Art der Inhalte. Elektronische Publikationen dagegen weisen diesen „Dokumentcharakter“ gar nicht mehr auf. Sie haben keine eigene (materielle) Daseinsweise, existieren nur, wenn und solange sie mittels Software genutzt und dadurch eine bestimmte Präsentationsform erzeugt werden.

Betrachtet man zunächst diese Präsentationsform, dann kommt bei den derzeitigen Online-Publikationen jedes Dokument als uniformer „ASCII-Text“ daher. Doch selbst wenn man die zukünftige Entwicklung in Rechnung stellt, bei der man davon ausgehen kann, daß nach und nach auch Datenbanken mit typographisch gestalteten Texten verfügbar werden, so bleibt doch die Uniformität des Bildschirmmediums, das immer nur eine begrenzte Sicht auf die Präsentationsebene eines im Ganzen unsichtbaren „Dokuments“ erlaubt, von den fehlenden haptischen Reizen ganz zu schweigen. Bei den Offline-Publikationen, z.B. auf CD-ROM, ist die Situation etwas differenzierter. Zwar ist die Sichtweise auf die Inhalte auch hier immer nur über das begrenzte Bildschirmfenster möglich, da der Datenträger selbst für den Nutzer aber materiell, sicht- und greifbar zur Verfügung steht, kann dieser über eine aufwendige Verpackung mehr oder weniger attraktiv und auffällig gestaltet werden. Die CD-ROM läßt sich dann, wie ein Buch, ins Regal stellen und zeigt immer präsent und auffällig ihre Existenz an und bietet sich der Nutzung dar.

Solche Ersatzmechanismen werden in einer Welt elektronischer Informationen immer wichtiger. Bereits heute heben Nachrichtenagenturen, die den Redakteuren ihren endlosen Nachrichtenstrom direkt über einen Bildschirm flimmern lassen, besonders wichtige Nachrichten mit akustischen Signalen hervor. Wir wollen die verschiedenen Möglichkeiten des „Auffälligmachens“ des unauffällig Uniformen nicht in extenso diskutieren, aber es wäre durchaus vorstellbar, daß einmal Zeitschriften, die gemeinsam in einer großen Volltextdatenbank angeboten werden, eine eigene Erkennungsmelodie (oder „Jingle“) besitzen, damit der Leser merkt, daß dieser Artikel nun aus der Zeitschrift „Science“ und nicht mehr aus „Nature“ stammt.

Versucht man darüberhinaus, unabhängig von einer konkreten Präsentationsform, den Unterschied zwischen herkömmlichen und elektronischen Publikationen zu fassen, so zeigt sich, daß elektronische Publikationen immer nur in einer Kombination von Dokumentinhalt und Softwarefunktionen existieren können. Unabhängig von solchen Softwarefunktionen sind elektronische Publikationen nicht vorstellbar. Das Argument, daß man die Inhalte elektronischer Datenbanken ja ausdrucken und damit in eine stabile Dokumentform bringen könne, ist nicht zutreffend. Wenn sie ausgedruckt werden, dann hat sich ihr Charakter verändert. Man stelle sich z.B. die sechs Millionen Literaturnachweise der größten medizinischen Datenbank MEDLINE auf Papier vor. Mit der Datenbank MEDLINE, die aus Dokumentinhalt und Retrievalfunktionalität besteht, hat dies nur noch wenig zu tun. Oder ein noch extremeres Beispiel: Wie will man sich ein hochvernetztes Hypertextsystem auf Papier ausgedruckt vorstellen, das ja dadurch definiert ist, daß es keinen bestimmten Anfang, kein bestimmtes Ende und keine festgelegte Reihenfolge mehr kennt, sondern aus einer Vielzahl mehrdimensionaler Verweisungen zwischen seinen modularen Textportionen besteht?

Der Verlust des Dokumentcharakters elektronischer Publikationen, die für den Nutzer im Prinzip immaterielle Existenz dieser Publikationen und ihre untrennbare Verknüpfung mit einem Repertoire von Softwarefunktionen, wirft eine Reihe grundsätzlicher Fragen und Probleme im Fachkommunikationssystem auf, die unter drei Randbedingungen besonders deutlich werden: wenn erstens die Inhalte nur in elektronischer Form vorliegen, und kein konventionelles, papiernes äquivalent existiert; wenn zweitens die Inhalte zentral (möglicherweise nur von einer Stelle, auf einem Computersystem, mit einer spezifischen einzigartigen Software) online angeboten werden; und wenn drittens die dazugehörige Software in ihrer Funktionalität deutlich über die Simulation von Nutzungsformen, wie wir sie aus der Nutzung von Papierdokumenten kennen, hinausgeht. Wir diskutieren diese Probleme im folgenden.

Es ist weitgehend ungeklärt, wie elektronische Publikationen aufbewahrt und zukünftigen Generationen weiterhin zugänglich gemacht werden können. Die bisherigen Regelungen für Bibliotheken und Archive beruhen auf papiergebundenen Publikationen. Nach den derzeitigen Gesetzen müssen alle Verlage bei der Deutschen Bibliothek in Frankfurt bzw. den Landesbibliotheken „Pflichtexemplare“ oder „Pflichtstücke“ ihrer Publikationen abgeben. Was könnte das äquivalent eines solchen „Pflichtexemplars“ bei elektronischen Publikationen sein? Wie lange können elektronische Publikationen auf magnetischen oder optischen Speichern unbeschadet aufbewahrt werden? Muß man nicht die jeweilige Computerhard- und -software mit aufbewahren, damit die elektronischen Publikationen auch in der Zukunft genutzt werden können? Wie soll man elektronische Publikationen aufbewahren, die sich sehr häufig ändern oder permanent veränderbar sind?

Diese häufigen änderungen durch Aktualisierungen, Erweiterungen, Löschungen etc. schaffen nicht nur besondere „Archivierungsprobleme“, sondern auch Probleme der Nutzung. Die Bezugnahme auf eine solche Publikation kann von einem auf den nächsten Tag zu unterschiedlichen Ergebnissen führen. Dies ist gegebenenfalls für den Nutzer nicht völlig transparent und wirft weitreichende Beleg- und Zitierungsprobleme auf. Die oft gewollte und als Vorteil gepriesene Variabilität der Inhalte einer elektronischen Publikation kann zur Verunsicherung des Nutzers über die Vollständigkeit und Aktualität einer vergangenen Rezeptionsphase führen.

Wie schwierig der Umgang mit solchen „flüchtigen“, immateriellen, elektronischen Dokumenten werden kann, zeigt das Beispiel einer von uns beobachteten Diskussion in einer elektronischen Mailbox. Die diese Diskussion auslösende erste Nachricht wurde bald nach den ersten kritischen äußerungen anderer Teilnehmer vom Autor zurückgezogen und war für die späteren Diskutanten gar nicht mehr verfügbar. Die ursprüngliche Identifizierungsnummer dieser Nachricht wurde nach der Löschung vom System an ein anderes, neues Dokument vergeben, das inhaltlich mit dem Thema der Diskussion nichts zu tun hatte. Die Diskussion bekam dadurch partiell gespenstische Züge: Diskutanten bezogen sich auf eine Nachricht, die sie selbst gar nicht gesehen hatten, und die es auch gar nicht mehr gab. Natürlich gibt es im konventionellen Fall auch die Möglichkeit des Rückzugs eines Artikels oder der nachträglichen Korrektur in einer Neuauflage. Im herkömmlichen, papiergebundenen System hinterläßt dieser Vorgang eine normalerweise klar nachvollziehbare „Spur“ (wenn es nicht um Fälle bewußter Fälschung oder Verschleierung geht). Bei elektronischen Publikationen gibt es eine solche Spur gegebenenfalls nicht mehr. Wem fällt dazu nicht das Wahrheitsministerium in Orwells „1984“ ein, in dem die dokumentierte Geschichte durch „Dokumentüberarbeitung“ immer auf den neusten Stand der herrschenden Meinung gebracht wurde?

So stellt sich die Frage, ob unser bisheriges Begriffsinventar, in dem wir vom Original, von Dokumenten und Publikationen, von Kopien von Originalen, von Zitaten, Auflagen, Errata etc. sprechen, der elektronischen Situation überhaupt noch angemessen ist. In bezug auf den Publikationsbegriff (bzw. den Begriff des Erscheinens nach § 6 Abs. 2 des Urheberrechtsgesetzes (UrhG)) haben Goebel u.a. (1986) dies unter juristischen Aspekten untersucht. Sie kommen zu dem Ergebnis, daß die Speicherung schon einer Kopie eines „Werks“ in einem elektronischen Speicher und deren prinzipielle Nutzbarkeit durch potentielle Rezipienten rechtlich bereits als „Veröffentlichung“ gelten kann. Wir wollen die rechtliche Diskussion nicht in Frage stellen, halten die gesellschaftlichen und sozialen Konsequenzen eines solch weitreichenden Erscheinensbegriffs für potentiell sehr problematisch (vgl. dazu auch Riehm u.a. 1989b, S. 90f). Oder, um ein anderes Beispiel, das oben schon eine Rolle gespielt hat, nochmals aufzugreifen: kann es sinnvoll sein, jedes neue „Update“ einer Datenbank als eigenständige Publikation analog den Auflagen eines gedruckten Buchs aufzufassen? Man merkt, wie die herkömmlichen Begriffe ihre Griffigkeit verlieren.

Walter Benjamin sprach in den dreißiger Jahren vom Eintritt des Kunstwerks ins Zeitalter der technischen Reproduzierbarkeit. Er meinte damit u.a., daß die „Aura“ des Originals durch seine beliebige technische Vervielfältigung verloren gehe. Das gedruckte Buch war in diesem Sinne nie Original, sondern immer schon Reproduziertes. Trotzdem hatte es seine eigene „Aura“, die z.B. so etwas wie Bücherbesessenheit und Sammelleidenschaft hervorbringen konnte (vgl. Hannebutt-Benz 1985, S. 168ff). [254] Heute sehen wir ein neues Zeitalter auf uns zukommen: Das Zeitalter der beliebigen technischen Manipulierbarkeit auf Basis einer alle „äußerungen“ unseres Lebens umfassenden, uniformen, digitalen Codierung. Eine Entwicklung in der gegenwärtigen populären Musik, das „Sampling“, nimmt vorweg, was auch für Textdokumente droht. Diese Musik ist nicht mehr allein dadurch gekennzeichnet, daß Computer bei der Erzeugung von Musik zum Einsatz kommen (also synthetisch erzeugte Musik), sondern daß Computer dafür verwendet werden, um digitales (oder digitalisiertes) Musikmaterial aus anderen Musikhits herauszuschneiden und für neue Titel zusammenzukopieren und zu verarbeiten. In diesem Zeitalter beliebiger technischer Manipulierbarkeit werden Begriffe wie „Dokument“ und „Original“ obsolet.

7.3.2     Bewältigen oder Verstärken der „Informationsflut“

Die Informationsfunktion scheint auf den ersten Blick die wichtigste und hauptsächliche Funktion des Fachkommunikationssystems zu sein. In erster Linie betrifft diese Funktion den Leser, Nutzer oder Rezipienten im Fachkommunikationssystem. Unter Information wird meist der Aspekt der Neuigkeit einer Nachricht und der Relevanz innerhalb einer Problemsituation für den Rezipienten (d.h. der Abbau von Unsicherheit) verstanden. [255] „Information ist das dokumentarisch vorhande Wissen, sofern dieses dem Benutzer zugänglich bzw. ‚nützlich’ gemacht wird (Information als kommunizierbares Wissen)“ (Capurro 1978, S. 293).

Wersig weist darauf hin, daß die Entwicklung der Informationswissenschaft und der Fachinformationspolitik in der Bundesrepublik mit einem Paradigmenwechsel von der Dokument-Orientierung der „alten“ Bibliothekswissenschaft zur Informations-Orientierung der „neuen“ Informationswissenschaft einherging (1973, S. 124ff). Zu einem vorgegebenen Problem sollten nicht einfach „passende“ Dokumente geliefert werden, sondern die richtige Antwort (Information). Wie weit man damit gekommen ist, sei dahingestellt. Man kann aber vermuten, daß der nächste Paradigmenwechsel in der Informationswissenschaft, beeinflußt durch die Entwicklung der Kognitions-Wissenschaften und der KI-Forschung, demnächst vollzogen wird. Die Informations-Orientierung wird abgelöst werden durch eine „Wissens“-Orientierung. So läßt sich über die Effizienz des Fachkommunikationssystems streiten, daß es aber über diverse Medien, in persönlicher, institutioneller und verschriftlichter Form, Informationen bereitstellt, steht außer Frage.

Man sollte die Klagen über die Informations- oder gar Wissensflut oder die geringe Rezeption der wahrgenommenen Informationen (das Meiste wird übersehen oder gleich wieder vergessen!) nicht überbewerten, jedenfalls nicht zum Kernproblem des Fachkommunikationssystems stilisieren. [256] Trotzdem gibt es nicht nur immer mehr Publiziertes (deutliche Steigerungsraten bei der Buchproduktion und bei den Zeitschriftentiteln), sondern es wird auch immer leichter wahrnehmbar und verfügbar gemacht (integrierte, elektronische Bibliothekskataloge, internationale Literaturdatenbanken, „Document Supply Center“ etc.). Dieser doppelte Trend wird sich im Kontext des Elektronischen Publizierens verstärken. Wenn „leichter“ und „ökonomischer“ publiziert werden kann, wird dies zu einer weiteren Zunahme an Publikationen führen. Wenn immer größere Datenbanken immer mehr Literatur nachweisen oder sogar im Volltext beinhalten, wird diese größere Masse auch stärker wahrgenommen, durchsucht, abgerufen, vielleicht sogar rezipiert.

Dies mag für die an diesem Prozeß Beteiligten durchaus ein Vorteil sein. Doch naiv ist der Gedanke, daß mehr Publiziertes im direkten elektronischen „Zugriff“ automatisch gleichzusetzen wäre mit einem Mehr an Information, Wissen oder Problemlösungskapazität. Eine Steigerung der Informationsfunktion ist nur um den Preis einer Steigerung des Aufwands bei der Selektion und Verarbeitung der Information zu haben. Ob die Masse des Publizierten einen echten Informationswert hat, kann sich immer erst im nachhinein erweisen. In diesem prinzipiellen Dilemma steht der Rezipient. Dies macht sein notorisch schlechtes Gewissen aus, zu wenig rezipiert zu haben, und hindert ihn gleichzeitig daran, vom Sich-Informieren zum Handeln überzugehen. [257]

Nun wird als Vorteil elektronischer Systeme hervorgehoben, daß man mit ihrer Hilfe hochselektiv mit großen Datenmengen umgehen könne. Das ist sicherlich richtig und gerade dies stellt ein Gegengewicht zum oben postulierten Trend zur Informationsflut dar. Eine schon immer sehr attraktive Nutzungsform elektronischer Datenbanken besteht in den sogenannten SDI's (Selective Dissemination of Information), in denen der Nutzer sein Interessenprofil in Form von Suchbegriffen ins System eingibt, und das System dann regelmäßig dieses Interessenprofil auf alle Aktualisierungen der Datenbank anwendet, und die gefundenen Dokumente dem Nutzer (in konventioneller oder elektronischer Form) liefert. [258] Der Vorteil der individualisierten Selektivität geht dabei einher mit dem Vorteil des „Bring-Prinzips“: das Gewünschte kommt - wie bei einem Zeitungsabonnement - automatisch ins „Haus“. So läßt sich, für bestimmte Zwecke, aus riesigen Datenmengen, die von Anbieterseite eher unbearbeitet und unselektiert gesammelt werden, Gewinn ziehen, da der Nutzer die Selektionslast übernimmt und das System eine gewisse Automatisierung der Selektion erlaubt.

Die „Haken und Ösen“ dieses Vorgehens greifen dann, wenn der Nutzer z.B. wissen will, wie „gut“ oder wie „vollständig“ seine so selektierten Informationen sind. Die Anbieter werden die Korrektheit oder Vollständigkeit nicht garantieren. Ein eigenes Urteil kann gerade bei großen Datenmengen und aufgrund der fehlenden Anschaulichkeit (vgl. Abschnitt 7.3.1) solcher Datenbanken nur schwer gebildet werden. Selektion kann im Grunde aber nur erfolgen, wenn Transparenz über den Auswahlbereich (in diesem Fall die Datenbanken) herrscht. [259]

Ein weiteres Vorurteil besteht darin, daß umfassendere Informationen zu besseren Entscheidungen oder Problemlösungen führen. Doch nur bei einer bestimmten, relativ einfachen Art von Problemstellungen kann man aus den vollständig verfügbaren Informationen eindeutige Folgerungen für Entscheidungen ableiten. Bei komplexeren und die Zukunft betreffenden Problemen ist dies nicht möglich, da u.a. die uns zur Verfügung stehenden Informationen immer die Vergangenheit betreffen bzw. unsichere Prognosen darstellen (vgl. Luhmann 1989, S. 13f).

Das Gesetz des Grenznutzens trifft natürlich auch auf die Menge an Informationen zu, die wir verarbeiten: immer mehr Informationen führen zu einem immer geringeren Informationsgewinn. All diese Vorbehalte und Einschränkungen gegen die These, daß es nur darauf ankomme, „umfassend und gut informiert zu sein“, gründen auf der prinzipiellen Auffassung, daß Informationen nicht einfach von ihren „Nutzern“ aufgenommen werden können, wie ein Schwamm das Wasser aufsaugt, sondern daß sie „richtig“ verstanden, interpretiert und verarbeitet werden müssen, damit sie einen Nutzen haben.

Unsere These kann daher wie folgt zusammengefaßt werden: Die „Leichtigkeit“ des Elektronischen Publizierens wird den Trend zur Publikationsflut eher verstärken, als daß sie ihn zu beherrschen hilft. Eine einseitige Erhöhung der Menge der Informationen ohne gleichzeitige Stärkung der Selektions- und Kommunikationsfunktionen, die Publiziertes in relevante Information verwandeln helfen kann, wird eher zu neuen Belastungen als zu größeren Entlastungen führen. Die elektronischen Systeme stellen zwar bessere Selektionsfunktionen zur Verfügung, die ihre volle Wirksamkeit aber nur dann entfalten können, wenn Transparenz über den Suchbereich besteht. Dies ist bei Publikationen in elektronischen Speichern immer weniger der Fall. Für wenig problembehaftete Informationsfragen (z.B. lexikalische Informationen, Adressen, „Fakten“) sind noch die größten Vorteile einer Steigerung der Informationsfunktion zu erwarten. Diese sind aber die einfachen Informationsprobleme des Fachkommunikationssystems.

7.3.3     Kommunikationsmöglichkeiten und Kommunikationsbedarf

Den vielfältigen Ausprägungen des Kommunikationsbegriffs wollen wir nicht nachgehen (vgl. z.B. Merten 1977 oder Posner 1985) und nur soviel festhalten, daß wir darunter den Prozeß des Austauschs von Informationen zwischen Menschen verstehen, in dem Bedeutungen, Sinngebungen und Intentionen vermittelt und aufgebaut werden, und in dem die gegenseitige Reflexion des anderen Kommunikationspartners mit eingeschlossen ist. Insofern ist Kommunikation mehr als Information. Das aus einer Datenbank oder einer konventionellen Bibliothek herausgesuchte Buch hat eine andere Wertigkeit als das von einem Kollegen persönlich und begründet empfohlene Buch. Einen naiven, meist kaum reflektierten Ausdruck findet dies in den vielfältigen Studien zum Informationsverhalten (von Managern, von Klein- und Mittelbetrieben, von Juristen beispielsweise), die überwiegend zum Ergebnis gelangen, daß personale Information (das persönliche Gespräch, der Telefonanruf etc.) die wichtigste Informationsquelle darstellt. Kommunizieren bedeutet auch in anderer Hinsicht mehr als sich informieren. Kommunizieren setzt eine höhere Eigenaktivität voraus sowie die Bereitschaft (und die Fähigkeit), sich anderen gegenüber zu äußern. Insofern es um schriftliche Kommunikation geht - was bei der Betrachtung elektronischer Informationssysteme überwiegend der Fall ist - müssen die Gedanken textlich fixiert werden. Dies ist bekanntlich, je nach den zugrundeliegenden Inhalten, mehr oder weniger schwierig, stellt also möglicherweise eine weitere Hürde für das Kommunizieren dar.

Welcher Kommunikationsbedarf und welche (verbesserten) Kommunikationsmöglichkeiten ergeben sich nun in einem Fachkommunikationssystem, das weitgehend durch elektronische Publikations- und Kommunikationssysteme geprägt ist?

Obwohl natürlich im Publikationsprozeß auch Kommunikationsprozesse zwischen kooperierenden Autoren, zwischen Autoren und Verlagen, Verlagen und Herausgebern, Druckereien und Verlagen etc. ablaufen, sehen wir hierbei weder die größten Kommunikationsprobleme noch die besonderen Potentiale des Elektronischen Publizierens. Die an die Informationsvermittlung und Informationsrezeption geknüpfte Kommunikation scheint uns potentiell viel wichtiger zu sein.

Zunächst sind elektronische Kommunikationssysteme ein weiterer Schritt in der Auflösung raum-zeitlicher Beschränkungen der Kommunikation. Eine elektronische Nachricht aus dem Nachbarraum sieht genauso aus und hat gegebenenfalls die gleiche kaum wahrnehmbare Transportzeit wie die elektronische Nachricht z.B. von der anderen Seite des Erdballs aus Australien. Diese Eigenschaft war für die mündliche Kommunikation durch das Telefon und die Massenkommunikation durch Radio und Fernsehen schon lange gültig. Das „globale Dorf“ (McLuhan) läßt sich nun auch für die verschriftlichte Alltags- und Fachkommunikation ausrufen. In dieser Erleichterung der Kommunikation wollen wir zunächst nur einen Vorteil sehen.

Wichtiger scheint uns in elektronischen Publikationssystemen die direkte Anknüpfbarkeit von Kommunikation an Informationsprozesse, die bei herkömmlichen Publikationen nicht ohne weiteres möglich ist. Der Leser eines Buches kann nicht unmittelbar und direkt mit dem Autor dieses Buches Kontakt aufnehmen. Wenn er dies will, muß er die Adresse des Autors herausfinden und ihn anschreiben oder antelefonieren. Anders ist dies z.B. in sogenannten elektronischen „Bulletin Board Systems“. Beim Abruf einer elektronischen Nachricht aus einem „Schwarzen Brett“ wird gleich die Option mit angeboten, eine Antwort an den Autor dieser Nachricht oder einen Kommentar für die anderen Leser dieses „Bretts“ einzugeben. So wird ein „leichter“, spontaner Umstieg von der Informationsfunktion in die Kommunikationsfunktion ermöglicht. Allerdings soll nicht verschwiegen werden, daß die beobachtbare geringe Nutzung dieser und ähnlicher Möglichkeiten auf einige Schwachstellen verweist.

Zunächst muß die Nachricht ja rezipiert und verarbeitet werden, bevor man sinnvoll eine kommunikative Reaktion darauf abgeben kann. Direkte und spontane Antworten sind deshalb nur bei sehr kurzen Informationen zu erwarten, da nur diese direkt am Bildschirm gelesen werden. Längere und schwierigere textliche Informationen werden in der Regel ausgedruckt und auf Papier durchgearbeitet. Für Kommentare, Antworten, Fragen muß dann wieder das Medium gewechselt werden, und es wird dann fast beliebig, ob ein Brief geschrieben, telefoniert oder das Mailboxsystem wieder „eingeschaltet“ wird.

Außerdem ist das Kommunikationsbedürfnis um vieles geringer als das Informationsbedürfnis, setzt es doch eigene Aktivität voraus, die nur erbracht wird, wenn der Kommunikationsgegenstand und die Kommunikationspartner attraktiv genug erscheinen. Das beobachtbare Niveau der Kommunikation in solchen Systemen, sofern überhaupt vorhanden, geht selten über Selbstdarstell und Geschwätzigkeit hinaus.

Die Nutzung der leichteren Kommunikationsmöglichkeiten in elektronischen Systemen kann man sich auch in engeren organisatorischen und inhaltlichen Grenzen vorstellen. Personen gleichen Interesses („special interest groups“, „invisible colleges“) nehmen an Computerkonferenzen teil, tauschen über „Electronic Mail Systems“ gruppenrelevante Informationen aus (z.B. Hinweise auf interessante Veröffentlichungen, Tagungsberichte, Erfahrungen und Probleme mit Computern etc.) oder arbeiten mit „CSCW-Systemen“ (Systemen für das computerunterstützte kooperative Arbeiten) an gemeinsamen Texten oder Projekten. Doch auch hier sei aufgrund derzeitiger Erfahrungen vor zu euphorischen Erwartungen gewarnt. Informationen abzurufen ist einfacher als selbst aktiv Beiträge zu einer Gruppenkommunikation zu leisten. Wenn solche elektronischen Konferenzen, die nicht durch einen unmittelbaren Arbeitszusammenhang definiert sind, unterhalb des Niveaus herkömmlicher Newsletter, Gruppenrundbriefe oder Verbandsmitteilungen bleiben, sind sie eher beliebig und unattraktiv, wenn sie aber dieses Niveau erreichen sollen, setzen sie eine Redaktion voraus. Damit wird aus dem unmittelbaren und spontanen Gruppenkommunikationsprozeß eine formalisierte Publikation, zu der sich stabilisierbare Nutzererwartungen herausbilden können („erscheint viermal im Jahr, hinten steht der neueste Klatsch“). Ob diese Art redigierter Publikationen elektronisch oder konventionell erstellt und vertrieben wird, ist dann eher sekundär. Es ist eine u.W. bisher kaum untersuchte Forschungsfrage, in welchen Situationen und zu welchen Zwecken elektronische Kommunikationssysteme produktiv genutzt werden, und wie sie sich dabei von den herkömmlichen Kommunikationsmitteln abgrenzen.

Eine weitere Begrenzung des Bedarfs an dieser Art schriftlicher Kommunikation erklärt sich daraus, daß nicht alle Inhalte für diese Art von Kommunikation gleich gut geeignet sind. Während „einfache“ Informationen (z.B. Fakten: Wann hat jemand einen bestimmten Aufsatz geschrieben und wo?) kaum einen Kommunikationsbedarf auslösen, aber als einfache schriftliche Frage gut kommunizierbar wären, sind komplexere, wissenschaftliche Informationen, strategische Einschätzungen oder Meinungen, sofern sie für den Rezipienten hoch relevant sind, viel stärker kommunikationsbedürftig. Die technisch vermittelte, indirekte Kommunikationssituation (die ja auch als unvollständige Kommunikationssituation bezeichnet wird) und die schriftliche Form sind nur bedingt dafür geeignet. So ergibt sich die paradoxe Situation, daß ein hoher Kommunikationsbedarf eher bei komplexen Informationen entsteht, für die die elektronischen, schriftbasierten Kommunikationsmittel aber nur begrenzt tauglich sind, während einfache Informationen über solche Medien gut kommunizierbar wären, der Kommunikationsbedarf dafür aber eher gering ist.

Ein gewisser, nicht zu unterschätzender Kommunikationsbedarf entsteht durch die neuen Systeme selbst. Das betrifft zum einen die Probleme der EDV-Nutzung. Kein Anbieter von Datenbanken ohne „Help-Desk“! Diese wird man bei akuten Problemen eher telefonisch nutzen und nicht über die bei fast allen Hosts mittlerweile verfügbaren elektronischen Kommunikationssysteme. Denn in ähnlicher Weise gilt auch hier, was oben schon gesagt wurde: einfache, zeitunkritische Fragen, kann man per „Mail“ absetzen, kompliziertere und aktuelle Probleme wird man eher per Telefon im direkten Gespräch zu lösen versuchen. Zum anderen entsteht ein zusätzlicher Kommunikationsbedarf durch die „Flüchtigkeit“ elektronischer „Dokumente“, die ihres Dokumentcharakters entkleidet sind (wir sind in Abschnitt 7.3.1 darauf eingegangen). Wie schwierig sind Diskussionen über Texte, denen nur marginal unterschiedliche Versionen zugrundeliegen (andere Seitennumerierung, andere Kapitelgliederung etc.), und wie schnell kommt dies beim Elektronischen Publizieren zustande. Wir erinnern nochmals an die oben erwähnte Diskussion in einem Mailboxsystem, deren Ausgangspunkt durch die Diskussionsteilnehmer umschrieben werden mußte, da die erste Mitteilung, nach dem ersten kritischen Kommentar, vom Autor zurückgezogen und in modifizierter Form erneut verbreitet wurde. Kommunikation, um den Gegenstand der Kommunikation zu klären, mag in elektronischen Publikationssystemen einen zunehmenden Bedarf darstellen. Einen besonderen Nutzen oder Fortschritt können wir darin allerdings nicht erkennen.

Zusammengefaßt lautet unsere Einschätzung zu den Kommunikationsmöglichkeiten und dem Kommunikationsbedarf in einem elektronisch geprägten Fachkommunikationssystem: Kommunizieren mit elektronischen Mitteln reduziert die reine „Transportzeit“ erheblich, und es lassen sich große Distanzen schneller überbrücken. Auch sind spontanere, leichtere, informellere übergänge vom Informieren (Rezipieren von Nachrichten, Publikationen etc.) zum Kommunizieren (Kontaktaufnahme mit den Autoren oder anderen Rezipienten) zu erwarten. Der zusätzliche Kommunikationsbedarf sollte aber nicht überschätzt werden. Ebenso ist zu bedenken, daß sich nur bestimmte Inhalte gut für diese Form der technisch vermittelten, indirekten und verschriftlichten Kommunikation eignen. Ein neuer, zusätzlicher Kommunikationsbedarf entsteht aber durch die Probleme der Nutzung des elektronischen Mediums selbst.

7.3.4     Zugangsbarrieren und gesellschaftliche Einbettung

Bestandteil des Konzepts einer offenen, demokratischen Gesellschaft mündiger Bürger sind die Rechte der Presse-, Informations- und Wissenschaftsfreiheit. Wir verbinden damit nicht nur, daß wir frei entscheiden können, welche Zeitungen wir lesen, welche Sendungen wir hören, welche Bücher wir schreiben, und wie wir diese vertreiben, sondern insbesondere auch die Vorstellung eines der ökonomischen „Marktsphäre“ entzogenen Bereichs öffentlicher, frei zugänglicher, unentgeltlicher Fachinformations mit den öffentlichen Bibliotheken als institutionellem Kern. Jeder kann ohne Ansehen seiner sozialen Herkunft, seiner Vorkenntnisse, seiner finanziellen Ausstattung eigenverantwortlich in öffentlichen Bibliotheken beliebig „wertvolle“ Fachinformation anfordern, besondere Gründe für seinen Bedarf muß er nicht angeben. Zwei Bedingungen müssen allerdings erfüllt sein: Die gewünschten Fachinformationen müssen öffentlich zugänglich, d.h. publiziert, „veröffentlicht“, sein, was die Nutzung von z.B. „Geheimpapieren“, internen amtlichen Dokumenten, Industrieberichten etc. ausschließt, und sie müssen in konventioneller Form, d.h. auf Papier, vorliegen.

Ein Fachkommunikationssystem, das durch elektronische Publikationen geprägt ist, verändert seinen traditionell offenen und gesellschaftlich verantworteten Charakter insbesondere was die Art und Weise des Zugangs zu den Informationen betrifft.

Es mag gute Gründe dafür geben, daß die elektronische Fachkommunikation in der Bundesrepublik, anfänglich zunächst unter einem stärker öffentlichen, infrastrukturellen Auftrag angetreten, zunehmend auf private Vermarktung setzt. Wir wollen dies hier nicht diskutieren. Die gesellschaftliche Tradition freier Zugänglichkeit zu publizierten Informationen wird solange nur begrenzt tangiert, als elektronische Publikationen Verdopplungen herkömmlicher Papierpublikationen sind, und letztere in öffentlichen Bibliotheken frei verfügbar sind. [260] Es muß allerdings mit aller Deutlichkeit darauf hingewiesen werden, daß mit den für die Nutzung von elektronischen Publikationen heute üblichen hohen Kosten Barrieren aufgerichtet werden, die nicht mit dieser Tradition vereinbar sind. Es wird damit eine Entwicklung eingeleitet, die vielleicht weder so gewollt ist, noch in ihren politisch-kulturellen Folgen ganz überschaut wird.

Daß ökonomische Barrieren bei der Ausübung demokratischer Freiheiten am ehesten ins Auge springen, heißt nicht, daß dies die einzigen Barrieren für die freie Nutzung des Fachkommunikationssystems wären. Auch das Wissen über den Umgang mit elektronischen Publikationssystemen muß Allgemeingut sein, wenn nicht künstliche Informationsschranken aufgebaut werden sollen.

Sieht man von den administrativen (Nutzervertrag, Kennwort), preislichen und qualifikatorischen Hindernissen einmal ab, dann ist es für den Nutzer einer elektronischen (online verfügbaren) Publikation oder Datenbank völlig gleichgültig, ob diese in Amerika oder in der unmittelbaren Nähe des Nutzers angeboten wird; ob es sich um tagesaktuelle Nachrichten, Kuriositäten, Börseninformationen oder medizinische Fallbeschreibungen handelt. Die formalen Nutzungsvoraussetzungen beschränken sich immer nur auf die Softwarefunktionen, unabhängig von der örtlichen Nähe und den jeweiligen Inhalten. Der Zugriff auf Literatur in „Spezialbibliotheken“, für die man sonst eventuell eine weite Reise unternehmen müßte oder lange Wartezeiten in Kauf zu nehmen hätte, stellt sich am Schirm im Prinzip nicht anders dar als die Nutzung des eigenen, elektronisch geführten Zettelkastens.

Wir sehen diese „beliebige“ Zugänglichkeit zu elektronischen Publikationen durchaus mit gemischten Gefühlen. Auf der einen Seite werden dadurch unnötige, gesellschaftlich bedingte Zugangsbarrieren zu Informationen abgebaut. Auf der anderen Seite aber besteht auch die Gefahr eines Mißbrauchs von Informationen.

Den Abbau unnötiger Zugangsbarrieren kann man sich beispielsweise dahingehend vorstellen, daß „Außenseiter“, Nicht-Fachleute eher auf Spezialinformationen zugreifen können und dadurch Informationsvorsprünge reduziert werden. Man denke z.B. daran, daß ein Patient über mögliche Behandlungsmethoden oder Nebenwirkungen von Präparaten in medizinischen Datenbanken selbst recherchiert und diese Ergebnisse mit seinem Arzt diskutiert. Ein anderer vorstellbarer Fall könnte eine Bürgerinitiative betreffen, die aufgrund globaler elektronischer Vernetzung auf eine Zeitungsdatenbank eines weit entfernten Landes zugreifen kann und dadurch zu detaillierten Informationen über einen dort vorgefallenen Umweltskandal gelangt, der sich in ähnlicher Weise gerade am Ort dieser Bügerinitiative abspielt.

Aber die herkömmlichen Zugangsbarrieren stellen nicht nur eine Abschottung bestimmter Macht- oder Facheliten dar, sondern sind in gewisser Weise auch ein Schutz vor dem Mißbrauch von Wissen. Die Problematik der Selbstmedikamentation sei nur als ein Beispiel genannt. Denn Fachinformationen ohne kontextualisierendes subjektiv verfügbares Wissen sind im einfachsten Fall nutzlos, im schlimmsten Fall gefährlich.

Man sollte die Gefahren der beliebigen Zugänglichkeit in elektronischen Informationssystemen aber nicht überbewerten. Da sich Elektronisches Publizieren überwiegend im Rahmen marktwirtschaftlicher Rahmenbedingungen abspielt, ist vielmehr zu befürchten, daß die finanziellen und qualifikatorischen Barrieren die „information poor“ noch mehr benachteiligen und die „information rich“ weiter begünstigen werden. [261]

Schließlich ist zu bedenken, daß sich eine demokratische Gesellschaft in eine möglicherweise gefährliche Abhängigkeit begibt, wenn wesentliche Bestandteile ihres Fachwissens in elektronischen Systemen nur bei einem, nach privaten, kommerziellen Interessen handelnden Akteur, gespeichert und verfügbar gemacht werden. Das in Abschnitt :HDREF FORM=NUMONLY REFID=FOLGE31. schon aufgeworfene Problem der Archivierung und Sammlung elektronischer Publikationen findet auch hierin seine Begründung.


Anmerkungen

[242] Der Begriff CAMIS wurde unseres Wissens im Kontext des Elektronischen Publizierens nur im Rahmen dieser Studie verwendet. Die Studie ist über die vielfältigen Beziehungen unserer Abteilung (KfK-AFAS) zu Technology Assessment Programmen und Institutionen zu uns gelangt. Mit einer Datenbankrecherche nach Wirkungsstudien zum Elektronischen Publizieren hätten wir diese Studie, aufgrund der anderen Begrifflichkeit, vermutlich nicht entdeckt. Eine Recherche in Datenbanken mit dem Akronym CAMIS führt dagegen zu einigen überraschenden anderen Verwendungskontexten (z.B. Continental Army Management Information System, Chief of Naval Air Training Automated Management Information System oder Control and Monitoring of Industrial Substations). Dies zeigt erneut die Schwierigkeiten der Suche in Datenbanken bei einer sich verändernden und kontextabhängigen Begrifflichkeit.

[243] Vgl. zum OTA auch Wingert 1990. Zu den Aufgaben des OTA siehe die folgende aus der TA-Datenbank (Update-Version 900325) entnommene Beschreibung. Die TA-Datenbank wird erstellt vom Kernforschungszentrum Karlsruhe, Abteilung für Angewandte Systemanalyse (AFAS) und öffentlich angeboten über den Host STN.

OTA is a nonpartisan analytical support agency that serves the United States Congress by providing congressional committees with analyses of emerging, difficult, and often highly technical issues. Governed by a 12-member bipartisan, bicameral Congressional Technology Assessment Board (TAB) - six Senators and six Representatives - OTA provides a variety of services to the Senate and House on a broad range of issues. Services sometimes include briefings, testimony, and special reports on major assessments - some requiring more than 2 years to complete. OTA explores complex issues involving science and technology, helping Congress to resolve uncertainties and conflicting claims, identifying alternative policy options, and providing foresight or early alert to new developments that could have important implications for future Federal policy. OTA does not advocate particular policies or actions, but points out their pros and cons and sorts out the facts. ...

Subject Areas of TA-Activities: OTA's work is organized into three major divisions, each comprising three main programs:

  1. Energy, Materials, and International Security Division: Energy & Materials Program; Industry, Technology & Employment Program; International Security & Commerce Program;
  2. Health and Life Sciences Division: Biological Applications Program; Food & Renewable Resources Program; Health Program;
  3. Science, Information and Natural Resources Division: Communications & Information Technologies Program; Oceans & Environment Program; Science, Education & Transportation Program.

[244] Vgl. dazu auch für die Bundesrepublik Deutschland Rossnagel u.a. (1989).

[245] Der „First Amendment“ ist die erste Ergänzung zur Verfassung der Vereinigten Staaten und bildet mit den Amendments zwei bis zehn die sogenannte „Bill of Rights“, die aus dem Jahr 1791 stammt. Im First Amendment werden die Religionsfreiheit, die Redefreiheit, die Freiheit der Presse, die Versammlungsfreiheit und das Petitionsrecht garantiert.

[246] Das letztgenannte Projekt ist mittlerweile abgeschlossen, vgl. U.S. Congress, Office of Technology Assessment (1990).

[247] Oakeshott hatte zusammen mit White (1984) einen weiteren Bericht zum Thema vorgelegt. Er entstand im Rahmen des Universal Availability of Publications (UAP) Programms im Auftrag der International Federation of Library Associations and Institutions (IFLA) und wurde von der Deutschen Forschungsgemeinschaft (DFG) gefördert. In der Vorgehensweise und dem Themenspektrum unterscheidet er sich kaum von dem hier vorgestellten BNB-Report, stellt aber eine Fortschreibung und Aktualisierung dieses Berichtes dar. Erwartungsgemäß werden die Probleme der Bibliotheken etwas mehr in den Mittelpunkt gerückt. Zum Problem „Bibliotheken und Elektronisches Publizieren“, das in unserer Studie nur am Rand behandelt wurde, vgl. auch Wingert (1991).

[248] Nach diesem Prinzip - fachkompetente Vertretung von Akteursinteressen in der Publikationskette - wurde auch der projektbegleitende wissenschaftliche Beirat zu unserem Projekt ausgewählt; vgl. die Liste der Beiratsmitglieder auf Seite IXf.

[249] Zur „Fachweltenorientierung“ in unserer Studie vgl. im Anhang den Abschnitt A.2.1.

[250] In Kapitel 6 diskutieren wir einige absehbare technologische und anwendungsbezogene Trends. Hier wie dort setzen wir nicht auf die Durchbruchshoffnungen der Propagandisten neuartiger „Hyper-Technologien“ (wie z.B. ein natürlichsprachliches, multimediales, neuronales, wissensbasiertes, intelligentes, weltweit vernetztes, auf Taschenrechnerformat miniaturisiertes, per Sprachein- und -ausgabe nutzbares, praxisrelevantes Informationssystem), die die endgültige Lösung aller derzeitigen fachkkommunikativen Probleme versprechen.

[251] Leider hat die über zwanzigjährige Entwicklung der Informationswissenschaft und Fachinformationspolitik in der Bundesrepublik Deutschland u.W. keine ausgearbeitete Theorie des Fachkommunikationssystems hervorgebracht, aus der eine differenzierte Beschreibung ableitbar wäre. Ansätze dazu liefert Capurro (1986), der allerdings in seiner „hermeneutischen“ Theorie der Fachkommunikation die Technologie der Fachkommunikation nicht berücksichtigt.

[252] Dies gilt jedenfalls „im Prinzip“ und idealtypisch und ist nicht unbedingt in jedem Fall auch empirisch nachweisbar.

[253] Natürlich ist das Fachkommunikationssystem auch ein ökonomisches System und unterliegt ökonomischen Gesetzmäßigkeiten. Wir haben verschiedentlich (vgl. z.B. die Abschnitte 4.1.4, 4.2.9 und 7.2, These 12) darauf hingewiesen, daß die ökonomie des Publizierens sich durch Elektronisches Publizieren verändert. Wir gehen darauf an dieser Stelle nicht noch einmal ein.

[254] Das „Buchzeitalter“ kennt übrigens auch bekannte „Fälscher“, wie Thomas J. Wise, der bezeichnenderweise keine Originaldrucke fälschte, sondern der historische Bücher herstellen ließ, die es hätte geben können, aber tatsächlich nie gegeben hat (Hannebutt-Benz 1985, S. 173f).

[255] Vgl. z.B. Wersig (1973 S. 35ff), Capurro (1978), Capurro (1987), Silbermann (1982, S. 178), Bahrdt (1985, S. 39).

[256] Von den Informationen aus Zeitungen, Zeitschriften, Hörfunk- und Fernsehen erreichen nach einer Studie der Universität des Saarlandes nur zwei Prozent die Empfänger (Süddeutsche Zeitung, 14.4.1987). Siehe dazu auch Der Spiegel „Der Mensch wird immer dümmer“ 1990, Nr. 11, S. 98-103 Kritisch zum Problem der Informationsflut vgl. z.B. Wersig (1973, S. 95ff). Zum Problem der geringen Rezeption von Nachrichten vgl. Merten (1990).

[257] Zum „schlechten Gewissen“ von professionellen Lesern vgl. Fabian (1977). Schmidtchen (1977) hat für den Bereich der Massenmedien und der öffentlichen politischen Meinung auf den Zusammenhang von Zunahme der Informationsmenge und verringerter Entscheidungsfähigkeit (politische Ambivalenz) hingewiesen.

[258] Bei den verschiedenen Datenbankanbietern und Hosts haben diese Dienste mittlerweile ganz unterschiedlich Benennungen: so z.B. „Newsflash“ bei NewsNet, „ECLIPSE“ (Electronic Clipping Service) bei MEAD oder „Alert Service“ bei DIALOG.

[259] Zur Debatte um die Schwierigkeiten und Grenzen der Nutzung von Datenbanken vgl. Kapitel 5.

[260] Allerdings sind die Nutzungsmöglichkeiten, je nach Fragestellung, im Falle einer Volltextdatenbank mit mehreren Jahrgängen einer Zeitung z.B. deutlich größer als im Fall der selben Jahrgänge auf Papier; vgl. Abschnitt 7.3.1.

[261] Zu dieser „Wissenskluftthese“ vgl. Saxer (1988).

Erstellt am: 11.09.2006 - Kommentare an: Ulrich Riehm