www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]

Notwendigkeit und Möglichkeit einer "Internet-Politik"

Erschienen in: René Pfammatter (Hrsg.): Multi-Media-Mania. Reflexionen zu Aspekten neuer Medien. Konstanz: UVK Medien 1998, S. 213-248. Abschluß des Manuskripts im Juli 1997. Diese Online-Version (/pub/m/1998/rieh98a.htm) enthält einen Nachtrag in Fußnote 58 vom Juni 1998.


Ulrich Riehm
Forschungszentrum Karlsruhe - Technik und Umwelt
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Postfach 3640
D-76021 Karlsruhe
Tel.: +49 (0) 721 / 608 - 23968
Fax: +49 (0) 721 / 608 - 24806
E-Mail: ulrich.riehm@kit.edu
WWW: www.itas.kit.edu

Inhalt

1. Deutschland und Europa fallen zurück
2. Die Diskussion um Techniksteuerung
2.1 Der Staat als Akteur der Techniksteuerung
2.2 Die Informationsinfrastruktur als Gegenstand der Techniksteuerung
2.3 Neue Wege der Techniksteuerung
3. Braucht das Internet eine "Internet- Politik"?
3.1 "World Wide Wait" - Aspekte der Leistungsfähigkeit des Internet
3.2 Zugangsprobleme im Internet
4. Fazit
5. Literatur

www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

1. Deutschland und Europa fallen zurück

Auf einem Treffen der Industrieminister der EU im Februar 1997 wurde eine Studie vorgelegt ("Benchmarking Europe's Competiveness in the Information Society"), die deutlich zeigte, daß die Informations- und Kommunikationsindustrien Europas, der Sektor der Industrie, der den wichtigsten Beitrag zur Entwicklung der Informationsgesellschaft leisten soll, im Vergleich zu den weltweiten Wettbewerbern zurückfallen. Eine zersplitterte und uneinheitliche Politik, fehlende Standards und Mängel in der Informationsinfrastruktur seien die wesentlichen Gründe für die schwindende Wettbewerbsfähigkeit Europas. [1]

Auch nach Ansicht von Nick Moore vom renommierten Policy Studies Institute (PSI) in London rutscht Europa immer weiter ab in der Tabelle der "Welt-Wettbewerbs-Liga". Europa mache zu geringe Fortschritte bei der Einführung informationsintensiver Arbeitsverfahren in den Organisationen des öffentlichen und privaten Sektors; Europa versäume die notwendigen Anpassungen im Erziehungs- und Ausbildungssystem; Europa unternehme zu wenig, um die sozialen, politischen und rechtlichen Systeme auf die kommende Informationsgesellschaft auszurichten. Nicht zuletzt vertritt Moore die Ansicht, daß der in Europa vorherrschende neo-liberale Ansatz nur ungenügend dazu beitrage, die Herausforderungen der Informationsgesellschaft zu bewältigen. [2]

Wirft man den Blick auf das Internet, die zur Zeit wichtigste und dynamischste Informationsinfrastruktur, und fragt nach der Position Deutschlands, so bekommt man von Werner Zorn, Informatikprofessor an der Universität Karlsruhe und einer der frühen Förderer und Begleiter des Internets in Deutschland, eine äußerst skeptische Einschätzung zu hören. Deutschland habe nicht nur die Internet-Entwicklung verschlafen, sondern sehenden Auges ignoriert, abgetan, bekämpft, verteufelt. Deutschland spiele im weltweiten Internet - außer als Abnehmer- und Anwendermarkt - überhaupt keine Rolle. Von den ca. 2.100 Internet-Standards (Request for Comments) stamme kein einziger von einer deutschen Firma und lediglich drei aus dem deutschen Wissenschaftsbereich. Ein Vergleich der ans Internet angeschlossenen Computer (Internet-Hosts) bezogen auf die Bevölkerungsgröße zeige Deutschland weltweit nur auf Platz 14 und europaweit nur auf Platz 10 hinter Skandinavien, Nordamerika, den Commonwealth-Ländern, den Niederlanden, der Schweiz und anderen Ländern. [3] Nur 0,6 % der 3,9 Millionen Gewerbebetriebe in Deutschland besitze eine eigene Internet-Domain. Keines der international wichtigen Netzzentren liege in Deutschland. Weder gebe es einen deutschlandweiten neutralen "backbone" noch einen zentralen Austauschpunkt aller deutschen Internet Service Provider. [4]

Die Misere scheint offensichtlich, wenn wir uns auf die Einschätzungen der hier zitierten Experten verlassen wollen, und es stellt sich die Frage nach einer Politik, die eher geeignet erscheint, den Weg in die "Informationsgesellschaft" [5]zu ebnen als dies bisher der Fall war.

Die EU-Studie von Booz, Allen & Hamilton benennt fünf Politikfelder, in denen ein Ungleichgewicht zwischen Marktanforderungen und politischem Handeln bestehe: Marktharmonisierung, Standardisierung, Förderung neuer Unternehmen, Forschung, Ausbildung. Ein zentrales Ziel müsse die Überwindung nationaler bzw. sektoraler Begrenzungen in der bisherigen Politik sein, so bei der Schaffung eines regulativen Umfelds, das alle relevanten Sektoren der Informations- und Kommunikationsindustrie umfasse, so mit einem Forschungs- und Entwicklungsprogramm, das überkommene Bereichsabgrenzungen überwinde oder etwa durch die Schaffung von Normierungsorganisationen, die die bestehende Zersplitterung im Bereich der Informations- und Kommunikationstechnik aufhebe.

Unter den konkreten Handlungsempfehlungen ist der Vorschlag zur Schaffung eines ATM-basierten europaweiten Informationsnetzwerks (European Super-Highway) einer der interessantesten. Der Einsatz von ATM [6] erlaubt in flexibler Weise auf unterschiedliche Netzanforderungen zu reagieren ("bandwidth on demand"), und deshalb wird ATM für ein integriertes, hochleistungsfähiges, breitbandiges Netz als besonders geeignet angesehen. Der Vorschlag zur Schaffung eines europaweiten ATM-Netzes zielt dabei nicht allein darauf, die europäische Netzwerkindustrie international wettbewerbsfähig zu machen, sondern stellt gegen die Fragmentierung der europäischen Informationsinfrastrukturen die Forderung der Harmonisierung der technologischen Plattformen in Europa. Gleichwohl wird damit nicht automatisch gefordert, daß die öffentliche Hand einen solchen ATM-Information-Super-Highway selbst schaffen müsse, aber die Politik wird in die Verantwortung genommen, dieses Ziel mit ihren Mitteln aktiv zu fördern. Interessanterweise taucht in der Stellungnahme der Europäischen Kommission zur Beratung der Industrieminister in den Haag der Vorschlag eines ATM-Information-Super-Highway nicht mehr auf. [7]

Moore stellt, stark vereinfachend, zwei politische Grundhaltungen gegenüber: auf der einen Seite den neoliberalen, marktorientierten Ansatz, der in den letzten Jahren die Politik der westlichen Industrieländern dominierte, und auf der anderen Seite den dirigistischen Ansatz, der z.Z. vor allem in den sich stark entwickelnden südostasiatischen Staaten verfolgt wird. Die Überlegenheit des neoliberalen Ansatzes könne für Europa nicht belegt werden (siehe die obige negative Diagnose). Die Schaffung einer Informationsgesellschaft erfordere mehr als Veränderungen im ökonomischen System, erfordere soziale, politische und kulturelle Innovationen und eine umfassende, ganzheitliche "Vision". Der dirigistische Ansatz scheint Moore dafür geeigneter als der neoliberale. [8]

Auch wenn Zorn die Frage einer neuen Politik für die Informationsgesellschaft nicht ausdrücklich diskutiert, zeigt sich doch auch bei ihm eine Tendenz, von der Politik mehr Internet-Engagement einzufordern. So wenn er z.B. beklagt, daß es in Deutschland kein "neutrales" Internet-Backbone gebe, aber z.B. das Internet-Vorzeigeland Finnland ein solches bereits 1988/89 eingerichtet habe. [9] Gleichwohl zeigt sich in der Zornschen Position auch die Widersprüchlichkeit solcher Art Forderungen an Staat und Politik, denn Zorn rechnet dem staatlichen Einfluß in den 80er und frühen 90er Jahren (insbesondere von BMFT [10] , DFN [11] und Bundespost) die Hauptschuld an der diagnostizierten Internet-Misere zu. Zorn benennt drei "Ursachen" für die Internet-Malaise in Deutschland: zu hohe Telekommunikations-Gebühren, eine zu späte Realisierung von Hochgeschwindigkeitsnetzen und eine zu lange Abwehr der Internet-Protokolle (TCP/IP) zugunsten des von Europa initiierten OSI-Netzstandards. Insbesondere die OSI-Initiative wurde aktiv und massiv von den nationalstaatlichen und europäischen Instanzen gefördert - und konnte sich letztendlich nicht durchsetzen. [12]

Das Dilemma der Politik ist offensichtlich. Mischt sie sich in die technische Entwicklung ein, wird ihr die Erfolglosigkeit ihrer Anstrengungen vorgehalten. Hält sich die Politik dagegen zurück, so wird sie in gleicher Weise wegen mangelnder politischer Initiative für negative Entwicklungen verantwortlich gemacht. Damit sind wir bei der Frage, die uns im folgenden weiter beschäftigen wird, angelangt: Welche Möglichkeiten (politischer) Steuerung auf dem Weg in die "Informationsgesellschaft" gibt es. Insbesondere interessiert uns dabei die Entwicklung einer allgemein verfügbaren Informationsinfrastruktur, ohne die die vielfältigen Nutzungsmöglichkeiten nicht vorstellbar sind. Infrastrukturaufgaben sind aber im klassischen Politikverständnis eine originär politische Aufgabe. Die Kluft zwischen der offensichtlichen Notwendigkeit einer solchen Informationsinfrastruktur und ihrer mangelnden Praxistauglichkeit macht den Handlungsbedarf offensichtlich. Trotzdem sind die Notwendigkeiten, die Möglichkeiten und die Inhalte einer solchen Informationsinfrastrukturpolitik umstritten.

Es wird für diese Untersuchung eine weit verbreitete - gleichwohl diskussionswürdige - Prämisse unterstellt, daß das, was hier nur vage und nicht weiter expliziert mit "Informationsgesellschaft" umschrieben wird, eine übergreifende gesellschaftliche Entwicklungsrichtung angibt, die einerseits einer gewissen "zwangsläufigen" Gesetzmäßigkeit folgt und andererseits ein "positives" Ziel abgibt, für das politisches Handeln mobilisiert werden soll. So das Ergebnis einer Inhaltsanalyse des Berichts der Bundesregierung "Info 2000". [13]

Die Fragen nach den gesellschaftlichen Risiken, die mit dem Internet und dem Konzept der "Informationsgesellschaft" verbunden sind, werden damit keineswegs für irrelevant oder erledigt erklärt. [14] Sie werden in dem hier betrachteten Diskussionszusammenhang aber ausgeklammert.

In den folgenden Abschnitten geht es zunächst um die Schwierigkeiten der Techniksteuerung, wie sie sich einerseits aus den begrenzten Möglichkeiten der Steuerungssubjekte, insbesondere des Staates, und andererseits aus den Bedingungen der Steuerungsobjekte ergeben. Danach werden einige neuere Überlegungen zum Problem der Steuerung vorgestellt, die mit Begriffen wie Kontextsteuerung, Selbststeuerung oder weicher Steuerung umschrieben werden. Schließlich wird abschließend und beispielhaft versucht, an einigen Problemen der derzeitigen Entwicklung des Internet anknüpfend, Elemente einer Internet-Politik zu entwickeln.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

2. Die Diskussion um Techniksteuerung

Die Möglichkeiten politischer Steuerung technischer Entwicklungen werden heute in der politischen wie wissenschaftlichen Diskussion überwiegend zurückhaltend beurteilt. Das war nicht immer so. [15] Die 60er und 70er Jahren waren von einer "technokratischen Planungseuphorie" geprägt. In Rahmen einer umfassenden technologieorientierten Modernisierungspolitik wurden, staatlich initiiert und finanziert, z.B. die Fachinformationszentren gegründet, das Bildschirmtextsystem entwickelt und eingeführt und die Verkabelung der Republik nach heftigen politischen Auseinandersetzungen vollzogen, um nur einige der größeren Projekte aus dem Informations- und Kommunikationssektor zu nennen. Die 80er Jahre brachten dann den Umschwung zur Phase der Deregulierung und zum weitgehenden Steuerungsverzicht. [16] Dieser Umschwung mag verschiedene Ursachen gehabt haben, aber eine war der "Mißerfolg" vieler Technikprojekte. [17]

Nimmt man die drei beispielhaft erwähnten Technikprojekte (Fachinformationsprogramm, Bildschirmtext, Rundfunkverkabelung), so zeigt sich im Ergebnis, daß nirgends die ursprünglich erhofften Nutzungszahlen und Nutzungseffekte erreicht werden konnten, teilweise die Systeme bis heute nicht wirtschaftlich betrieben werden können. Auch das großangelegte, industriepolitisch motivierte und Milliarden verschlingende europäische OSI-Projekt konnte, wie oben erwähnt, nicht zum Erfolg geführt werden. Als weitere Beispiele für das Scheitern staatlich initiierter und geförderter Technikprojekte können die Entwicklungsanstrengungen zum hochauflösenden Fernsehen (HDTV) oder die Planungen für ein integriertes breitbandiges Fernmeldenetz (IBFN) gelten [18]

Wie das gebrannte Kind das Feuer scheut die Politik nun davor zurück, auf die technologischen Entwicklungen direkt Einfluß zu nehmen. Sie beschränkt sich weitgehend darauf, die wirtschaftspolitischen Rahmenbedingungen für die Entfaltung des freien Wettbewerbs und die Entwicklung neuer Technologien zu schaffen. Ausdruck dieser Politik sind beispielsweise die verschiedenen Stufen der Postreform, die Herbert Kubicek als "Steuerung in die Nichtsteuerbarkeit" charakterisierte. Diese Postreform umfaßt die drei wesentlichen Elemente einer "Deregulierungspolitik", nämlich die Deregulierung im Sinne der Befreiung von staatlichen Vorgaben und Vorschriften, die Privatisierung eines ehemals staatlichen Bereichs und die Liberalisierung im Sinne der Zulassung von Wettbewerb in einem ehemals monopolartig verfaßten Bereich. Ob man heute bereits von einer neuen Phase der Techniksteuerung, die Seeger und Kubicek als "Re-Regulierung" bezeichnen, sprechen kann, mag bezweifelt werden. Weitgehend Einigkeit besteht aber darin, daß es ein Zurück zur alten staatsdirigistischen Technologiepolitik nicht geben wird, sondern neue Wege gesucht werden müssen.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

2.1 Der Staat als Akteur der Techniksteuerung: Kompetenzverlust und neue Anforderungen

Klassischer Akteur politischer Techniksteuerung ist der Nationalstaat. Dessen Steuerungskompetenz, soweit er sie wirklich jemals besessen haben mag, ist aus den unterschiedlichsten Gründen erodiert. [19] Beigetragen hat dazu, in einem doppelten Sinne, das, was als Globalisierung bezeichnet wird. Einerseits sind die potentiellen Objekte der Steuerung, die technischen Systeme wie die wirtschaftspolitischen Akteure, nicht mehr auf die nationalstaatlichen Grenzen beschränkt. Man denke an das Internet, die Telekommunikationssysteme und die Satellitentechnik und die entsprechenden multinationalen Telekommunikations- und Medienkonzerne. Andererseits wurden und werden nationalstaatliche Kompetenzen auf übergeordnete supranationale Organisationen (wie die EU) übertragen. Aber auch eine Tendenz zur Dezentralisierung zu Gunsten regionaler Institutionen, wie in der EU beobachtbar, führt zu einem Kompetenzverlust bei den national orientierten Staaten. [20]

Zur Erosion der Steuerungskompetenz des Staates hat auch der Verlust des Glaubens an die Wirksamkeit staatlicher Technikpolitik beigetragen. Die negative Bilanz der staatlichen Technikpolitik am Ende der steuerungsoptimistischen Phase der 60er/70er Jahre hat dem Vorschub geleistet. Der Staat war mit seinen Steuerungsansprüchen offensichtlich überfordert. Er mußte seine "Ohnmacht" eingestehen und wurde, wie Willke es nennt, "entzaubert". Doch selbst, wenn an einer staatinterventionistischen Technologiepolitik festgehalten werden würde, läßt die massive Finanzkrise der 90er Jahre wenig Spielraum für großangelegte, staatliche Programme der Technikförderung.

Steht der Nationalstaat als zentraler Akteur technologischer Entscheidungen nicht mehr eindeutig im Mittelpunkt, treten andere Akteure in der technologiepolitischen Arena ins Blickfeld. [21] Es sind dies die Technolgieentwickler in Wissenschaft und Industrie, die Gerätehersteller und Diensteanbieter, die Standardisierungsgremien unterschiedlichster Provenienz, aber natürlich auch die Nachfragenden, die Abnehmer und Konsumenten, um nur einige, wenn vielleicht auch die wichtigsten zu nennen. Dieses Modell der institutionellen und kommunikativen Verflechtung der vielen Akteure ist mit der Vorstellung von zentraler "Steuerung" kaum mehr in Einklang zu bringen, dafür aber mit der Auffassung von der Technikentwicklung als sozialer Prozeß.

Gleichzeitig wird deutlich, daß der Verlust einer zentralen Steuerungsinstanz und die Aushandlungsprozesse unter den Akteuren mit erheblichen Kosten belastet sind, die zu neuen Anforderungen an den Staat führen. So warnt Willke vor einem "Teufelskreis der Koordination ohne Ende". "So klar es aus steuerungstheoretischer Perspektive erscheint, daß ein gemischtes öffentlich/privates Steuerungsregime leistungsfähiger ... ist gegenüber den ‚reinen' Steuerungsformen einer (hierarchischen) politischen Regulierung und einer (anarchischen) marktlichen Selbststeuerung, so klar ist auch, daß es ein Rezept für (das) Scheitern wäre, die Kosten eines solchen Steuerungsregimes zu unterschätzen". [22] Und Simonis ergänzt, daß "der Bedeutungsgewinn von vor- und nachgelagerten politischen Handlungsebenen sowie die Erweiterung der staatlichen Handlungsstrategien und -programme zwangsläufig den Koordinationsbedarf (erhöhen), da keine ausschließende Kompetenzverteilung besteht und immer mehrere Ebenen miteinander kooperieren oder sich wenigstens negativ koordinieren müssen". [23]

Wurde die Politik der "Deregulierung" mit der Entlastung von staatlich-bürokratischen Vorgaben begründet und eine Effektivierung der Entscheidungsprozesse erhofft, so stellt sich im Effekt heraus, daß die Regelungs-, Kommunikations- und Koordinationserfordernisse zu- und nicht abnehmen. Insbesondere die Einführung von Wettbewerb in einer Branche, die vorher durch einen Monopolisten beherrscht wurde, führt zu einem steigenden Regulationsaufwand. [24] Dieses "Paradoxon" von erhöhtem Regulationsbedarf durch "Deregulierung" trifft auf alle systemischen, netzwerkbasierten Technologien zu, die auf eine Verständigung über Schnittstellen, auf Kompatibilität und gegenseitige Offenheit angewiesen sind. Im alten Regime der "Einheitstechnik" im "Fernmeldewesen" gab es wenig abzustimmen und offenzulegen, [25] während heute z.B. das brisante Problem des Zugangs zu den Telefonendkunden für die neuen Telefondiensteanbieter ab 1998 ("last mile-problem") eine Fülle strategischer, technischer und ökonomischer Fragen aufwirft, die gesetzlich, in Verordnungen oder von der Regulierungsinstanz zu entscheiden bzw. zwischen den Akteuren auszuhandeln sind. [26] Staatliches Handeln ist dabei um so mehr gefordert, je ungleicher die Marktchancen verteilt sind und je grundlegender die Leistungen für die Gesellschaft insgesamt von Bedeutung sind.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

2.2 Die Informationsinfrastruktur als Gegenstand der Techniksteuerung

An dieser Stelle ist es sinnvoll, die Objekte der Techniksteuerung einer differenzierenden Betrachtung zu unterziehen. Die Möglichkeiten und Notwendigkeiten der (staatlichen) Steuerung technischer Systeme sind je nach "Techniktyp" unterschiedlich. Für die Haushaltstechnik, Waschmaschinen und Staubsauger beispielsweise, wird man einen spezifischen, die technische Entwicklung beeinflussenden staatlichen Steuerungsbedarf kaum erkennen, für die Entwicklung der Autotechnik dagegen gibt es einen solchen in bezug auf sicherheits- und umweltpolitische Auflagen und in allen infrastrukturnahen Technikfeldern sind die Steuerungsnotwendigkeiten besonders hoch. Aber gerade die klassischen Infrastrukturbereiche unterliegen einem dramatischen Wandel. Was mit Entflechtung, Privatisierung und Deregulierung im Telekommunikationsbereich begonnen wurde, setzt sich mehr oder weniger stringent fort auf dem Felde der Stromversorgung, der Postdienste, der Abfallentsorgung und sogar der Straßenverkehrsinfrastruktur.

Gleichwohl ist unstrittig, daß die neuen Informations- und Kommunikationsdienste einer fortentwickelten und angemessenen Informationsinfrastruktur bedürfen. Doch welches Konzept dabei verfolgt wird, und welche Rolle der Staat dabei einnehmen soll, ist umstritten. Während die amerikanische Politik seit 1993 das Konzept der Schaffung einer umfassenden "National Information Infrastructure" (NII) verfolgt, mit dem Ziel, die bestehenden heterogenen und nicht kompatiblen Netze und Systeme in einem "seamless web" zusammenzuführen, und in Japan im gleichen Jahr das Ziel einer breitbandigen Neuverkabelung aller Haushalte bis zum Jahr 2010 aufgestellt wurde, sind in Deutschland und Europa solche politischen Initiativen eher rar. [27] Hier vertraut man eher darauf, daß Angebot und Nachfrage über den Markt die jeweilig benötigte Infrastruktur schaffen. So stellt der Bericht der Bundesregierung "Info 2000" fest, daß ebenso wie die Informationsgesellschaft nicht vom Staat vorgeschrieben werden kann, dies auch für die Informationsinfrastruktur gilt. Der Bedarf an Infrastrukturleistungen und neuen Diensten müsse sich von den Anwendungen her entwickeln und ließe sich von keiner zentralen Instanz vorgeben. [28] Mit dieser Position wird allerdings die Abkehr vom "Infrastrukturgedanken" überhaupt eingeleitet, da Infrastrukturpolitik gekennzeichnet ist durch ihren Vorsorge- und Vorleistungscharakter und mit neuen Infrastrukturen eine "Ermöglichungsstruktur" (Mayntz) geschaffen wird, über deren genaue Nutzung und Ausfüllung zum Zeitpunkt der Planung und Implementation man noch nichts genaues weiß. Die Gefahr, daß dieses Nutzungspotential nicht ausgefüllt wird, liegt auf der Hand. "Infrastruktur-Ruinen" geben beredt Zeugnis davon. Doch die Gefahr, daß sich Entwicklungspotentiale aufgrund einer nur unzureichenden Infrastruktur nicht entfalten können, steht dem entgegen.

Die Kritik an einer Politik, die die Verantwortung für die Schaffung einer neuen Informationsinfrastruktur in erster Linie den Kräften des Marktes überläßt, wird mittlerweile deutlicher formuliert, wie eingangs gezeigt wurde. Selbst wenn man diesen kritischen Stimmen folgt und ein deutlicheres staatliches Engagement einfordert, ist die Frage des Inhalts dieser Politik, die Frage nach dem konkreten Konzept für eine nationale oder europäische Informationsinfrastruktur noch keineswegs beantwortet. Der oben nur kurz skizzierte amerikanische Weg eines "seamless web" auf der einen Seite und des japanischen Wegs einer Breitbandverkabelung aller Haushalte auf der anderen Seite zeigt die mögliche Bandbreite. Während das amerikanische Konzept die Vielfalt der bestehenden Informations- und Kommunikationstechniken integrieren und "kompatibel" machen will und so nur eine allgemeine Zielvorstellung formuliert, ohne in die technische Entwicklung direkt einzugreifen, wird in Japan auf eine ganz neue Basistechnik, auf die Einführung eines neuen Systems gesetzt.

Eine ähnliche "Steuerungstiefe" besitzt der Vorschlag eines ATM-basierten europäischen "Datenhighways", den die anfangs erwähnte Studie von Booz, Allen & Hamilton für die EU macht. Solche politischen Infrastrukturentscheidungen sind aber unter den gegebenen Randbedingungen konkurrierender Akteure und anhaltend dynamischer Technikentwicklung riskant. Denn der ATM-Netzstandard ist keineswegs unumstritten, und ob er sich mittelfristig durchsetzen wird, ist offen. Mit ATM (Asynchronous Transfer Mode) werden teilweise Hoffnungen auf ein integriertes Datennetz mit universeller "ATM-Steckdose" in Haushalt und Büro verbunden, die in ähnlicher Weise Leitbild des ISDN-Konzeptes waren und dort bereits gescheitert sind. Die Kritiker, die ATM als "Another Terrible Mistake" bezeichnen, wenden insbesondere ein, daß ATM einen weitgehenden Systembruch zu den bestehenden Netzwerktechnologien bedeute, der so nicht durchführbar sei. [29]

Auch bisher waren mittel- und langfristig wirksame Infrastrukturentscheidungen nicht ohne Risiko, doch dieses Risiko nimmt auf Basis der heutigen digitalen, computerbasierten Techniken in einem früher unbekannten Ausmaß zu. Dies hängt wesentlich mit einigen besonderen Eigenschaften digitaler Netze zusammen.

Zunächst kann man feststellen, daß die neuen Netze (und dazu zählen heute nicht nur die speziellen Daten- und Computernetze und das Internet, sondern auch die Telekommunikations- und die digitalen Rundfunknetze) als verteilte Computersysteme aufgefaßt werden müssen, die auf einem gemeinsamen digitalen Code basieren. Dieser digitale Code ist sowohl für die Funktionsweise des Netzes maßgeblich als auch für die zu übertragenden Daten und Anwendungen. Während z.B. in der alten Fernsprechnetztechnik die Funktion der "Vermittlung" in einer besonderen elektromechanischen Schalttechnik und die Technik der Sprachübertragung davon völlig unabhängig realisiert waren, sind solche Trennungen in den digitalen Netzen aufgehoben. Die in den computerbasierten Netzen vorfindbaren Programme und die zu transportierenden Daten (oder um ein Bild aus der materiellen Produktion zu nehmen, die Verarbeitungsmaschinen und die Werkstoffe) sind prinzipiell nicht unterscheidbar; sie werden im gleichen Code dargestellt und unterliegen prinzipiell den gleichen Verarbeitungsgesetzmäßigkeiten. Dies führt dazu, daß sich die "Daten", die in digitalen, computerbasierten Netzen transportiert werden, in "Programme" verwandeln und damit die Funktionsweise des Netzes verändern können. Damit wird auch in diesen Netzen die allgemeine Eigenschaft des Computers offensichtlich, eine "abstrakte, universelle Maschine" zu sein, die sich in je konkrete "Maschinen" verwandeln kann.

Für die alten Informationsinfrastrukturen war die Vorstellung vom "Transport" von Daten oder Information noch angemessen. Im Idealfall übertrug der "Transportkanal" die zu transportierten Inhalte unverändert und unbeeinflußt vom Sender zum Empfänger. Veränderungen und Beeinflussungen waren als "Störungen" zu verhindern. Für die neuen digitalen Netze läßt sich dieses "Transportparadigma" nicht mehr aufrechterhalten. An dessen Stelle tritt ein "Interpretations- und Verarbeitungsparadigma", das zum Ausdruck bringt, daß die übermittelten Daten an vielen Stellen auf ihrem Weg vom Sender zum Empfänger analysiert, interpretiert, umkodiert und verarbeitet werden.

Schließlich sind auch die ganz unterschiedlichen Ausprägungen und Erscheinungsformen der Anwendungen in den digitalen Netzen in dem gemeinsamen digitalen Code repräsentiert. Dieser digitale Code ist "gleichgültig" gegenüber den konkreten Anwendungen, was ihre Offenheit und Flexibilität ausmacht. [30]

An einigen Beispielen sollen die Folgen dieses technologischen Umbruchs veranschaulicht werden. Die Nutzung des Internet als multimediales Informationssystem, in dem heute Radio- und Fernsehsendungen abgerufen und sogar telefoniert werden kann, lag keineswegs im ursprünglichen Erwartungshorizont der Internet-Entwickler. Gerade die Internet-Telefonie ist ein gutes Beispiel für die neuartige Flexibilität der digitalen Netze und für die regulativen Probleme, die dabei entstehen. Wenn auch das offizielle Datum für die Liberalisierung des Sprachtelefondienstes in Deutschland erst der 1.1.1998 ist, so kann man doch argumentieren, daß mit den Aufkommen der ersten Internet-Telefonie-Systeme 1995 das Sprachtelefonie-Monopol der Deutschen Telekom faktisch durchbrochen wurde. Es ist kaum vorstellbar, wie die "Kannibalisierung" des Internet für die Telefonie verhindert werden kann, selbst wenn dies durch gesetzliche Regelungen versucht werden würde.

Solomon nennt als ein Beispiel für eine völlig überraschende Entwicklung im Internet das Aufkommen der WWW-Browser. Er argumentiert weiter, daß die Netzbetreiber mit der Anwendungsoffenheit der digitalen Netze immer mehr die Fähigkeit zur Kontrolle ihrer Netze verlieren. "For telecommunications operations and operators, the stored-program paradigm, which allows digital-computers to modify their own instructions, and which mixes instructions with information (or data), thereby creating both the conditions and necessity for virtual networking, is the key to its paradox: The more capability that is built into a digital communications network, the more the carrier loses control of its operation to its customers or to other carriers. ... distributed power blurs the identity of carriers and customers". [31]

Ein Beispiel aus einem Bereich, der nicht direkt dem Internet oder den Computernetzen zuzuzählen ist, sind die in Entwicklung und Erprobung befindlichen neuen digitalen Rundfunkstandards wie DAB (Digital Audio Broadcasting). Wurde DAB ursprünglich entwickelt, um den UKW-Rundfunk abzulösen und mit neuen "multimedialen" Eigenschaften zu ergänzen, so ist heute keineswegs klar, ob sich DAB überhaupt bzw. ob es sich als Hörfunkstandard durchsetzen wird. Alternative Nutzungsformen zum Einsatz von DAB als Hörfunkstandard, wie "databroadcast" oder Bewegtbildübertragung, sind technisch machbar und werden diskutiert. Gleichzeitig gibt es für den Hörfunkbereich eine Reihe konkurrierender Standards, nicht zuletzt der später entwickelte neue digitale Fernsehstandard DVB (Digital Video Broadcasting), der selbstverständlich auch für den Hörfunk einsetzbar ist. Alle diese digitalen Übertragungssysteme sind gegenüber den zu übertragenden "Inhalten" weitgehend gleichgültig. Letztlich werden nur Bits übertragen, die an definierten Ein-/Ausgabeschnittstellen durch "Computer" interpretiert und verarbeitet werden, um dann an weitere Computer weitergereicht oder in Bild- und Tonsignale "verwandelt" zu werden. [32]

All diese Beispiele zeigen auch, daß die Veränderungsdynamik in diesen Bereichen sehr hoch und mit Technologiesprüngen immer zu rechnen ist, was eine vorlaufende Steuerung gleichfalls erschwert. D.h. nicht unbedingt, daß die Entwicklungs- und Implementationszeiten in jedem Fall sehr kurz wären. Der DAB-Standard z.B. geht auf Entwicklungen in den frühen 80er Jahren zurück und hat auch nach reichlich 10 Jahren einen Marktdurchbruch nicht erreicht. Aber gerade die für Implementation von Netz- oder Rundfunkstandards, bei denen eine Vielzahl technischer, ökonomischer, organisatorischer und rechtlicher Fragen mit einer Vielfalt von Akteuren abzustimmen sind, steht heute nur ein relativ begrenztes Zeitfenster zur Verfügung, da ansonsten bereits neue technische Entwicklungen auf den Markt drängen. Der Zeitraum für den Einsatz der verschiedenen Telefonstandards (für Mobilfunk, drahtlose Telefonie, Satellitentelefonie) z.B. nahm in letzten 30 Jahren immer weiter ab. [33]

Schließlich ist eine zunehmende Fragmentierung der digitalen Informations- und Kommunikationstechnologien feststellbar. Mansell hat dies in ihrer Untersuchung der sogenannten "Intelligent Networks" (IN, computer- und datenbankbasierte Telekommunikationsnetze) nachgewiesen, ein Ansatz, der eigentlich auch die Vereinheitlichung und Integration der unterschiedlichen Telekommunikationsnetze und -dienste anstrebte. [34] Aber alle diese großen integrativen Systementwürfe, vom ISDN, übers IN, zum B-ISDN und schließlich zu ATM, konnten sich zwar in einzelnen Sektoren durchsetzen, ihren umfassenden Integrationsanspruch aber nicht erfüllen. In doppelter Weise verweisen diese Fragmentierungstendenzen auf die Offenheit und Flexibilität der digitalen Technologien wie auf die Schwierigkeiten, steuernd darauf Einfluß zu nehmen. War man beispielsweise mit ISDN ursprünglich angetreten, die spezialisierten Telekommunikationsnetze abzuschaffen und alte und neue Dienste auf Basis von ISDN zu integrieren, so stellt sich ISDN heute als nur ein Datenübertragungsstandard unter anderen dar.

Halten wir zusammenfassend fest: die neuen digitalen und computerbasierten Informations- und Kommunikationsnetze sind durch eine weitgehende Flexibilität und Anwendungsoffenheit, durch ihre "Programmierbarkeit", aber auch durch eine hohe Veränderungsdynamik und durch die Konkurrenz unterschiedlicher Ansätze und Standards gekennzeichnet. Dies geht einher mit einer Tendenz zur Fragmentierung vormals einheitlicher Systeme in Subsysteme und Systeminseln. Insgesamt eröffnet dies nur geringe Steuerungsmöglichkeiten, im Sinne längerfristiger, geplanter und zielgerichteter Einflußnahme auf die Entwicklung und Durchsetzung von infrastrukturellen, digitalen Kommunikationssystemen. Man könnte auch sagen, daß mit der Zunahme der Flexibilität und Variabililtät der digitalen, computerbasierten Informationsinfrastrukturen die Möglichkeiten ihrer Steuerung abnehmen.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

2.3 Neue Wege der Techniksteuerung

Die einfache Gegenüberstellung von Staat und Markt, Dirigismus und Liberalismus kann die Vielfalt vorfindbarer Steuerungsformen nicht adäquat erfassen. [35] Willke zeigt, daß beide Modelle an den Komplexitätsanforderungen heutiger Problemlagen scheitern. Das evolutionäre Marktmodell treibt eine Komplexität hervor, die sich in einen größeren gesellschaftlichen Zusammenhang nicht mehr einfügen läßt. Der staatliche Planungsansatz scheitert an der Unterdrückung gesellschaftlicher Komplexität. Auch die populäre Zwischenform der wohlfahrtsstaatlichen sozialen Demokratie sei an ihre Grenzen gestoßen, in dem sie aus dem Zirkel der Selbstüberlastung der Politik und der damit verbundenen Verfremdung der Ökonomie für politische Sekundärziele nicht herauskomme. [36] So begibt sich Willke, wie vorher auch schon Seeger und Kubicek [37] , auf die Suche nach einem "Dritten Weg", der die "Zyklen von Regulierung und Deregulierung, Verstaatlichung und Entstaatlichung, Etatisierung und Privatisierung, mehr Steuerung und mehr Autonomie, mehr Markt und weniger Markt, mehr Staat und weniger Staat" überwindet. [38] "Dritter Weg" bedeutet zunächst nichts anderes als die Einsicht, daß es nicht darum gehen kann, daß das Pendel vom Deregulierungsansatz zum Staatsinterventionismus zurückschwingt.

Nicht zuletzt durch die unterschiedlichen Bewertungen der Steuerungsmöglichkeiten der Steuerungsakteure, insbesondere des Staates, und der Steuerbarkeit der Steuerungsobjekte, unterscheiden sich die gemachten Vorschläge, die hier nur kurz skizziert werden können. Insbesondere ist eine Bewertung dieser Vorschläge schwierig, weil ihre praktische Umsetzung erst in Ansätzen zu beobachten ist, und eine systematische Evaluation deshalb noch aussteht.

Kubicek geht von der Notwendigkeit einer "dualen Informationsordnung" aus. [39] Steuerungstheoretisch basieren diese Vorstellungen m.E. darauf, daß der Staat "Kompetenzen", über die er formal noch verfügt, sie aber faktisch nicht mehr ausfüllen kann, nicht leichtfertig weggeben und verspielen sollte. Der Staat sollte vielmehr diese Kompetenzen in die Auseinandersetzung mit den sonstigen Akteuren als "Handels- oder Tauschobjekte" einbringen, um übergeordnete, gesellschaftliche Ziele zu verwirklichen. Dies kommt z.B. in den Vorschlägen Kubiceks zum Tragen, die Vergabe von Telekommunikationslizenzen oder die Nutzung öffentlichen Bodens für die Verlegung von Telekommmunikationsleitungen ("Wegerecht") an die Bedingung zu knüpfen, öffentliche Einrichtungen wie Schulen, Bibliotheken, Krankenhäuser mit Telekommunikationsanschlüssen zu versehen. [40] Auch das viel zitierte Modell der "public-private-partnership" kann ja, wenn überhaupt, nur dann funktionieren, wenn beide Seiten in diese Partnerschaft spezifische Ressourcen einbringen können, über die die Gegenseite nicht verfügt, aber an der sie ein Interesse hat. Eine "public-private-partnership", die auf den Altruismus der Akteure baut, wird dagegen schwerlich überlebensfähig sein.

Während Kubicek eher von der Verwirklichung politischer Zielvorstellungen her denkt, verknüpft Willke seine Vorstellungen von Kontextsteuerung mit einem besonderen Typus von Gütern, die er "kollaterale Güter" nennt. Typischerweise sind für die Produktion kollateraler Güter sowohl die private Wirtschaft als auch der Staat allein zu schwach. Nur in der Kooperation der beiden Akteure Staat und Wirtschaft lassen sie sich erbringen. Zu den kollateralen Gütern zählen insbesondere infrastrukturelle Systeminnovationen, die komplexer und langfristiger Natur sind und einer regulatorischen Absicherung bedürfen. Als ein Beispiel mag eine multimediale Informationsinfrastruktur gelten. [41]

Beim Konzept der Kontextsteuerung nimmt Willke den Konflikt zwischen weitgehend selbstorganisiertem Handeln der großen gesellschaftlichen Subsysteme und der dadurch bedingten Gefahr der Desintegration des gesellschaftlichen Zusammenhangs auf und weist dem Staat nicht nur die Moderatoren- und Supervisionsrolle zu, sondern auch die Aufgabe der Schaffung geeigneter Rahmenbedingungen. Doch die Kontextsteuerung ist mit eigenen Problemen behaftet. Die Eigenlogiken der Subsysteme können gegenüber der Politik ein Übergewicht gewinnen, weil die Politik ihre Sonderolle, aus der heraus sie einen übergeordneten Konsens einfordern könnte, verloren hat. Wie kann dann aber eine Verbindlichkeit von Entscheidungen erreicht werden? Schließlich ist die Kontextsteuerung mit erheblichen Kommunikationskosten belastet, die im Extremfall das ganze Konzept in Frage stellen können. [42] Es wären einige gründlich untersuchte Fallbeispiele nötig, bei denen die Kontextsteuerung praktisch umgesetzt wurde, um ihre Chancen und Probleme besser beurteilen zu können. Der Mißerfolg des Stuttgarter Multimedia-Pilotversuchs, der durchaus als ein Beispiel von Kontextsteuerung angesehen werden kann, scheint zunächst die Überlegenheit dieses Steuerungsmodells nicht nahezulegen. Dagegen repräsentieren die Multimedia-Pilotversuche von Time Warner in Orlando, USA (Full Service Network) und der Vebacom (bzw. von o-tel-o) in Nordrhein-Westfalen (Infocity NRW) eher hierarchische Steuerungsformen, wovon der mittlerweile abgeschlossene Pilotversuch in Orlando eine durchaus positive Bilanz aufzuweisen hat. [43] Aber auch diese These müßte durch eine genauere Analyse der genannten Beispiele weiter untermauert werden. Natürlich verspricht auch Willke nicht, daß mit der Kontextsteuerung schnelle Erfolge zu erzielen wären. Ohne den (langwierigen) Aufbau geeigneter Institutionen ("institution building") und Kompetenzen wird die Kontextsteuerung nicht die erhofften Ergebnisse zeitigen. [44]

Hofmann-Riem spricht von einer angepaßten, weichen Steuerung, einer Regulierung durch Selbstregulierung bzw. der Notwendigkeit der Re-Regulierung im Medien- und Kommunikationssektor. Er verbindet inhaltliche Zielvorstellungen für eine Medienordnung mit strukturellen Überlegungen. Inhaltlich geht es ihm um die Absicherung von Medienvielfalt und die Verhinderung von einseitiger Machtzusammenballung; um die Absicherung gesellschaftlich als bedeutsam anerkannter Kommunikationsangebote, auch wenn die Marktstimuli zu ihrer Produktion nicht ausreichen; um Medienkompetenz bei den Bürgerinnen und Bürgern, zur Verhinderung manipulativer Strategien der Kommunikationsfilterung. Der Staat habe ein Umfeld zu garantieren, um die Verfolgung solcher Ziele in weitestgehender Selbstregulation der Beteiligten zu ermöglichen. [45]

Eine weitere Auffächerung der Diskussion um neue Steuerungsformen bzw. um eine neue Sicht auf das Steuerungsproblem soll hier nicht erfolgen. [46] All diesen Überlegungen, Ansätzen und Konzepten ist gemeinsam, daß sie versuchen, eine neue Balance zu finden zwischen Planung und Evolution, zwischen Selbststeuerung und Fremdsteuerung. Übereinstimmung herrscht darin, daß mehr Akteure in die Technikentwicklungsprozesse involviert bzw. in der Techniksteuerung zu berücksichtigen sind und daß der Gegenstand der Steuerung selbst differenzierter, dynamischer und komplexer, auch prinzipiell offener und schwieriger faßbar geworden ist. Die Anstrengungen richten sich dabei nicht in erster Linie darauf, die Steuerungskompetenz (im Sinne einer "Durchgriffsmacht") der Akteure zu stärken oder die Steuerungsobjekte durch Komplexitätsreduktion "gefügiger" zu machen. Die Anstrengungen richten sich vielmehr darauf, die Fähigkeiten der Systeme (bzw. der Akteure) zu steigern, mit der wachsenden Kontingenz umzugehen. Korporative Verhandlungssysteme, Stärkung der Selbstbeobachtungsfähigkeit der Systeme, Verhinderung von Machtungleichgewichten, Schaffung von Transparenz, Konfliktfähigkeit und Prozeduralisierung der Konfliktbewältigung sind Stichworte, die diese Richtung weiter konkretisieren. Dabei besteht bei diesen weichen Steuerungsansätze latent die Gefahr einer Legitimationskrise, da sie sich auf offene, voluntaristische, nicht weiter legitimierte Kommunikationsprozesse abstützen, und eine Diffusion von Zuständigkeiten und Verantwortlichkeiten befürchtet werden muß.

Im folgenden soll nun abschließend versucht werden, die hier allgemein geführte Diskussion auf die Steuerungsprobleme des Internet zu beziehen. Das Internet steht durch seine Wandlung vom staatlich geförderten und weitgehend selbstregulierten Wissenschaftsnetz zum kommerziell und global ausgerichteten Basisnetz für weltweite Informations- und Kommunikationsdienste vor erheblichen Herausforderungen. In der öffentlichen Diskussion besteht eine Tendenz, entweder diese Herausforderungen gar nicht zu erkennen, oder ihre Lösung der evolutionären Entwicklung zu überlassen. Damit ist das "Internet-System" vermutlich überfordert. So scheint es an der Zeit, mit der Diskussion über eine gesellschaftlich orientierte "Internet-Politik" zu beginnen. Ein Beitrag soll im folgenden dazu geleistet werden.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

3. Braucht das Internet eine "Internet-Politik"?

Diese Frage mögen vielen Internet-Aktivisten bereits als eine Provokation empfinden. Scheint sich das Internet doch gerade durch seine "Politikferne" auszuzeichnen, dadurch, daß nur die direkt Beteiligten, die Betroffenen und die Aktivisten bestimmen, was in und mit dem Internet passiert. Nun ist die Politikferne auch ein stückweit Legende, ist doch das Internet in seiner ersten militärischen und wissenschaftlichen Phase in den USA ein staatlich finanziertes Projekt gewesen, und wie einige behaupten, eines der besten Beispiele für eine erfolgreiche, staatliche Technologiepolitik. [47] Die in der Einleitung dieses Beitrags zitierte Kritik von Zorn lautet dann auch, daß die jetzt diagnostizierte Misere in Deutschland durch eine fehlende (oder falsche) "Internet-Politik" mitverursacht sei. Mit Internet-Politik ist dabei im folgenden nicht eine staatliche Übernahme des Internet oder staatliches Hineinregieren und Reglementieren impliziert, sondern es wird ein weites Politikverständnis zugrunde gelegt, wie aus dem vorangegangen Abschnitt deutlich geworden sein sollte.

Die Probleme im Umgang mit dem Internet sollen zunächst in einem Szenario veranschaulicht werden, in dem es um eine weit verbreitete Kommunikationstechnologie geht, das Telefon. Das bietet sich auch deshalb an, weil jeder Leser und jede Leserin mit dem Telefonieren vertraut sein wird, entsprechende Erfahrungen mit dem Internet aber nicht ohne weiteres vorausgesetzt werden können. Außerdem mag der Weg in die "Informationsgesellschaft" über die Zwischenetappe "Internet-Gesellschaft" gehen, aber die jetzige Entwicklungsstufe wird man unter dem Gesichtspunkt der Kommunikationsverhältnisse mit einigem Recht als "Telefongesellschaft" bezeichnen können. Man stelle sich also diese "Telefongesellschaft" in etwa wie folgt vor:

In der Regel erhält man nach 10 Uhr vormittags nur noch nach minutenlangem Warten eine Verbindung zum gewünschten Gesprächspartner und dann meist eine schlechte, störanfällige. Immer wieder kommt es vor, daß ganze Regionen telefonisch nicht zu erreichen sind, daß sie vom allgemeinen Telefonverkehr abgekoppelt werden, weil in diesen Regionen kriminelle Machenschaften vorkommen, die über das Telefon abgewickelt wurden. Außerdem wird es immer schwieriger, die Telefonnummer eines gewünschten Gesprächsparnters herauszufinden, da es zwar immer mehr Telefonnummernverzeichnisse gibt, keines davon aber auch nur eine annähernde Aktualität und Vollständigkeit aufweist.

Nicht viel anders läßt sich die gegenwärtige Situation im Internet beschreiben. Die Verbindungen sind nicht sehr zuverlässig, die Datenübertragung langsam und störanfällig; immer wieder kommt es zu "Reglementierungen" (oder "Sperrungen") von einzelnen Informationsangeboten; die Internet-Verzeichnisse, z.B. die sogenannten Suchmaschinen, sind zwar eine nützliche Hilfe, aber weder aktuell noch vollständig.

In der Öffentlichkeit werden die Probleme eines "nicht-bestimmungsgemäßen" Gebrauchs des Internet, wie die Nutzung für kriminelle Zwecke, politischen Extremismus oder Pornographie, besonders beachtet. Das wird im folgenden nicht behandelt werden, dafür die Probleme, die kennzeichnend sind für den bestimmungsgemäßen Gebrauch des Internet. Zwei Problemkomplexe werden dabei herausgegriffen: die Leistungsfähigkeit des Internet und Fragen des Zugangs zum Internet. Nach einer knappen Problembeschreibung geht es jeweils um die Entwicklung von Problemlösungsoptionen im Sinne einer Steuerungspolitik zwischen Markt und Staatsdirigismus.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

3.1 "World Wide Wait" - Aspekte der Leistungsfähigkeit des Internet

Warum die Warterei insbesondere bei der Nutzung des Wold Wide Web (WWW) in diesem Ausmaße hingenommen wird, ist schwer zu sagen. Vielleicht sind es ähnliche Mechanismen wie beim Autoverkehr: "Der Stau sind wir"! Es mag auch damit zusammenhängen, daß es im Internet keine wirklich zentrale Instanz gibt, die man für die schlechte "performance" verantwortlich machen könnte, wie dies z.B. ein Bundesverkehrsminister für den Straßenverkehr oder die Telekom für den Telefonverkehr wäre.

Vergleichende Leistungstests im Internet

Man weiß nicht einmal genau, wie gut oder schlecht die Datenübertragung im Internet wirklich ist. Systematische Untersuchungen sind rar und aufgrund der hohen Dynamik der Netzentwicklung mit ihrer Veröffentlichung meist bereits schon wieder veraltet. Außerdem sind solche Messungen, wie sie z.B. der DFN-Verein regelmäßig veröffentlicht oder die Vergleiche der Leistungsfähigkeit von Internet Service Provider eher technisch ausgerichtet. [48] Denn spannender als die experimentell getestete Datenübertragungsrate von einem Punkt X zu einem Punkt Y zu einem Zeitpunkt Z wäre zu wissen, mit welchen realen Wartezeiten die Nutzer des Internet Tag für Tag zu tun haben, um die Dimension dieses Problems wirklich realistisch beurteilen zu können. [49]

Damit sind wir schon bei einer ersten "weichen" steuerungspolitischen Forderung: Ein allseits akzeptiertes, regelmäßig durchgeführtes Testverfahren zur "Leistungsmessung" der Internet-Nutzung, dessen Ergebnisse natürlich veröffentlicht werden müßten, könnte schon allein eine Verbesserung der Situation bringen, wie ähnliche Tests (zu den Brieflaufzeiten bei der Post, die Pannen- und Mängelstatistik bei Kraftfahrzeugen von ADAC und TÜV oder die Tests der Stiftung Warentest) ihre unzweifelhafte Wirkung auf die Verbesserung von Dienstleistungen und Produkten ausüben. Solche Vergleichstest könnten z.B. ein Tätigkeitsfeld einer "Stiftung Medientest" sein. [50]

Nationales "backbone" und Übergabepunkte für alle Internet-Netzbetreiber

Die Leistungsfähigkeit des Internet hängt von einer Reihe von Faktoren ab, so von der Übermittlungsrate des "backbone", also einer zentralen Übertragungsstrecke für den überregionalen Datenverkehr, von der Leistungsfähigkeit der einzelnen Vermittlungsknoten, an denen die Datenpakete des Internet interpretiert und auf die richtige Strecke weiter geschickt werden müssen, von der Anzahl der Leitungen, die für die Endnutzer zur Einwahl in das Internet zur Verfügung gestellt werden, sowie von lokalen Gegebenheiten bei den Nutzern.

In bezug auf das Internet-Backbone in Deutschland muß man feststellen, daß es zwar "backbones" der großen Internet Service Provider (ISP) gibt, aber keinen gemeinsamen deutschen Internet-Backbone. Problematisch ist dies besonders deshalb, weil die einzelnen ISP-Backbones nicht vollständig in ein Netzwerk integriert sind. Um die Problematik dieses Zustands zu verstehen, muß man einen kleinen Ausflug in die Architektur des Internet machen.

Das Internet wird richtigerweise als ein Netz von Netzen gekennzeichnet, dessen gemeinsame Plattform die Nutzung der TCP/IP-Protokoll-Familie ist. Jedes einzelne Netz eines bestimmten Netzbetreibers besteht aus einer Reihe von Internet-Rechnern, die üblicherweise über feste Leitungen verbunden sind und den Datenverkehr zwischen diesen Rechnern ermöglichen. Alle Internet-Dienste, die nur Rechner dieses einen Netzes tangieren, verlassen den Netzraum dieses einen Netzes nicht. Das einzelne Netz kann dabei nur regional (z.B. INKA in der Region Karlsruhe), national (z.B. das DFN) oder supranational (z.B. AOL) ausgelegt sein. Sobald nun Rechner in einem anderen Netz angewählt werden sollen (z.B. ein WWW-Server) bedarf es einer Verbindung zwischen dem einen und dem anderen Netz. Da das Internet aus Tausenden von Einzelnetzen besteht, haben sich einige zentrale Verbindungsknoten herausgebildet, wo zwischen einer Menge von Einzelnetzen der Datenaustausch abgewickelt wird. In Deutschland gibt es solche Übergabepunkte z.B. in Frankfurt (DE-CIX) des ECO e.V., eines Verbundes größerer Internet-Service-Provider mit dem Anspruch, eine "neutrale" Vermittlung durchzuführen, oder in München (INXS) von ECRC, einem großen Internet-Zwischenhändler; in den USA gibt es z.B. die zentralen Übergabepunkte MAE-Ost und MAE-West.

Eine Besonderheit der deutschen Situation besteht nun darin, daß es keinen zentralen Übergabepunkte gibt, an den alle deutschen Teilnetze angeschlossen sind. Dies führt zu der absurden Situation, daß bestimmte Datenpakete aus einem deutschen (Teil-)Netz des Internet über Amerika geleitet werden müssen, um in einem anderen deutschen (Teil-)Netz anzukommen, nur weil diese beiden Netze in Deutschland an keiner Stelle miteinander, auch nicht indirekt über weitere Zwischennetze, verknüpft sind. Auf der einen Seite zeigt dieses Beispiel die Flexibilität des Internet, nach dem Motto "Alle Wege führen nach Rom", auch wenn man statt von Deutschland über die Alpen einen Weg über den Nordpol einschlägt. Auf der anderen Seite sind unter Gesichtspunkten der Ökonomie des Datentransports solche Umleitungen nicht besonders effizient. Die Forderung nach einem nationalen Backbone, an dem alle Internet-Provider partizipieren, und nach Übergabepunkten für alle deutschen Internet-Provider liegt auf der Hand.

Die Frage der Trägerschaft und Finanzierung ist damit noch nicht geklärt und wäre weitergehend zu diskutieren. Unterschiedliche Modelle sind vorstellbar. Es könnte z.B. eine freiwillige Verpflichtung aller Akteure in diesem Sektor sein, eine solche Basisinfrastruktur gemeinsam zu tragen und zu unterstützen; man könnte diese Aufgabe aber auch als eine öffentliche Aufgabe ansehen, obwohl eine solche Forderung in der heutigen politischen Situation fast als ein Sakrileg aufgefaßt werden wird. Daß dies in den USA und Kanada vielleicht weniger dogmatisch als pragmatisch gesehen wird, zeigt die Ankündigung der Clinton-Administration vom Oktober 1996, rund 500 Millionen Dollar innerhalb von fünf Jahren für die Ausweitung des Internet für breitbandige Verbindungen zur Verfügung zu stellen. Die Regierung von New Brunswick, Kanada, räumt sogar, im Rahmen einer Initiative zur Verbesserung der Informationsinfrastruktur in den ländlichen Gebieten, allen Käufern eines neuen Computers einen außerordentlichen Steuerrabatt von bis zu 250 US-Dollar ein. [51]

In Deutschland gibt es eine auf Art 87f, Abs. 1 des Grundgesetz fußende juristische Argumentation, die dem Staat die Verantwortung für eine "ausreichende und angemessene" Grundversorgung im Bereich des Internet auferlegen will. [52] Ob dies in jedem Fall eine sinnvolle Lösung wäre, soll an dieser Stelle nicht weiter diskutiert werden, aber man sollte auch bei einer solchen Forderung nicht vorschnell "Denkverbote" erlassen. Warum sollte, was für die Straßenverkehrsinfrastruktur gilt, und deren Qualität für Deutschland einen beachtlichen positiven Wettbewerbsfaktor darstellt, nicht auch für die Informationsinfrastruktur gelten können?

Offener Netzzugang und Zusammenschaltungspflicht auch im Internet

Die tatsächliche Entwicklung scheint in den USA wie auch in Deutschland eher auf eine weitere Differenzierung des Internet hinauszulaufen als auf eine bessere Integration der einzelnen Teilnetze. Diese momentanen Konfliktlinien hängen ganz wesentlich mit einem besonderen Modus des Datenaustauschs zwischen den Teilnetzen zusammen, der bisher, im "alten", von der Wissenschaft und ihren Institutionen geprägten Internet, auf Gegenseitigkeit beruhte. An all den Stellen, wo zwei Netze verknüpft waren, wurden die Datenpakete des anliefernden Netzes übernommen und gegebenenfalls an andere Netze weitergeleitet, ohne daß dafür eine besondere mengenmäßige oder sonstige Verrechnung vorgenommen wurde. Dieses, auch "Peering" genannte Verfahren wird, unter den Bedingungen des kommerziellen Betriebs des Internet, zunehmend aufgekündigt. Das ungelöste Peering-Problem ist einer der Gründe für die Nichtbeteiligung des DFN an dem kommerziell geführten, aber relativ bedeutenden deutschen Austauschpunkt DE-CIX. [53] In den USA haben eine Reihe der bedeutenden großen Internet-Service-Provider (MCI, Sprint, BBN (GTE), ANS (AOL) und UUNET) das kostenlose Peering für bestimmte, kleinere Internet-Netzbetreiber aufgekündigt. Wenn sich diese Politik durchsetzen wird, werden, so die Erwartungen in Amerika, von den derzeit rund 3000 aktiven Unternehmen in diesem Sektor weniger als 100 überleben. Dabei geht dieser Konflikt nicht in erster Linie darum, ob ein aufkommensabhängiger Zahlungsmodus beim Datenaustausch nicht berechtigt sei, sondern um die diskriminierende Macht großer Netzanbieter, über das Aufkündigen des Peering andere, kleinere Mitbewerber aus dem Markt zu drängen. [54]

Im Prinzip geht es hierbei um ein typisches Problem, das im Bereich der Telekommunikation unter dem Begriff der Zusammenschaltungspflicht und des offenen Netzzugangs verhandelt wird, bei dem es völlig unstrittig ist, daß es bei ungleichen Marktchancen zwischen Wettbewerbern regulativer Eingriffe bedarf, um diskriminierende Abschottungstendenzen großer Telekommunikatonsanbieter zu verhindern. Zur Zeit wird in der Bundesrepublik verhandelt, zu welchen Bedingungen die Telekom als ehemaliger Monopolist den ab 1998 auftretenden Konkurrenzunternehmen im Sprachtelefondienst ihre Zugänge zum Endkunden zur Verfügung stellen muß. Aufgrund gesetzlicher Regelungen im Telekommunikationsgesetz (TKG, Vierter Teil Offener Netzzugang und Zusammenschaltungen, Paragraph 33-39) haben die neuen Mitbewerber das Recht der Nutzung dieser Leitungen. Die Überlassung dieser Leitungen muß zu marktüblichen und diskriminierungsfreien Bedingungen erfolgen, die allerdings bilateral auszuhandeln sind. Im Falle eines durch die Verhandlungspartner nicht selbst lösbaren Konflikts muß die Regulierungsbehörde schlichtend eingreifen. Durch das 1996 verabschiedete Telekommunikationsgesetz wurde allerdings nicht geklärt, ob das Internet als Telekommunikationsinfrastruktur oder als Telekommunikations- oder Mehrwertdienst anzusehen ist.

In diesem Zusammenhang wären wieder eine Reihe von Forderungen denkbar: Man könnte fordern, daß alle Internet-Service-Provider (ISP), die das Internet öffentlich anbieten (also betriebsinterne Netze oder Netze für geschlossene Nutzergruppen ausgeschlossen), verpflichtet sind, sich an mindestens einen zentralen Internet-Austauschpunkt in Deutschland anzuschließen. Man könnte diese "starke" Forderung aber auch dahingehend abmildern, daß jeder öffentlich agierende ISP das Recht hat, sich an einen Austauschpunkt anzuschließen. Man könnte weiter alle ISPs darauf verpflichten, den Datenverkehr anderer Teilnetze in ihren Netzen weiterzuleiten, wobei eine gemeinsam getragene Regelung, nach welchen Prinzipien dies erfolgt (Prinzip der Gegenseitigkeit oder ein bestimmtes Verrechnungsverfahren) gefunden werden müßte. Auch hier mag offen bleiben, welche Rolle der Staat in diesem Prozeß spielt. Soweit die unmittelbaren Akteure die angesprochenen Probleme selbst regulieren, mag seine Rolle sehr beschränkt bleiben. Je mehr sich aber herausstellt, daß die Einzelinteressen der Beteiligten eher zu einer Zersplitterung und Fragmentierung führen als zu einer integrativen Fortentwicklung, um so mehr wäre der Staat in die Verantwortung zu nehmen, diese Konflikte aktiv zu moderieren, gegebenenfalls auch durch verbindliche Vorgaben zu regulieren.

Datenstaumeldungssystem

Ein ganz anders gelagerter Vorschlag, mit den Datenstaus im Internet umzugehen, beinhaltet die Etablierung eines Datenstaumeldungssystems analog den Verkehrsmeldungen im Rundfunk. Es mag eine Reihe prinzipieller und technischer Einwände gegen die Möglichkeiten und Fähigkeiten eines solchen Stauwarnsystems geben, aber man sollte diesen Gedanken auch nicht vorschnell verwerfen, bevor nicht wirklich gründlich und kreativ darüber nachgedacht wurde. Dies wäre jedenfalls eine Maßnahme, die beispielsweise durch eine staatliche Forschungsförderung angestoßen, die Selbstregulationsfähigkeit des Internet aufgrund besserer Selbstbeobachtung stärken würde.

Verkehrsabhängige Gebühren im Internet

Schon länger ist in der Diskussion, über einen Preismechanismus den Datenverkehr zu regeln. Während unter Bedingungen einer Unterlast des Netzes eine pauschale Nutzungsgebühr (flat rate) aufgrund des hohen Fixkostenanteils des Netzes als angemessen gilt, soll für Zeiten der Netzüberlast eine mengenabhängige Gebühr verlangt werden, wobei den Nutzern die Wahlmöglichkeit gegeben wird, ihre Datenpakete mit bestimmten Transportprioritäten zu versehen, wie man es bei der gelben Post mit der Unterscheidung in einen Standardbrief und einem Eilbrief kennt. Diese Gebühren werden einerseits die Nutzer davon abhalten, in Zeiten der Überlast bestimmte Datenübertragungsleistungen zu verlangen, und somit zur Reduzierung des Stauproblems beitragen. Andererseits sollen die zusätzlichen Einnahmen aus den Überlastgebühren in den Ausbau der Netzinfrastruktur investiert werden und so eine bedarfsgerechte Fortentwicklung gewährleisten. [55]

Förderung technischer Innovationen

Auch technische Innovationen werden dazu beitragen, die Leistungsfähigkeit des Internet weiter zu erhöhen. Dazu gehört z.B. die Einführung des neuen Internet-Protokolls IPv6, das u.a. eine effizientere Adressierung der Datenpakete verspricht. [56] Auch eine neue Generation des HTTP-Protokolls, des Basisprotokolls im WWW, wird Effizienzverbesserungen bringen. [57] Verbesserte Übertragungsstandards und -technologien (ADSL, Kabelmodem, Wireless-Lan etc.) sowie Kompressionstechniken lassen weitere Leistungssteigerungen der Datenübertragung erwarten. Zwar wurden für die Entwicklung solcher Technologien immer auch öffentliche Forschungsgelder eingesetzt, ob aber eine "Internet-Politik" Einfluß auf die technologische Ausgestaltung im einzelnen nehmen sollte, ist sicherlich sehr viel kritischer zu bewerten. Man könnte sich ja z.B. vorstellen, daß ein staatliches Programm initiiert wird, um ISDN zum Normanschluß in den Haushalten zu machen, oder ein Programm, das massiv die Umstellung auf das neue Internet-Protokoll IPv6 oder die Einführung von leistungsstarken Kabelmodems fördern würde. Eine solche "Fremdsteuerung", wo die Politik massiv in die Verhältnisse eines anderen Bereiches "hineinregieren" würde, hätte wahrscheinlich ein größeres Risiko des Mißlingens als die Chance des Erfolgs und wäre so nur mit besonders guten Gründen in besonderen Situationen zu verfolgen. Man kann dabei etwa an das Minitel in Frankreich denken, das sich aufgrund massiver staatlicher Unterstützung in den 80er Jahren zu einem der weltweit erfolgreichsten endnutzerorientierten elektronischen Informationssystem entwickelte, sich heute aber in bezug auf die Verbreitung des Internet in Frankreich als Innovationshindernis darstellt.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

3.2 Zugangsprobleme im Internet

Beim Zugangsproblem sollen drei Aspekte aufgegriffen werden, die besonders offensichtlich sind. Erstens der Endnutzerzugang zum Internet; zweitens der prinzipielle (technische) Zugang zum Gesamt der Inhalte des Internets; drittens die Hilfsmittel zur Erschließung der Inhalte des Internet.

Endnutzerzugang

Um als Endnutzer zum Internet einen Zugang zu erlangen, ohne mit dem eigenen Rechner selbst Bestandteil des Internet zu sein, wählt man sich normalerweise über eine (analoge oder digiale ISDN-)Telefonleitung bei einem Internet Service Provider in einen Zugangsrechner für das Internet ein. Neben den oben behandelten Problemen bei der Datenübertragung treten bei der Einwahl immer dann Probleme auf, wenn nicht genügend Leitungen zur Verfügung stehen, der Rechner also "besetzt" ist. Aus Amerika ist der spektakuläre Fall bekannt, daß nach einer Tarifänderung bei AOL (Einführung eines zeit- und mengenunabhängigen Pauschalpreises von 19,95 US-Dollar im Dezember 1996 für den Zugang zum Internet) die vorhandenen Einwahlknoten total überlastet waren und mittlerweile im Zuge einer "Class-Action"-Klage nach dem kalifornischen Verbraucherschutzrecht AOL die eingenommenen Gebühren an seine Kunden teilweise zurückzahlen mußte. [58]

In der Regel ist nicht bekannt, wie viele Leitungen pro Kunde beim jeweiligen Anbieter zur Verfügung stehen, was immerhin eine wichtige Information wäre, um den sowieso latent intransparenten Bereich von Kommunikationsdienstleistungen für den Endkunden aufzuhellen. Soweit Angaben verfügbar sind, schwanken diese sehr stark und sind nicht unbedingt sehr verläßlich. Bei AOL sollen 1996 (vor der Preisreform) auf eine Leitung 33 Kunden gekommen sein. Anfang 1997, nach einem massiven Netzausbau, sollen es pro Leitung 20 Kunden gewesen sein. Für Internet Service Provider in den USA gilt ein Verhältnis von 1 zu 10 bis 1 zu 20 als üblich, während ein kleiner deutscher Anbieter für einen weitgehend ungestörten Zugang ein Verhältnis von 1 zu 8 angibt. In dieser Größenordnung, eine Leitung für sieben Kunden, bewegen sich auch die Verhältnisse bei Bell Atlantic für das lokale Telefonnetz, um eine Vergleichszahl aus dem Telefongeschäft zu nennen. [59]

Eine Minimalforderung an die Internet-Anbieter könnte nun z.B. sein, daß sie bei Vertragsabschluß eine Erklärung über das von ihnen garantierte Mindestverhältnis von Kunden und Einwahlleitungen abgeben, und zu einer regelmäßigen Offenlegung dieser Kennzahl verpflichtet werden. [60] Solche Offenlegungspflichten über für den Kunden nur schwer direkt erkennbare Leistungen sind auch aus anderen Bereichen des Wirtschaftslebens bekannt. Man denke etwa an die in der Folge der Energiekrise der 70er Jahre eingeführte Kennzeichnungspflicht von Haushaltsgeräten, was ihren Energie- und Wasserverbrauch betrifft. Eine weitergehende Forderung wäre die Verpflichtung für alle öffentlich auf dem Markt agierenden Internet-Anbieter auf einen Mindeststandard in bezug auf das Verhältnis Einwahlleitung zu Kunden. Auch solche Mindestverpflichtungen sind aus anderen Bereichen bekannt, so z.B. die Auflage für die Mobiltelefonbetreiber, bis zu einem bestimmten Zeitpunkt eine flächendeckende Versorgung des Bundesgebiets zu erreichen.

Freier und ungehinderter Datenaustausch

Beim zweiten Zugangsproblem geht es um den ungehinderten Zugang zu den Informationsdiensten und -quellen im Internet. Durch einige spektakuläre Fälle in den letzten Monaten in Deutschland (Fall "Zündel", Fall "Radikal", Fall "Marquardt") wurde die Fähigkeit von Internet Service Providern, bzw. von Betreibern von Vermittlungsknoten, deutlich, bestimmte Bereiche des Internet abzukoppeln oder zu sperren.

Es soll an dieser Stelle nicht die breit diskutierte Frage der Verantwortlichkeit von Zugangsvermittler für fremde Inhalte diskutiert werden. [61] Es soll hier auch keine "Zensurdebatte" geführt werden. Die besagten "Zensurfälle" haben relativ deutlich gezeigt, daß die Sperrung in der Regel nicht sehr erfolgreich war, da eine wache Internet-Öffentlichkeit genügend Gegenmaßnahmen einleiten konnte, um die Sperrungsversuche zu konterkarieren.

Hier soll es um eine prinzipielle Bewertung der potentiellen Macht der Internet Service Betreiber gehen, fördernd und verhindernd auf den freien Datenaustausch im Internet Einfluß zu nehmen, jenseits spektakulärer juristischer "Fälle". Man denke z.B. daran, daß ein Internet Anbieter regelmäßig, aber ohne eine öffentliche Bekanntmachung, eine bestimmte Leitung einem externen Kunden exklusiv vermietet und eine allgemeine Nutzung in diesem Zeitraum ausschließt. Man denke an einen Anbieter, der die eigentlich bestehende Verbindung zu einem konkurrierendem Netzbetreiber immer wieder in unregelmäßigen Abständen abschaltet, um diesem Konkurrenten zu schaden. Man mag ein solches Verhalten in etwa vergleichen mit einer großen Spedition, die auch einen Container-Umladeplatz betreibt, und dort die Container der konkurrierenden Spedition immer zuletzt verlädt. Oder man denke an die Diskussion im Medienbereich über die Gefahren horizontaler Konzentration, wenn die gleichen Institutionen, die über die Verbreitungswege verfügen (Kabel oder Satelliten z.B.) auch in der Vermarktung von Programmen aktiv sind und zwangsläufig ihre eigenen Produkte im Transport bevorzugen. Das Argument, daß der Kunde in der freien Marktwirtschaft sich sofort einen anderen, "besseren" Anbieter suchen könnte, trifft nicht den Kern des Problems. Abgesehen davon, daß solche Wechsel immer mit zusätzlichen Kosten verbunden sind, die man gerne vermeiden will, und abgesehen davon, daß eine mangelhafte Leistungserbringung nicht einfach hingenommen werden kann (immerhin zahlt der Kunde ja für die zu erbringende Leistung), scheint m.E. das Hauptproblem darin zu liegen, daß der Kunde in aller Regel das auftretende Zugangsproblem gar nicht als Problem einer "partiellen Sperrung" erkennen kann. Bei der Komplexität des Internet kann der Endnutzer nicht zuverlässig erkennen, ob er einen angewählten Server im Internet nicht erreichen kann, weil dieser nicht mehr existiert, weil der Server überlastet ist oder weil der Verbindungsaufbau bereits auf dem Weg zum Ziel unterbrochen wird. Da es viele, unterschiedliche Gründe für die Nichterreichbarkeit eines bestimmtes Angebots zu einem bestimmten Zeitpunkt geben mag, wird der Verdacht einer willentlichen Einschränkung vermutlich nicht an erster Stelle aufkommen.

Wieder sind eine Reihe von Forderungen und Regelungen denkbar. So die Forderung, daß die Betreiber von Vermittlungsknoten verpflichtet werden, im Rahmen der Gesetze, den freien und ungehinderten Datenverkehr ohne willkürliche eigenständige Eingriffe zuzulassen. Ein weiterer Vorschlag, der wieder mehr auf die Herstellung von Transparenz abzielt, wäre die Einführung einer Informationspflicht bei allen Maßnahmen, die den freien Datenverkehr beeinflussen, mögen es nun technische Störungen oder willentliche Eingriffe sein. Informatiker mögen begründen, warum es nicht möglich sein sollte, von der Stelle, an der der Datenfluß aufgehalten wird, wenn er das eigentliche Ziel noch nicht erreicht hat, eine Meldung an den Nutzer zurückzugeben, die diese Stelle und den Grund der Unterbrechung benennt.

Erschließung der Quellen im Internet

Schließlich sei auf eine dritte Variante des Zugangsproblems hingewiesen. Bekanntlich ist das Internet eine unkoordinierte Menge von dezentralen Informationsquellen, in den Augen einiger Beobachter gar ein "Informationschaos". Zugang kann man hier nur zu bestimmten Inhalten finden, wenn man von ihnen bereits weiß (und ihre genaue Internet-Adresse kennt), oder wenn es geeignete Suchhilfen hierfür gibt. So war ohne Zweifel das Aufkommen der sogenannten "Suchmaschinen" im Internet erneut ein Beleg für die Selbstorganisationsfähigkeit des Internet, für die Schaffung praktikabler Lösungen für bestehende Probleme und für die Segnungen privatwirtschaftlicher Initiativen - obwohl man auch hier nicht vergessen sollte, daß viele der großen amerikanischen Suchmaschinen aus universitären Projekten hervorgegangen sind. Gleichwohl gibt es eine Reihe problematischer Aspekte dieser Suchmaschinen:

Suchmaschinen sind inhaltliche Erschließungsinstrumente für Informationssammlungen, wie dies Bibliothekskataloge, Literaturdatenbanken oder Review-Zeitschriften z.B. auch sind. Soweit es sich bei letzteren um unabhängige und inhaltlich anspruchsvolle Erschließungsinstrumente handelt, was den Grad der Vollständigkeit, der Aktualität und der inhaltlichen Aufgliederung angeht, konnten sie bisher alle nur durch öffentliche Finanzierung erstellt werden. Die Hoffnung, durch automatisierte, computerunterstützte Verfahren deutliche Effektivitätsgewinne zu erzielen, die auch ein privatwirtschaftliches Engagement und damit den Rückzug des Staates aus dieser Aufgabe ermöglichen könnte, schien mit den Suchmaschinen erreichbar. [66] Doch die Paradoxien der Automatisierung wurden oben referiert und führen zu neuen Schichtungen im endlosen Prozeß der Informationserzeugung und Informationserschließung: Meta-Suchmaschinen sei hier als Stichwort genannt.

Gleiche Informationschancen aufgrund gleicher Zugangschancen, eine Grundforderung demokratischer Gesellschaften, sind auf Grundlage des derzeitigen und absehbaren Angebots an Suchmaschinen im Internet in Frage gestellt. Die Problematik ist ähnlich der der elektronischen TV-Guides im Fernsehszenario der Zukunft mit 500 Kanälen. Wer über den TV-Guide verfügt, hat einen zentralen Hebel zur Beeinflussung der Nutzung der Fernsehprogramme in Händen. Eine diskriminierungsfreie und unbeeinflußte Berücksichtigung aller Programme ist eine Grundvoraussetzung für einen freien Wettbewerb. Ähnlich gelagert ist die Situation mit Telefonbüchern bei konkurrierenden Telefonanbietern. Paragraph 12 des TKG sieht eine entsprechende Offenlegungs- und Weitergabepflicht der Teilnehmerdaten für die Erstellung von Nummernverzeichnisse für alle Sprachtelefondienstlizenznehmer vor.

Für die Erschließungsinstrumente im Internet wären die folgenden Forderungen und Regelungen denkbar. Gegen eine aktive Diskriminierung von Inhaltsanbietern könnte die Verpflichtung für die Suchmaschinen-Betreiber aufgestellt werden, alle ihnen angebotenen Inhalte (so weit sie in ihren Suchraum gehören) auch aufzunehmen. Zur besseren Beurteilung der Qualität der Suchmaschinen könnte die Verpflichtung auf Offenlegung der Kriterien für die Sammlung, Aufnahme, Erschließung und Relevanzbewertung ihrer Inhalte stehen. Will man das Erschließungsinstrument Suchmaschine durch öffentliche Maßnahmen nicht wesentlich ergänzen oder unterstützen, sondern in privater Hand belassen, dann könnte man immerhin regelmäßige Vergleichstest, beispielsweise durchgeführt von der schon angeführten "Stiftung Medientest", veröffentlichen und die Beteiligten mit entsprechenden Leistungszertifikaten ausstatten.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

4. Fazit

Am Beispiel des Internet wurde gezeigt, daß es eine Reihe von Problemen in der Entwicklung der Strukturen und in der Nutzung gibt, die nicht ohne weiteres "von allein" gelöst werden. Wird der Stellenwert einer Informationsinfrastruktur, heute speziell des Internet, für die gegenwärtige gesellschaftliche Entwicklung, die als Übergang zu einer "Informationsgesellschaft" gekennzeichnet wird, als sehr wichtig eingeschätzt, dann steht die Formulierung einer angemessenen "Internet-Politik" auf der Tagesordnung. Die Diskussion der letzten Jahre über politische Steuerung im allgemeinen und Techniksteuerung im besonderen hat allerdings gezeigt, daß der Staat nur über eine äußerst begrenzte Steuerungskompetenz verfügt. Die digitalen, computerbasierten Netze, die Objekt einer solchen Steuerung sein sollten, sind ebenfalls wenig "steuerungsfreundlich". Eine direkte, politische Einwirkung auf die Entwicklung des Internet ist deshalb weder sinnvoll noch möglich. Statt dessen geht es darum, Forderungen und Regelungen zu entwickeln, die eine indirekte, weiche Steuerungsform ermöglichen. Solche Vorschläge wurden am Beispiel der beiden Problemfelder Leistungsfähigkeit und Zugang entwickelt und zur Diskussion gestellt.

Damit ist gleichwohl die Frage nicht beantwortet, in welcher Form solche Regelungen "implementiert" werden können. Sollen die oben diskutierten Forderungen Teil eines "Internet-Gesetzes" werden [67] oder genügen öffentliche Appelle? Bevor dies zu entscheiden, vermutlich auch in sehr differenzierter Form zu beantworten ist, sollte die Politik eine übergeordnete Verantwortung anerkennen, die sich zunächst in der sorgfältigen Beobachtung und Analyse ausdrücken müßte. Diese "Supervision" mag dann im einen Fall zu einer moderierenden Initiative führen, an deren erfolgreichem Ende vielleicht eine "freiwillige Selbstverpflichtung" der beteiligten Akteure stehen könnte, z.B. wichtige, normierte Leistungskennzahlen ihrer Netze offenzulegen. Aus der Umweltschutzpolitik weiß man allerdings, daß freiwillige Selbstverpflichtungen unter einem Anreizmangel leiden. "Anreizmängel führen dazu, daß Selbstverpflichtungen entweder bereits inhaltlich anspruchslos formuliert werden oder bei anspruchsvollen Zusagen mit einem hohen Durchsetzungs- und Kontrollaufwand verbunden sind". [68] Die Autoren warnen weiter davor, daß der Staat durch "Selbstbindung" seine Kompetenzen und Sanktionsgewalt vorschnell aus der Hand gebe und dies seine zukünftige Problemlösekapazität deutlich einschränke.

Auch vertragliche Verpflichtungen zwischen Wirtschaftsunternehmen und dem Staat, z.B. über die Einrichtung einer "Stiftung Medientest" ("public-private-partnership") sind denkbar. Gesetzliche Maßnahmen oder staatliche Verordnungen sind ebenfalls nicht auszuschließen. Man denke z.B. an die Rechte und Pflichten der Internet Service Provider, analog der Telekommunikationsunternehmen, weder gegenüber Mitbewerbern diskriminierend aufzutreten noch gegenüber den Kunden willkürlich ihre Dienstangebote zu manipulieren. Anreizsysteme und Kompensationsgeschäfte wären eine weitere Form der "weichen" Techniksteuerung.

Als allgemeine Leitlinie einer "Internet-Politik" müßte gelten, durch eine Erhöhung der Transparenz zwischen den Akteuren, die Selbstregulationsfähigkeit zu stärken, durch Beteiligung der interessierten Kreise und der Öffentlichkeit, einen Interessenausgleich zu erreichen, durch die Formulierung von Mindeststandards und allgemeinen Basisregeln die Integration des Gesamtsystems zu gewährleisten, durch die Verhinderung einseitiger diskriminierender Maßnahmen durch wirtschaftlich dominierende Kräfte, den freien Wettbewerb zu garantieren und anzuregen. [69]

Danksagung

Eine Reihe von Informationen und Anregungen für diesen Beitrag erhielt ich von den Teilnehmerinnen und Teilnehmern des elektronischen Diskussionsforums "netzformum" (erreichbar unter http://duplox.wz-berlin.de/netze/netzforum). "Face to face" konnte ich mit meinen Kollegen Knud Böhle und Bernd Wingert diskutieren, die eine Manuskriptversion dieses Beitrags kritisch-konstruktiv gelesen hatten.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

5. Literatur

Heidi Bergmann, Karl L. Brockmann, Klaus Rennings: ZEW-Studie zu Selbstverpflichtungen im Umweltschutz - kein marktwirtschaftliches Instrument. In: TA-Datenbank-Nachrichten 5(1996), 3, S. 45-48, hier S. 47.

Vince Bielkski: David vs. Goliaths. http://www.villagevoice.com:80/ink/cyber.html (ohne Datum, Abruf am 22.5.1997; dieser Link ist im August 1998 nicht mehr aktiv).

Erich Bonnert: Kollapstherapie. 6. World-Wide-Web-Konferenz. In: Business Online 1997, Nr. 5, S. 78.

Edelgard Bulmahn, Kurt van Haaren, Detlef Hensche u.a. (Hrsg.): Informationsgesellschaft, Medien, Demokratie. Kritik, Positionen, Visionen. Marburg 1996.

Bundesregierung: Info 2000 - Deutschlands Weg in die Informationsgesellschaft. Bericht der Bundesregierung. Deutscher Bundestag Drucksache 13/4000. Bonn 1996.

Hans Peter Dittler: Aktuelle Entwicklungen bei IPv6. In: Klaus-Peter Boden, Michael Barabas (Hrsg.): Internet von der Technologie zum Wirtschaftsfaktor. Deutscher Internet Kongreß ´97 Düsseldorf. Heidelberg 1997, S. 297-301.

Herbert S. Dordick; Georgette Wang: The information society. A retrospective view. Newbury Park/ London/ New Delhi 1993.

European Commission: The competitiveness of the European information and communication technologies (ICT) industries. ICTCM19 vom 14.4.1997 ( http://www.ispo.cec.be/infosoc/legreg/docs/ictcomp.html).

Philipp Genschel: OSIs Karriere. In: Herbert Kubicek u.a. (Hrsg.): Jahrbuch Telekommunikation und Gesellschaft. Schwerpunkt Technikgestaltung. Heidelberg 1994, S. 36-50.

Roland Gewessler: Das neue US-Telekommunikationsgesetz. In: Computer und Recht 12(1996), 10, S. 626-632.

Jürgen Gulbins; R. Schuster: Digitale IDs - Funktionen, Anwendungen und rechtliche Situation. In: Klaus-Peter Boden; Michael Barabas (Hrsg.): Internet - von der Technologie zum Wirtschaftsfaktor. Deutscher Internet Kongreß ´97 Düsseldorf. Heidelberg 1997, S. 197-218.

Kurt van Haaren, Detlef Hensche (Hrsg.): Multimedia. Die schöne neue Welt auf dem Prüfstand. Hamburg 1995.

Katie Hafner und Matthew Lyon: Where wizards stay up late. The origins of the internet. New York 1996.

Ole Hanseth; Eric Monteiro; Morten Hatling: Developing information infrastructure. The tension between standardization and flexibility. In: Science, Technology, & Human Values 21(1996), 4, S. 407-426.

Ulrich Hartmann, Gerhard Schlabschi: OSI - und was die Normung daraus lernen kann In: Herbert Kubicek u.a. (Hrsg.): Jahrbuch Telekommunikation und Gesellschaft. Schwerpunkt Technikgestaltung. Heidelberg 1994, S. 51-62.

Wolfgang Hoffmann-Riem: Aufgaben zukünftiger Medienregulierung. In: Jörg Tauss, Johannes Kollbeck, Jan Mönikes (Hrsg.): Deutschlands Weg in die Informationsgesellschaft. Herausforderungen und Perspektiven für Wirtschaft, Wissenschaft, Recht und Politik. Baden-Baden 1996, S. 568-583.

Patrick Kenis, Volker Schneider (Hrsg.): Organisation und Netzwerk. Institutionelle Steuerung in Wirtschaft und Politik. Frankfurt 1996.

Frank Kirchner, Erich Weichselgartner: Zwischen Wissenschaft und Kommerz. Business Online 1997, Heft 1-2, S. 34-36.

Hans J. Kleinsteuber: Regulierung des Rundfunks in den USA. Zur Kontrolle wirtschaftlicher Macht am Beispiel der FCC. In: Rundfunk und Fernsehen 44(1996), 1, S. 27-50.

Hans J. Kleinsteuber: Das Elend der Informationsgesellschaft. Über wissenschaftliche Begrifflichkeit und politische Funktionalisierung. In: Edelgard Bulmahn (Hrsg.): Die Zukunft der Arbeit in der Informationsgesellschaft - wie verändern multimediale Technologien die Arbeitswelt? Berlin 1996, S. 6-16.

Frank A. Koch: Zivilrechtliche Anbieterhaftung für Inhalte in Kommunikationsnetzen. In: Computer und Recht 14(1997), 4, S. 193-203.

Herbert Kubicek: Steuerung in die Nichtsteuerbarkeit. Paradoxien in der Entwicklung der Telekommunikation in Deutschland. In: Ingo Braun; Bernward Joerges (Hrsg.): Technik ohne Grenzen. Frankfurt am Main 1994, S. 107-165.

Herbert Kubicek: Duale Informationsordnung als Sicherung des öffentlichen Zugangs zu Informationen. In: Computer und Recht 11(1995), 6, S. 370-379.

Herbert Kubicek: Universaldienstregelung in den USA und in Deutschland. In: Computer und Recht 13(1997), 1, S. 1-10.

James Love: Comments on the FCC forum on access to bandwidth, January 23, 1997, http://www.essential.org/cpt/isdn/bandwidth.htm; hier zitiert nach Netzforum vom 23.1.1997.

Jeffrey K. MacKie-Mason, Hal R. Varian: Pricing the Internet. Michigan: 1993/94 ( http://spp.umich.edu/spp/papers/jmm/Pricing_the_Internet.pdf).

Robin Mansell: The new telecommunications. A political economy of network evolution. London 1993.

Ministry of Economic Affairs, Booz, Allen & Hamilton: Enabling the Information Society. Supporting market-led developments. The Hague 1997.

Nick Moore: Neo-liberal or dirigiste? Policies for an Information Society. Erscheint in Political Quarterly Juli 1997.

Hans-Werner Moritz, Hermann R. Neus: Telekommunikationsgesetz und US Telecommunications Act. Ein Vergleich der ordnungspolitischen Ansätze. In: Computer und Recht 13(1997), 4, S. 239-245.

Jose R. Nogueira, J. C. Cavalcanti: Pricing network services. The case of the Internet. In: First Monday 2(1997), 5 ( http://www.firstmonday.dk/issues/issue2_5/nogueira/index.html).

Werner Rammert: Telefon und Kommunikationskultur. Akzeptanz und Diffusion einer Technik im Vier-Länder-Vergleich. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie 42(1990), 1, S. 20-40.

Martin Recke: Der Umbruch der Medienpolitik im digitalen Zeitalter. Zur Regulierung der Medien und Telekommunikation in Deutschland. Diplomarbeit am Fachbereich Politische Wissenschaft der Freien Universität Berlin 1996 ( http://userpage.fu-berlin.de/~mr94/diplom).

Ulrich Riehm: "Informationsgesellschaft" ohne Informationsinfrastruktur? In: Jörg Tauss, Johannes Kollbeck, Jan Mönikes (Hrsg.): Deutschlands Weg in die Informationsgesellschaft. Herausforderungen und Perspektiven für Wirtschaft, Wissenschaft, Recht und Politik. Baden-Baden 1996, S. 130-153.

Ulrich Riehm: Informationsinfrastruktur. In: Marianne Buder; Werner Rehfeld; Thomas Seeger; Dietmar Strauch (Hrsg.): Grundlagen der praktischen Information und Dokumentation. München/ New Providence/ London/ Paris 1997, S. 1034-1046.

Ulrich Riehm: Theorie und Praxis der Informationsgesellschaft. Stichworte zum Schwerpunktthema dieses Heftes. In: TA-Datenbank-Nachrichten 6(1997), 1, S. 3-8 (auch in elektronischer Form).

Ulrich Riehm: Steuerungsprobleme beim Umbruch im Sektor der Telekommunikation und der elektronischen Medien. 1997 (im Erscheinen, als Preprint unter /pub/m/1998/rieh98b.htm).

Ulrich Riehm, Bernd Wingert: Multimedia - Mythen, Chancen und Herausforderungen. Mannheim 1995.

Rainer Rilling: Internet und Demokratie. In: WSI-Mitteilungen 50(1997), 3, S. 194-205.

Ralf Röger: Herausforderungen der Informationsgesellschaft an das Recht. Inwieweit kann und muß der Staat das Internet gesetzlich reglementieren? In: Regionales Rechenzentrum der Universität Köln (Hrsg.): Tagungsband INTERNET-Tag. Köln 1996, S. 68-93.

Peter Seeger: Digitalisierung des Fernsehens und ökonomische Allianzen im elektronischen Medienmarkt. In: Herbert Kubicek u.a. (Hrsg.): Jahrbuch Telekommunikation und Gesellschaft. Schwerpunkt Technikgestaltung. Heidelberg 1994, S. 222-237.

Peter Seeger; Herbert Kubicek: Techniksteuerung und Koordination der Technisierung als Themen sozialwissenschaftlicher Technikforschung. In: Herbert Kubicek; Peter Seeger (Hrsg.): Perspektiven der Techniksteuerung: interdisziplinäre Sichtweisen eines Schlüsselproblems entwickelter Industriegesellschaften. Berlin 1993, S. 9-37.

Peter Siering, Dirk Brenken: Zeit ist Geld. Internet-Zugänge im Praxistest. In: ct 1996, Heft 11, S. 152-158.

Georg Simonis: Macht und Ohnmacht staatlicher Techniksteuerung. Können Politik und Staat den Kurs eines Technisierungsprozesses heute wirklich noch beeinflussen. In: Herbert Kubicek; Peter Seeger (Hrsg.): Perspektiven der Techniksteuerung: interdisziplinäre Sichtweisen eines Schlüsselproblems entwickelter Industriegesellschaften. Berlin 1993, S. 39-57.

Luc Soete u.a.: Eine europäische Informationsgesellschaft für alle. Erste Überlegungen der Gruppe hochrangiger Experten. Zwischenbericht Januar 1996. Brüssel 1996.

Richard Jay Solomon: Telecommunications technology for the twenty-first century. In: William J. Drake (Hrsg.): The new information infrastructure: strategies for U.S. policy. New York 1995, S. 93-111.

Steve G. Steinberg: Seek and ye shall find (maybe). Wired 4(1996), 5 bzw. http://www.hotwired.com/wired/4.05/features/indexweb.html.

Steve G. Steinberg: Netheads vs. Bellheads. In: Wired 4(1996), 10 ( http://www.wired.com/wired/4.10/features/atm.html).

Michael Schwemmle, Hans-Jürgen Sattler: Steuerung durch Regulierung? Post- und Telekommunikationspolitik nach der Privatisierung der Deutschen Bundespost. In: WSI-Mitteilungen 48(1995), 3, S. 189-196.

Werner Schwuchow: Die Rolle des Staates in der Informationsgesellschaft. Reflexionen zu Thesen von Nick Moore zu verschiedenen Ansätzen nationaler Informationspolitiken heute. In: Nachrichten für Dokumentation 48(1997), 1, S. 37-43.

Jörg Tauss, Johannes Kollbeck, Jan Mönikes (Hrsg.): Deutschlands Weg in die Informationsgesellschaft. Herausforderungen und Perspektiven für Wirtschaft, Wissenschaft, Recht und Politik. Baden-Baden 1996.

David Tennenhouse, Butler Lampson, Sharon Eisner Gillett, Jennifer Steiner Klein: Virtual infrastructure: putting information infrastructure on the technology curve. 1995 ( http://www.tns.lcs.mit.edu/publications/VI/VI.html).

Thorsten Thorein: Policy-Analyse im Politikfeld Telekommunikation in der Bundesrepublik Deutschland. Exemplarische Analyse zweier Fallbeispiele anhand eines wissenspolitologischen Ansatzes. Diplomarbeit am Institut für Politische Wissenschaft der Universität Hamburg 1996.

Rolf. H. Weber: Internet als Subventionsnetz? In: Computer und Recht 14(1997), 4, S. 203-209.

Raymund Werle: Telekommunikation in der Bundesrepublik. Expansion, Differenzierung, Transformation. Frankfurt am Main 1990.

Andreas Werner: Suchen und gefunden werden. In: Internet Professionell Juni 1997, S. 93-95.

Helmut Willke: Transformation der Demokratie als Steuerungsmodell hochkomplexer Gesellschaften. In: Soziale Systeme 1(1995), 2, S. 283-300.

Helmut Willke: Die Entwicklung im Multimedia-Bereich als Herausforderung regionalpolitischer Steuerung. Arbeitsbericht Nr. 68 der Akademie für Technikfolgenabschätzung in Baden-Württemberg. Stuttgart 1996.

Hartmut Winkler: Suchmaschinen. Metamedien im Internet? In: http://www.rz.uni-frankfurt.de/~winkler/suchmasc.html 1996. In Überarbeiteter Form in: Telepolis 1997 http://www.heise.de/tp/deutsch/inhalt/te/1135/1.html.

Werner Zorn: Hat Deutschland die Internet-Entwicklung verschlafen? In: Klaus-Peter Boden, Michael Barabas (Hrsg.): Internet - von der Technologie zum Wirtschaftsfaktor. Deutscher Internet Kongreß ´97 Düsseldorf. Heidelberg 1997, S. 1-13.


www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]     [Zum Seitenanfang]     [Zum Inhalt]

Fußnoten

[1] Die Studie wurde im Auftrag der niederländischen Regierung in ihrer Eigenschaft als EU-Ratsvorsitzende von Booz Allen & Hamilton erstellt. Ministry of Economic Affairs, Booz, Allen & Hamilton: Enabling the Information Society. Supporting market-led developments. The Hague 1997. Vgl. auch die Stellungnahme der European Commission: The competitiveness of the European information and communication technologies (ICT) industries. ICTCM19 vom 14.4.1997 ( http://www.ispo.cec.be/infosoc/legreg/docs/ictcomp.html).

[2] Nick Moore: Neo-liberal or dirigiste? Policies for an Information Society. Erscheint in Political Quarterly Juli 1997. Vgl. auch Werner Schwuchow: Die Rolle des Staates in der Informationsgesellschaft. Reflexionen zu Thesen von Nick Moore zu verschiedenen Ansätzen nationaler Informationspolitiken heute. In: Nachrichten für Dokumentation 48(1997), 1, S. 37-43.

[3] Vgl. hierzu die Angaben in Business Online 1-2/1997, S. 8: Den internationalen Vergleich führt Finnland mit 41 ans Internet angeschlossenen Computern pro 1.000 Einwohner an, gefolgt von u.a. den USA (23), Norwegen (20), Schweiz (12). Auf dem 14. Platz dieser Rangreihe steht Deutschland mit sechs Internet-Computern pro 1.000 Einwohner.

[4] Werner Zorn: Hat Deutschland die Internet-Entwicklung verschlafen? In: Klaus-Peter Boden, Michael Barabas (Hrsg.): Internet - von der Technologie zum Wirtschaftsfaktor. Deutscher Internet Kongreß ´97 Düsseldorf. Heidelberg 1997, S. 1-13. Vgl. etwa auch für die allgemeinere Situation in Deutschland ähnlich skeptisch Helmut Willke: Die Entwicklung im Multimedia-Bereich als Herausforderung regionalpolitischer Steuerung. Arbeitsbericht Nr. 68 der Akademie für Technikfolgenabschätzung in Baden-Württemberg. Stuttgart 1996, S. 48-51.

[5] Wenn hier und im folgenden von "Informationsgesellschaft" gesprochen wird, ist dies nur als Chiffre für einen bestimmten Diskussionszusammenhang zu verstehen, nicht als inhaltlich expliziertes gesellschaftliches Entwicklungsmodell. Kritisch hierzu etwa Hans J. Kleinsteuber: Das Elend der Informationsgesellschaft. Über wissenschaftliche Begrifflichkeit und politische Funktionalisierung. In: Edelgard Bulmahn (Hrsg.): Die Zukunft der Arbeit in der Informationsgesellschaft - wie verändern multimediale Technologien die Arbeitswelt? Berlin 1996, S. 6-16 und Herbert S. Dordick; Georgette Wang: The information society. A retrospective view. Newbury Park/ London/ New Delhi 1993.

[6] Der Asynchronous Transfer Mode umfaßt eine Reihe von Standards und Spezifikationen der ITU, des ANSI und des ATM-Forums wie z.B. die ITU-T Recommendation I.150 B-ISDN ATM Functional Characteristics von 1993. Einen Überblick gibt hierzu http://www.cis.ohio-state.edu/~jain/refs/atm_refs.htm (Stand Juni 1997).

[7] Ministry of Economic Affairs, Booz, Allen & Hamilton 1997, S. 32f; European Commission 1997.

[8] Moore 1997.

[9] Zorn 1997, S. 4, 8.

[10] Bundesministerium für Forschung und Technologie, heute als BMBF (Bildung und Forschung) vereinigt mit dem ehemaligen Bildungs- und Wissenschaftsministerium.

[11] Deutsches Forschungsnetz, ein öffentlich geförderter Verein, der die Netzinfrastruktur für die Wissenschaftseinrichtungen in Deutschland zur Verfügung stellt.

[12] So Philipp Genschel: OSIs Karriere. In: Herbert Kubicek u.a. (Hrsg.): Jahrbuch Telekommunikation und Gesellschaft. Schwerpunkt Technikgestaltung. Heidelberg 1994, S. 36-50. Deutlich positiver dagegen Ulrich Hartmann, Gerhard Schlabschi: OSI - und was die Normung daraus lernen kann. Im gleichen Band, S. 51-62. Zum Vergleich der OSI- und der TCP/IP-Standardisierung vgl. Ole Hanseth; Eric Monteiro; Morten Hatling: Developing information infrastructure. The tension between standardization and flexibility. In: Science, Technology, & Human Values 21(1996), 4, S. 407-426.

[13] Vgl. Thorsten Thorein: Policy-Analyse im Politikfeld Telekommunikation in der Bundesrepublik Deutschland. Exemplarische Analyse zweier Fallbeispiele anhand eines wissenspolitologischen Ansatzes. Diplomarbeit am Institut für Politische Wissenschaft der Universität Hamburg 1996, IV.1.3b, IV.1.5.

[14] Vgl. hierzu etwa Ulrich Riehm, Bernd Wingert: Multimedia - Mythen, Chancen und Herausforderungen. Mannheim 1995 sowie mit noch stärkerem Bezug zu den gesellschaftlichen Folgen z.B. Kurt van Haaren, Detlef Hensche (Hrsg.): Multimedia. Die schöne neue Welt auf dem Prüfstand. Hamburg 1995; Luc Soete u.a.: Eine europäische Informationsgesellschaft für alle. Erste Überlegungen der Gruppe hochrangiger Experten. Zwischenbericht Januar 1996. Brüssel 1996; Edelgard Bulmahn, Kurt van Haaren, Detlef Hensche u.a. (Hrsg.): Informationsgesellschaft, Medien, Demokratie. Kritik, Positionen, Visionen. Marburg 1996; Jörg Tauss, Johannes Kollbeck, Jan Mönikes (Hrsg.): Deutschlands Weg in die Informationsgesellschaft. Herausforderungen und Perspektiven für Wirtschaft, Wissenschaft, Recht und Politik. Baden-Baden 1996.

[15] Vgl. zu den "Wellen politischer Steuerungspraxis" Peter Seeger; Herbert Kubicek: Techniksteuerung und Koordination der Technisierung als Themen sozialwissenschaftlicher Technikforschung. In: Herbert Kubicek; Peter Seeger (Hrsg.): Perspektiven der Techniksteuerung: interdisziplinäre Sichtweisen eines Schlüsselproblems entwickelter Industriegesellschaften. Berlin 1993, S. 9-37.

[16] Wie immer drücken solche Etappeneinteilungen nur eine Tendenz aus, stellen nur den vorherrschenden Typus dar, der sich in der Wirklichkeit meist nur vielfach gebrochen und modifiziert wiederfindet. So kann man die in Deutschland ab Mitte der 90er Jahre initiierten und staatlich massiv geförderten Pilotversuche zum digitalen Radio (DAB) schwerlich mit einer technologiepolitischen "laissez faire"-Haltung in Einklang bringen. Auch der schließlich Ende 1996 für gescheitert erklärte Multimedia-Pilotversuch in Stuttgart entsprang eher der Auffassung, daß sich die Politik aus der Technologie- (und Industrie-)politik nicht gänzlich zurückziehen dürfe. Beides sind im übrigen Beispiele, die zeigen, daß auch konservative Parteien wie die CDU keineswegs auf die "Deregulierungslinie" festgelegt sind. Zu DAB vgl. Riehm und Wingert 1995, S. 221-237. Zum Stuttgarter Pilotversuch vgl. die Artikel von Riehm, Oettinger, Spöri und Fuchs im Schwerpunktthema "Informationsgesellschaft" der TA-Datenbank-Nachrichten 6(1997), 1, S. 3-14 (auch im Internet).

[17] Vgl. zu weiteren Ursachen der Wende zur "Deregulierung" am Beispiel der Post- und Telekommunikationspolitik Thorein 1996, Kapitel III, der technologische, ökonomische, wissenschaftliche (bzw. ideologische) und institutionelle Gründe unterscheidet.

[18] Vgl. zu HDTV etwa Peter Seeger: Digitalisierung des Fernsehens und ökonomische Allianzen im elektronischen Medienmarkt. In: Herbert Kubicek u.a. (Hrsg.): Jahrbuch Telekommunikation und Gesellschaft. Schwerpunkt Technikgestaltung. Heidelberg 1994, S. 222-237. Vgl. zu den IBFN-Planungen Herbert Kubicek: Steuerung in die Nichtsteuerbarkeit. Paradoxien in der Entwicklung der Telekommunikation in Deutschland. In: Ingo Braun; Bernward Joerges (Hrsg.): Technik ohne Grenzen. Frankfurt am Main 1994, S. 107-165.

[19] Vgl. hierzu Helmut Willke: Transformation der Demokratie als Steuerungsmodell hochkomplexer Gesellschaften. In: Soziale Systeme 1(1995), 2, S. 283-300 sowie Georg Simonis: Macht und Ohnmacht staatlicher Techniksteuerung. Können Politik und Staat den Kurs eines Technisierungsprozesses heute wirklich noch beeinflussen. In: Herbert Kubicek; Peter Seeger (Hrsg.): Perspektiven der Techniksteuerung: interdisziplinäre Sichtweisen eines Schlüsselproblems entwickelter Industriegesellschaften. Berlin 1993, S. 39-57, hier insbesondere S. 48-52.

[20] Die populäre Kritik an der Regelungskompetenz der Bundesländer in der Bundesrepublik für Rundfunk und Medien bekommt im Kontext dieser Dezentralisierungs- und Regionalisierungspolitik einen fragwürdigen Status. Im übrigen ist die Vorstellung, daß die USA im Bereich der Telekommunikation und der Medien nicht mit bundesstaatlichen Regulationsinstanzen zu tun habe, unhaltbar. Vergleiche etwa den Hinweis auf die Vielfalt unkoordinierter bundesstaatlicher Gesetze und Gesetzentwürfe zur digitalen Signatur in den USA von Jürgen Gulbins; R. Schuster: Digitale IDs - Funktionen, Anwendungen und rechtliche Situation. In: Klaus-Peter Boden; Michael Barabas (Hrsg.): Internet - von der Technologie zum Wirtschaftsfaktor. Deutscher Internet Kongreß ´97 Düsseldorf. Heidelberg 1997, S. 197-218, hier S. 209.

[21] Das Bild der "Arena", in der eine Vielzahl von Akteure auftreten und die Entwicklung der Technik und ihre Einsatzbedingungen "aushandeln", ist häufig in der Techniksoziologie der letzten Jahre anzutreffen. Vgl. für viele andere etwa Werner Rammert: Telefon und Kommunikationskultur. Akzeptanz und Diffusion einer Technik im Vier-Länder-Vergleich. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie 42(1990), 1, S. 20-40.

[22] Willke 1996, S. 33f.

[23] Simonis 1993, S. 50.

[24] Vgl. etwa Moore 1997; Roland Gewessler: Das neue US-Telekommunikationsgesetz. In: Computer und Recht 12(1996), 10, S. 626-632; Michael Schwemmle, Hans-Jürgen Sattler: Steuerung durch Regulierung? Post- und Telekommunikationspolitik nach der Privatisierung der Deutschen Bundespost. In: WSI-Mitteilungen 48(1995), 3, S. 189-196, hier S. 194; Hans Jürgen Kleinsteuber: Regulierung des Rundfunks in den USA. Zur Kontrolle wirtschaftlicher Macht am Beispiel der FCC. In: Rundfunk und Fernsehen 44(1996), 1, S. 27-50, hier S. 30.

[25] Vgl. zur Geschichte der Telekommunikation in der Bundesrepublik Deutschland Raymund Werle: Telekommunikation in der Bundesrepublik. Expansion, Differenzierung, Transformation. Frankfurt am Main 1990.

[26] Vgl. das 1996 in Deutschland verabschiedete Telekommunikationsgesetz (TKG).

[27] Vgl. Ulrich Riehm: Informationsinfrastruktur. In: Marianne Buder; Werner Rehfeld; Thomas Seeger; Dietmar Strauch (Hrsg.): Grundlagen der praktischen Information und Dokumentation. München/ New Providence/ London/ Paris 1997, S. 1034-1046.

[28] Bundesregierung: Info 2000 - Deutschlands Weg in die Informationsgesellschaft. Bericht der Bundesregierung. Deutscher Bundestag Drucksache 13/4000. Bonn 1996, S. 54. Vgl. hierzu auch Thorein 1996, Abschnitt IV.1.4.a.

[29] Vgl. z.B. "Ist ATM eine zukunftssichere Investition?" In: Funkschau Nr. 10, 1997, S. 32f. Zur Auseinandersetzung zwischen den Akteuren aus dem Bereich der Telekommunikation, die eher ATM unterstützen, und aus dem Bereich der Computernetze, die eher ATM kritisieren vgl. auch Steve G. Steinberg: Netheads vs. Bellheads. In: Wired 4(1996), 10 ( http://www.wired.com/wired/4.10/features/atm.html).

[30] Vgl. zu diesem Komplex Richard Jay Solomon: Telecommunications technology for the twenty-first century. In: William J. Drake (Hrsg.): The new information infrastructure: strategies for U.S. policy. New York 1995, S. 93-111; David Tennenhouse, Butler Lampson, Sharon Eisner Gillett, Jennifer Steiner Klein: Virtual infrastructure: putting information infrastructure on the technology curve. 1995 ( http://www.tns.lcs.mit.edu/publications/VI/VI.html) sowie Ulrich Riehm: Steuerungsprobleme beim Umbruch im Sektor der Telekommunikation und der elektronischen Medien. 1997 (im Erscheinen, als Preprint unter /pub/m/1998/rieh98b.htm).

[31] Solomon 1995, S. 96-98.

[32] Vgl. zur Diskussion um DAB und die Entwicklung konkurrierender digitaler Radio-Standards Riehm und Wingert 1995, Kapitel 7 sowie Ulrich Riehm: "Informationsgesellschaft" ohne Informationsinfrastruktur? In: Jörg Tauss, Johannes Kollbeck, Jan Mönikes (Hrsg.): Deutschlands Weg in die Informationsgesellschaft. Herausforderungen und Perspektiven für Wirtschaft, Wissenschaft, Recht und Politik. Baden-Baden 1996, S. 130-153.

[33] Riehm 1996, S. 140-143.

[34] Robin Mansell: The new telecommunications. A political economy of network evolution. London 1993. Vgl. hierzu auch, sowie zu Fragmentierungstendenzen im Bereich der Sprachtelefonie und der digitalen Radiostandards Riehm 1996, S. 136-146.

[35] Vgl. etwa zur "Governance-Diskussion" Patrick Kenis, Volker Schneider (Hrsg.): Organisation und Netzwerk. Institutionelle Steuerung in Wirtschaft und Politik. Frankfurt 1996.

[36] Willke 1996, S. 8.

[37] Seeger und Kubicek 1993, S. 12f.

[38] Willke 1996, S. 8.

[39] Herbert Kubicek: Duale Informationsordnung als Sicherung des öffentlichen Zugangs zu Informationen. In: Computer und Recht 11(1995), 6, S. 370-379.

[40] Solche Regelungen sieht der US-amerikanische Telecommunication Act von 1996 vor. Vgl. hierzu Gewessler1996; Herbert Kubicek: Universaldienstregelung in den USA und in Deutschland. In: Computer und Recht 13(1997), 1, S. 1-10; Hans-Werner Moritz, Hermann R. Neus: Telekommunikationsgesetz und US Telecommunications Act. Ein Vergleich der ordnungspolitischen Ansätze. In: Computer und Recht 13(1997), 4, S. 239-245.

[41] Willke 1996, S. 16.

[42] Willke 1996, S. 8f, 33.

[43] Vgl. zu diesen Multimedia-Pilotversuchen Ulrich Riehm: Theorie und Praxis der Informationsgesellschaft. Stichworte zum Schwerpunktthema dieses Heftes. In: TA-Datenbank-Nachrichten 6(1997), 1, S. 3-8 (auch in elektronischer Form).

[44] Willke 1996, S. 52.

[45] Wolfgang Hoffmann-Riem: Aufgaben zukünftiger Medienregulierung. In: Tauss u.a. 1996, S. 568-583.

[46] Vgl. z.B. Seeger und Kubicek 1993, S. 24-29 unter Bezugnahme auf Martinsen; Simonis 1993; Martin Recke: Der Umbruch der Medienpolitik im digitalen Zeitalter. Zur Regulierung der Medien und Telekommunikation in Deutschland. Diplomarbeit am Fachbereich Politische Wissenschaft der Freien Universität Berlin 1996 ( http://userpage.fu-berlin.de/~mr94/diplom).

[47] Vgl. etwa Katie Hafner und Matthew Lyon: Where wizards stay up late. The origins of the internet. New York 1996.

[48] Statistiken zum Datendurchsatz und Delay-Messungen im WIN des DFN finden sich unter http://www-win.rrze.uni-erlangen.de bzw. http://rigel.dfn.de/win. Vgl. dazu auch Frank Kirchner, Erich Weichselgartner: Zwischen Wissenschaft und Kommerz. Business Online 1997, Heft 1-2, S. 34-36. Ein Vergleich der Geschwindigkeit und Zuverlässigkeit des Datenverkehrs zwischen den wichtigsten deutschen Internet Service Providern liefert Peter Siering, Dirk Brenken: Zeit ist Geld. Internet-Zugänge im Praxistest. In: ct 1996, Heft 11, S. 152-158. Nach diesem Test bietet (für den Testzeitpunkt in 1996) der Internet-Anbieter in Deutschland mit den meisten Kunden, T-Online, die schlechteste Leistung.

[49] Entsprechende Nutzerbefragungen wurden von 1986 bis 1993 jährlich von Eusidic/Eurolog in den Ländern der EU in bezug auf die Erreichbarkeit internationaler Datenbankanbieter und die Zuverlässigkeit der öffentlichen paketvermittelten Netze durchgeführt. Vgl. Password 1996, Heft 8, S. 2.

[50] Zur Diskussion um eine mögliche Stiftung Medientest vgl. Hoffmann-Riem 1996, S. 580f sowie den Themenschwerpunkt der Zeitschrift Rundfunk und Fernsehen 44(1996), 2, S. 214-260 mit Beiträgen von Krotz, Gottberg, Grätz, Haen, Langenbucher, Ring, Schatz, Simonis, Tillmanns, Wolsing.

[51] Vgl. Educom 42/96 vom 11.10.1996 und 37/96 vom 6.9.1996. Die deutsche Ausgabe von Educom kann über http://www.stern.de bezogen werden.

[52] So etwa Ralf Röger: Herausforderungen der Informationsgesellschaft an das Recht. Inwieweit kann und muß der Staat das Internet gesetzlich reglementieren? In: Regionales Rechenzentrum der Universität Köln (Hrsg.): Tagungsband INTERNET-Tag. Köln 1996, S. 68-93. Vgl. auch zur allgemeinen Problematik des Angebots von Internet-Dienstleistung durch die öffentliche Hand unter dem Gesichtspunkt eines fairen Wettbewerbs Rolf. H. Weber: Internet als Subventionsnetz? In: Computer und Recht 14(1997), 4, S. 203-209.

[53] Business Online 5/97, S. 10.

[54] Zu diesem Konflikt vgl. z.B. Vince Bielkski: David vs. Goliaths. http://www.villagevoice.com:80/ink/cyber.html (ohne Datum, Abruf am 22.5.1997).

[55] Jeffrey K. MacKie-Mason, Hal R. Varian: Pricing the Internet. Michigan: 1993/94 ( http://spp.umich.edu/spp/papers/jmm/Pricing_the_Internet.pdf); Jose R. Nogueira, J. C. Cavalcanti: Pricing network services. The case of the Internet. In: First Monday 2(1997), 5 ( http://www.firstmonday.dk/issues/issue2_5/nogueira/index.html).

[56] Hans Peter Dittler: Aktuelle Entwicklungen bei IPv6. In: Klaus-Peter Boden, Michael Barabas (Hrsg.): Internet - von der Technologie zum Wirtschaftsfaktor. Deutscher Internet Kongreß ´97 Düsseldorf. Heidelberg 1997, S. 297-301.

[57] Erich Bonnert: Kollapstherapie. 6. World-Wide-Web-Konferenz. In: Business Online 1997, Nr. 5, S. 78.

[58] Vgl. Frank A. Koch: Zivilrechtliche Anbieterhaftung für Inhalte in Kommunikationsnetzen. In: Computer und Recht 14(1997), 4, S. 193-203, hier Fußnote 8. Vgl. auch die Meldungen in Edupage 2/97 vom 3.1.1997, 4/97 vom 17.1.1997, 5/97 vom 24.1.97 und 6/1997 vom 31.1.1997.

Nachtrag Juni 1998: Über den vorläufigen Ausgang des Streits mit AOL berichtet am 5.6.1998 der STERN Newsletter Computer 24/98, die deutsche Ausgabe von Edupage: "Vor mehr als einem Jahr drohten America Online (http://www.aol.com) wegen ständig besetzter Telefonleitungen zahlreiche zivilrechtliche Klagen; die Überlastung der Leitungen ging auf die damalige Einführung eines Pauschalpreises zurück, die einen dramatischen Anstieg der Nutzung nach sich zog. Jetzt hat sich AOL bereit erklärt, insgesamt 4,7 Millionen D-Mark an 44 US-Bundesstaaten zu zahlen. Das Unternehmen reagiert damit auf den Vorwurf, AOL habe seine Kunden in Bezug auf Gebühren und Telefonkosten in die Irre geführt. Nach Angaben von AOL bedeutet diese Ausgleichszahlung jedoch kein Eingeständnis einer Schuld. (New York Times, 29. Mai 1998)"

[59] James Love: Comments on the FCC forum on access to bandwidth, January 23, 1997, http://www.essential.org/cpt/isdn/bandwidth.htm; hier zitiert nach Netzforum vom 23.1.1997.

[60] Über weitere sinnvolle Indikatoren, die die Leistungen eines Internet Service Providers transparent und vergleichbar machen, wäre nachzudenken. Koch 1997 argumentiert jedenfalls, daß solche Angaben zu einer vertraglich einklagbaren Leistungspflicht des Anbieters führen würde.

[61] Vgl. die entsprechenden Regelungen im Teledienstegesetz (TDG).

[62] So auch Hartmut Winkler: Suchmaschinen. Metamedien im Internet? In: http://www.rz.uni-frankfurt.de/~winkler/suchmasc.html 1996. "Wir wissen nicht, wer sie betreibt und warum, nicht wie sie aufgebaut sind und wenig darüber, wie sie funktionieren; der klassische Fall einer black box." Eine überarbeitete Version des Beitrags von Winkler findet sich auch in der Netz-Zeitschrift Telepolis http://www.ix.de/tp/te/1135/findex.htm. Vgl. auch Steve G. Steinberg: Seek and ye shall find (maybe). Wired 4(1996), 5 bzw. http://www.hotwired.com/wired/4.05/features/indexweb.html.

[63] Vgl. etwa Andreas Werner: Suchen und gefunden werden. In: Internet Professionell Juni 1997, S. 93-95.

[64] So auch Winkler 1996, der von einem durch die Suchmaschinen ausgelösten Zentralisierungsschub spricht, der aber als solcher nicht empfunden wird. "Die Suchmaschinen können nur deshalb eine so zentrale Position einnehmen, weil man ihnen in gewisser Weise Neutralität unterstellt. Weil sie gerade nicht ein inhaltliches Angebot machen, sondern in rein dienender Funktion, als ein Service und ein neutraler Vermittler, auftreten". Die Zentralisierungsthese, verallgemeinert auf das gesamte "web", wird auch aufgestellt von Rainer Rilling: Internet und Demokratie. In: WSI-Mitteilungen 50(1997), 3, S. 194-205.

[65] "Die Forschung braucht Spezial-Suchmaschinen" Educom 43/96 vom 18.10.1996.

[66] Klaus Haeffner kritisiert in der Frankfurter Rundschau vom 25.10.1997, S. 20 den Rückzug des Staates aus der (Fach-)Informationspolitik und die einseitige Orientierung an der "Kommerzialisierung der Ware Information".

[67] Die Forderung nach einem "Internet-Gesetz" wird in der Diskussion über das TDG immer wieder aufgestellt, um das Internet als einen eindeutigen Geltungsbereich des Gesetzes kenntlich zu machen.

[68] Heidi Bergmann, Karl L. Brockmann, Klaus Rennings: ZEW-Studie zu Selbstverpflichtungen im Umweltschutz - kein marktwirtschaftliches Instrument. In: TA-Datenbank-Nachrichten 5(1996), 3, S. 45-48, hier S. 47.

[69] Vgl. Kleinsteuber: Regulierung des Rundfunks in den USA. 1996.


[Zum Seitenanfang]     [Zum Inhalt]
www.itas.kit.edu     [ITAS-Literatur]     [ITAS-Literatur 1998]
Stand: 04.09.1998 - Kommentare und Bemerkungen an: Ulrich Riehm